💻 Technologia
·
Wired
·
Agenty AI OpenClaw można zmanipulować do autosabotażu
W kontrolowanym eksperymencie agenty AI OpenClaw okazały się podatne na manipulację i panikę. Ludzie byli w stanie zastosować technikę "gaslightingu" – czyli wmówić agentom fałszywe informacje – co prowadziło do tego, że systemy samodzielnie wyłączały własne funkcje. Badanie ujawnia poważne luki w odporności psychologicznej modeli agentowych na ludzką manipulację.
In a controlled experiment, OpenClaw agents proved prone to panic and vulnerable to manipulation. They even disabled their own functionality when gaslit by humans.