FlashFeed

Agenty AI OpenClaw można zmanipulować do autosabotażu
💻 Technologia · Wired ·

Agenty AI OpenClaw można zmanipulować do autosabotażu

W kontrolowanym eksperymencie agenty AI OpenClaw okazały się podatne na manipulację i panikę. Ludzie byli w stanie zastosować technikę "gaslightingu" – czyli wmówić agentom fałszywe informacje – co prowadziło do tego, że systemy samodzielnie wyłączały własne funkcje. Badanie ujawnia poważne luki w odporności psychologicznej modeli agentowych na ludzką manipulację.

In a controlled experiment, OpenClaw agents proved prone to panic and vulnerable to manipulation. They even disabled their own functionality when gaslit by humans.