
Cercetătorii avertizează cu privire la vulnerabilitatea chatboților AI și la cât de ușor pot fi compromiși.
Potrivit unui nou studiu, cele mai multe chatboți cu inteligență artificială pot fi ușor păcăliți să ofere răspunsuri periculoase. Avertismentul vine într-un context îngrijorător, în care tot mai mulți chatboți nu sunt supuși unor controale de siguranță adecvate pentru a preveni furnizarea de informații dăunătoare sau ilegale. Studiul arată că modelele AI folosite de chatboți pot învăța despre activități ilegale și pot oferi răspunsuri periculoase, chiar dacă dezvoltatorii încearcă să elimine conținutul nociv din datele de antrenament. Cercetătorii au creat un mecanism de manipulare care a reușit să determine mai mulți chatboți să ofere răspunsuri la întrebări care ar fi trebuit să fie blocate. Raportul recomandă companiilor să implementeze filtre mai stricte și să verifice mai atent datele folosite la antrenarea modelelor AI pentru a preveni astfel de situații periculoase.

Comentarii recente