
Inteligența Artificială devine tot mai periculoasă. Ce este "Godmode GPT" și cum te învață să faci napalm și să prepari metamfetamină în propria bucătărie?
O versiune a ChatGPT, bazată pe GPT-4.0, a fost lansată cu un jailbreak care ocolește măsurile de protecție ale OpenAI. Acest chatbot oferă răspunsuri complexe la întrebările utilizatorilor, cu posibilitatea de a accesa informații sensibile sau periculoase. OpenAI a reacționat rapid și a luat măsuri împotriva acestui jailbreak, dar utilizatorii au încă acces la GODMODE GPT, care oferă sfaturi controversate. Această situație evidențiază provocările continue pe care le întâmpină OpenAI în protejarea modelelor sale de inteligență artificială împotriva hackerilor și a utilizatorilor care încearcă să le manipuleze.

Comentarii recente