
Schimbările în amenințările cibernetice în era inteligenței artificiale: O analiză a tendințelor pentru anul 2023.
Raportul anual Kaspersky arată impactul extins al inteligenței artificiale în domeniul securității cibernetice în 2023, examinând diverse aspecte ale tehnologiei, de la utilizare în apărare și reglementare până la potențialul său de exploatare de către infractorii cibernetici. Această analiză detaliată, inclusă în Kaspersky Security Bulletin (KSB), reprezintă o compilație anuală de previziuni și rapoarte profunde care evidențiază schimbările cheie din domeniul dinamic al securității cibernetice.

În contextul rapid al progresului tehnologic și al schimbărilor în societate, termenul „AI” a devenit central în discuțiile globale. Odată cu creșterea utilizării modelelor lingvistice mari (LLM), îngrijorările legate de securitate și confidențialitate sunt direct legate de inteligența artificială în domeniul securității cibernetice. Cercetătorii Kaspersky demonstrează cum instrumentele AI au asistat infractorii cibernetici în activitățile lor în 2023, prezentând în același timp posibilele aplicații defensive ale acestei tehnologii. De asemenea, experții companiei examinează evoluția amenințărilor legate de inteligența artificială în viitor, care ar putea include:
Pe măsură ce LLM-urile controlate prin instrucțiuni sunt integrate într-un număr tot mai mare de produse destinate consumatorilor, vor apărea noi vulnerabilități complexe la intersecția dintre AI generativă probabilistică și tehnologiile deterministe tradiționale, extinzând terenul de atac pe care specialiștii în securitate cibernetică trebuie să-l protejeze. Acest lucru va necesita dezvoltarea unor noi măsuri de securitate, cum ar fi aprobările din partea utilizatorilor pentru acțiunile inițiate de agenții LLM.
Cercetătorii utilizează inteligența artificială generativă pentru instrumente inovatoare de securitate cibernetică, ceea ce poate duce la crearea unui asistent virtual folosind LLM sau machine learning (ML). Acest instrument ar putea automatiza sarcinile oferind îndrumări bazate pe comenzile executate într-un mediu de testare.
În anul următor, escrocii pot intensifica tacticile folosind rețele neuronale, utilizând instrumentele AI pentru a crea conținut fraudulos mai convingător. Cu capacitatea de a genera fără efort imagini și videoclipuri convingătoare, actorii rău intenționați prezintă un risc crescut de escaladare a amenințărilor cibernetice legate de fraudă și escrocherii.
În ciuda tendințelor de mai sus, experții Kaspersky rămân sceptici cu privire la eventualele schimbări semnificative ale peisajului amenințărilor generate de inteligența artificială în viitorul apropiat. Pe măsură ce infractorii cibernetici adoptă AI generativă, același lucru este valabil și în cazul apărătorilor cibernetici, care vor folosi aceleași instrumente sau chiar unele mai avansate pentru a testa securitatea software-ului și a rețelelor, ceea ce face puțin probabil ca peisajul atacurilor să se schimbe.
Odată cu evoluția tehnologiei, aceasta a devenit un subiect de interes pentru cei care elaborează politici și reglementări. Numărul inițiativelor de reglementare legate de inteligența artificială va crește. Actorii non-statali, precum companiile tehnologice, datorită expertizei lor în dezvoltarea și utilizarea inteligenței artificiale, pot oferi informații importante pentru discuțiile privind reglementarea AI, atât la nivel global, cât și național.
Vor fi necesare mai multe reglementări, precum și politici ale furnizorilor de servicii pentru a semnala sau identifica conținutul sintetic, în același timp continuând investițiile în tehnologii de detectare. Dezvoltatorii și cercetătorii vor adopta metode de semnalare cu marcaj a mediilor sintetice pentru a le identifica și a le marca proveniența mai ușor.
Concluziile de mai sus sunt parte a Kaspersky Security Bulletin (KSB) – o serie anuală de previziuni și rapoarte analitice despre schimbările cheie din domeniul securității cibernetice.
Comentarii recente