AI Contro AI: La minaccia dell’Adversarial Machine Learning
L’intelligenza artificiale (AI) è ormai una presenza costante nella nostra vita quotidiana, venendo utilizzata in molteplici contesti, dalle auto a guida autonoma alle Smart Cities. Le reti neurali, sempre più potenti, gestiscono e analizzano enormi quantità di dati sensibili e operano in ambienti critici, diventando bersagli attraenti per nuove forme di attacchi informatici. Ma possiamo davvero fidarci ciecamente delle predizioni di questi sistemi? E se invece di identificare un ostacolo, una macchina a guida autonoma rilevasse erroneamente che la strada è libera? Con l’avvento dell’Adversarial Machine Learning, una tecnica in cui si creano appositamente degli input “adversarial”, cioè malevoli, si cerca di disturbare il comportamento di questi modelli di AI, portandoli a fare predizioni erronee. Queste vulnerabilità intrinseche possono essere sfruttate, mettendo a rischio la nostra sicurezza digitale e reale. Nella nostra attività esploreremo il funzionamento delle reti neurali e come queste possano essere attaccate e difese. Dimostreremo in pratica un attacco di Adversarial Machine Learning nell’ambito della Computer Vision, programmando un attacco utilizzando Python. Scopriremo insieme come piccoli cambiamenti apparentemente innocui nei dati di input possano ingannare sistemi avanzati, portandoli a fare errori catastrofici. Unisciti a noi per capire come possiamo proteggere il nostro futuro digitale, affrontando le sfide emergenti della cybersecurity con soluzioni innovative e sostenibili.
A cura di: Gabriele Restuccia, Ilenia Tinnirello.
Questa attività è correlata al seguente SDG (Sustainable Development Goals):
SDG 9 Costruire un’infrastruttura resiliente, promuovere l’industrializzazione inclusiva e sostenibile