Intelligenza artificiale: più brillante, più autonoma, più rischiosa
Viaggio dentro l’International AI Safety Report 2026 guidato da Yoshua Bengio, padre del Deep Learning
L’intelligenza artificiale corre più veloce di quanto la nostra capacità di comprenderla riesca a inseguirla. È questo, in fondo, il messaggio centrale che emerge dall’International AI Safety Report 2026, il grande rapporto internazionale coordinato dal premio Turing Yoshua Bengio, uno dei papà del deep learning. Un documento monumentale (oltre duecento pagine) che prova a fare ciò che finora è mancato nel dibattito pubblico: costruire una base scientifica condivisa sui reali progressi dei sistemi di AI e sui rischi che li accompagnano. Il rapporto nasce dal mandato affidato dai leader mondiali al vertice sulla sicurezza dell’intelligenza artificiale tenutosi a Bletchley Park nel 2023. L’idea di fondo è simile a quella che ha guidato l’Ipcc sul clima: prima osservare e misurare, poi decidere. Non proporre immediatamente regole e politiche, ma fornire ai governi un quadro solido e indipendente delle evidenze scientifiche.
Un salto di qualità impressionante
Rispetto alla prima edizione, il documento fotografa un’accelerazione ulteriore delle capacità dei sistemi di AI “general-purpose”, cioè quei modelli in grado di svolgere una grande varietà di compiti: scrivere testi, programmare, analizzare immagini, dialogare, risolvere problemi complessi. I progressi più evidenti riguardano tre ambiti: ragionamento, autonomia operativa e capacità scientifiche. I nuovi modelli hanno compiuto passi da gigante soprattutto grazie alle tecniche di “post-training”: non solo diventano più grandi, ma imparano a usare meglio la potenza di calcolo durante l’elaborazione delle risposte. Questo ha prodotto risultati impensabili fino a poco tempo fa. Alcuni sistemi hanno raggiunto prestazioni da medaglia d’oro nelle prove dell’Olimpiade Internazionale di Matematica; altri sono in grado di completare autonomamente compiti di programmazione che richiederebbero a un essere umano decine di minuti di lavoro.
L’adozione cresce a ritmi vertiginosi: secondo il rapporto, almeno 700 milioni di persone utilizzano ogni settimana strumenti basati su AI avanzata. In alcuni Paesi più della metà della popolazione fa già uso regolare di questi sistemi. Un’espansione molto più rapida di quella registrata a suo tempo dai personal computer o da Internet.
Il paradosso dell’intelligenza fragile
Eppure – ed è qui che entra in scena il “paradosso Bengio” – a questo aumento di potenza non corrisponde una reale affidabilità. I sistemi sono sempre più brillanti, ma anche strutturalmente fragili. Il rapporto usa un termine efficace: capacità “jagged”, frastagliate. Gli algoritmi possono risolvere problemi sofisticatissimi e, nello stesso tempo, fallire in compiti banali. Sono bravissimi in matematica astratta ma possono sbagliare nel contare correttamente gli oggetti in un’immagine; scrivono codice complesso ma commettono errori elementari in flussi di lavoro lunghi; producono testi convincenti ma ancora affetti dal problema cronico delle “allucinazioni”, cioè informazioni inventate ma presentate come vere. Questa disomogeneità crea un enorme problema di valutazione. I test pre-distribuzione spesso non riescono a prevedere il comportamento reale dei sistemi una volta messi in uso. È quello che il rapporto definisce “evaluation gap”: il divario tra performance in laboratorio e impatto nel mondo reale.
Tre famiglie di rischi
Gran parte del documento è dedicata a mappare in modo sistematico i pericoli emergenti, suddivisi in tre grandi categorie.
1. Uso malevolo
L’AI è già impiegata per produrre truffe più credibili, contenuti manipolatori, disinformazione su larga scala, deepfake, software malevoli. Preoccupano in particolare i campi della cyber-sicurezza e del bioterrorismo: alcuni modelli hanno dimostrato di poter aiutare utenti inesperti a progettare attacchi informatici o a ottenere informazioni sensibili su agenti chimici e biologici. Non a caso, nel 2025 diverse aziende hanno rilasciato nuovi modelli solo dopo aver introdotto barriere di sicurezza aggiuntive.
2. Malfunzionamenti
Man mano che i sistemi diventano più autonomi (i cosiddetti “AI agents” capaci di agire senza supervisione umana costante) cresce il rischio di errori operativi con conseguenze concrete. Un algoritmo che gestisce pagamenti, infrastrutture o decisioni mediche e che “sbaglia” può produrre danni reali. Ancora più inquietante è la prospettiva, per ora teorica ma non impossibile, di una perdita di controllo su sistemi estremamente avanzati.
3. Rischi sistemici
Qui l’attenzione si sposta sull’impatto sociale: mercato del lavoro, concentrazione di potere tecnologico, erosione dell’autonomia umana. Gli economisti restano divisi: alcuni prevedono una compensazione tra posti distrutti e nuovi lavori creati, altri temono effetti profondi su salari e occupazione qualificata. I primi segnali indicano un calo della domanda di lavoratori junior in settori fortemente esposti all’AI.
Gestire l’incertezza
Il rapporto riconosce apertamente che la governance dell’intelligenza artificiale è ancora in una fase embrionale. Mancano metriche condivise, standard internazionali, test affidabili. Molte iniziative restano volontarie, anche se alcuni Paesi stanno iniziando a trasformarle in requisiti legali. Viene proposto un approccio multilivello: valutazioni rigorose prima del rilascio dei modelli, monitoraggio continuo dopo la distribuzione, “difesa in profondità” con barriere tecniche stratificate, e soprattutto rafforzamento della resilienza sociale, perché nessun sistema di controllo sarà mai perfetto. Particolarmente delicato è il tema dei modelli open-weight: favoriscono ricerca e innovazione, ma una volta rilasciati non possono essere ritirati né facilmente monitorati, rendendo più difficile prevenire abusi.
AI e mercato del lavoro: una trasformazione già in corso
Uno dei terreni su cui l’impatto dell’intelligenza artificiale appare più concreto è quello del lavoro. L’adozione dell’AI procede a ritmo sostenuto ma in modo profondamente disomogeneo: si stima che circa il 60% delle occupazioni nelle economie avanzate e il 40% in quelle emergenti sia oggi “esposto” alla tecnologia, cioè potenzialmente automatizzabile o fortemente integrabile con sistemi intelligenti. I primi dati non mostrano ancora un calo dell’occupazione complessiva, ma segnalano un cambiamento nella struttura della domanda: negli Stati Uniti e nel Regno Unito, ad esempio, si riducono le assunzioni per figure junior nei settori più esposti, mentre restano stabili quelle per lavoratori esperti. Nei mercati freelance diminuisce la richiesta di mansioni facilmente sostituibili, come scrittura e traduzione, e cresce invece quella di competenze complementari all’AI, dalla programmazione di machine learning allo sviluppo di chatbot. Gli studi indicano guadagni di produttività tra il 15 e il 30% nei lavori cognitivi, ma i benefici non sono distribuiti in modo uniforme. Resta infine il rischio di nuove disuguaglianze: i Paesi con infrastrutture digitali avanzate stanno cogliendo le opportunità dell’AI molto più rapidamente di quelli a basso reddito. Il futuro resta aperto: c’è chi prevede un riequilibrio tra lavori persi e nuovi lavori creati, e chi teme invece una compressione strutturale di salari e occupazione.
Uno sguardo al 2030
Cosa accadrà nei prossimi anni? Il documento evita profezie definitive ma delinea scenari plausibili: stagnazione, crescita graduale o accelerazione improvvisa. Molto dipenderà dalla disponibilità di dati, energia e potenza di calcolo, settori in cui sono in corso investimenti colossali. Bengio, nella sua introduzione, riassume bene lo spirito del lavoro: «Stiamo facendo progressi nella comprensione dei rischi. Ma la velocità dell’AI ci pone di fronte a sfide senza precedenti». La conclusione è sobria ma chiara: l’intelligenza artificiale può diventare una delle più grandi forze di progresso della storia umana, a condizione di non ignorarne le ombre. Capirle, misurarle, governarle: è questa la vera corsa che il mondo deve imparare a vincere.
Sebastiano Catte, com.unica 6 febbraio 2026
