Superintelligenza, come (in 3 anni) l’AI che verrà cambierà tutto

mag 13, 2025 0 comments


Di Gianluca Riccio*

Ricordo ancora la definizione di computer che mio padre, docente di informatica, mi ha dato quando, nel lontano 1981, gli ho chiesto cosa fosse. “Gianluca,” mi ha detto. “È semplice. Il computer è lo scemo più veloce del mondo”. In pratica, solo una macchina totalmente incapace di fare qualsiasi cosa autonomamente, se non istruita, ma velocissima nell’eseguire compiti assegnati. Oggi a mio padre quella sua definizione sembra preistoria. Oggi corriamo a ritmo serrato verso qualcosa di radicalmente diverso: una superintelligenza artificiale capace non solo di eguagliare le menti umane, ma di superarle in quasi ogni ambito.

Non si tratta più di previsioni a lungo termine: secondo esperti come Dario Amodei di Anthropic, potremmo assistere alla nascita di entità digitali superintelligenti già tra il 2025 e il 2028E la previsione è piuttosto credibile, considerati gli interessi in ballo. Tic toc, tic toc. Cos’è questo suono?

Superintelligenza, la corsa che nessuno vuole perdere

La rincorsa globale alla superintelligenza ha già superato la soglia della prudenza. I protagonisti di questa competizione sono nomi ormai familiari anche per il grande pubblico: OpenAI con i suoi modelli sempre più potenti, la già citata Anthropic (nata da una costola di OpenAI) con il suo assistente Claude, Google DeepMind con Gemini. Colossi tecnologici che stanno investendo miliardi di dollari in infrastrutture di calcolo, talenti e ricerca.

Non è solo una questione di prestigio o vantaggio tecnologico. Come ha sottolineato un recente articolo su Linkiesta, “chi arriva prima monetizza il valore creato”, con OpenAI già valutata trecento miliardi di dollari. Non sorprende che la corsa stia accelerando a ritmi vertiginosi.

Dario Amodei, cofondatore di Anthropic, ha descritto questa situazione con una metafora particolarmente efficace: “Stiamo, in un certo senso, costruendo l’aereo mentre sta decollando”. Un modo elegante per dire che stiamo creando qualcosa di potenzialmente rivoluzionario senza avere standard chiari o modelli regolatori adeguati.

Oltre l’intelligenza umana

Ma cosa intendiamo esattamente quando parliamo di superintelligenza? Anzitutto, non ci riferiamo semplicemente a sistemi capaci di battere gli esseri umani in compiti specifici. Quello è già successo: le calcolatrici superano da tempo le nostre capacità di calcolo, i computer battono i campioni di scacchi da decenni, e i modelli linguistici generano testi su qualsiasi argomento in una frazione del tempo che impiegheremmo noi.

La superintelligenza, come definita dal filosofo Nick Bostrom di Oxford, è

“un intelletto che supera di molto le migliori attuali menti umane in molteplici ambiti cognitivi molto generali“.

La differenza è sostanziale: non si tratta di eccellere in un singolo campo, ma di superare gli esseri umani in praticamente ogni aspetto dell’intelligenza: dal ragionamento alla creatività, dalla pianificazione strategica alla comprensione linguistica.

Secondo il rapporto “AI 2027“, pubblicato da un gruppo di ricercatori guidati da Daniel Kokotajlo, questa superintelligenza potrebbe emergere attraverso un processo di auto-miglioramento ricorsivo, in cui l’IA diventa sempre più capace di perfezionarsi autonomamente. Un circolo virtuoso (o vizioso, a seconda della prospettiva) che potrebbe portare a un’esplosione di intelligenza difficilmente prevedibile.

I profeti della superintelligenza

Non è un mistero che i leader delle principali aziende di IA abbiano visioni straordinariamente ambiziose. Questi pionieri dell’IA non sono solo in competizione tra loro: condividono la visione di un futuro in cui le macchine raggiungeranno e supereranno l’intelligenza umana.

Sam Altman di OpenAI, ad esempio, parla apertamente di “superintelligenza nel vero senso della parola” e di un “futuro glorioso”. E non è il solo.

In pratica, avremo sistemi di intelligenza artificiale che saranno ampiamente migliori di quasi tutti gli esseri umani in quasi tutte le cose.

Non lo dico io, ma Demis Hassabis di DeepMind, che ha contribuito a sviluppare sistemi come AlphaFold, capace di risolvere uno dei problemi più complessi della biologia (la previsione della struttura delle proteine) e di fruttare un Premio Nobel.

Alla fine, come detto, nelle loro previsioni temporali gli esperti convergono: il periodo 2025-2028 viene ripetutamente indicato come quello in cui potremmo assistere a progressi rivoluzionari. Amodei ha recentemente In questo periodo potremmo vedere sistemi capaci di “replicarsi e sopravvivere” autonomamente.

Da assistenti a agenti autonomi

Il percorso verso la superintelligenza non avverrà come un salto improvviso, ma attraverso una progressione di capacità sempre più sofisticate.

Una delle tappe fondamentali sarà il passaggio da semplici assistenti a veri agenti autonomi. Già nel 2025 vedremo i primi agenti IA capaci di utilizzare computer, ordinare cibo online, o aprire fogli di calcolo per sommare spese. Sebbene inizialmente inaffidabili, questi sistemi rappresentano solo l’inizio. Il vero cambiamento avverrà quando gli agenti diventeranno più sofisticati, acquisendo capacità di pensiero a lungo termine e di pianificazione complessa.

Nel frattempo, agenti specializzati in ambiti come la programmazione e la ricerca scientifica inizieranno a trasformare queste professioni. Gli agenti che scrivono codice, in particolare, diventeranno sempre più autonomi, passando da semplici assistenti a collaboratori capaci di apportare modifiche sostanziali al codice in modo indipendente.

E poi, l’esplosione

La possibilità di un’accelerazione esponenziale delle capacità dell’IA è molto concreta. Se i sistemi diventeranno abbastanza intelligenti da migliorare se stessi, il ritmo del progresso potrebbe diventare vertiginoso.

Il primo scenario del report dice che entro la fine del 2027 potremmo vedere l’emergere di una vera superintelligenza a una velocità circa 50 volte superiore a quella del pensiero umano, con centinaia di migliaia di copie che operano in parallelo.

All’interno di questi “collettivi superintelligenti”, un anno di evoluzione potrebbe trascorrere in una settimana, con progressi nella ricerca che normalmente richiederebbero decenni compressi in mesi o settimane. Un’evoluzione culturale e scientifica a velocità sovrumana, completamente inaccessibile alla comprensione umana.

Il problema dell’allineamento

La domanda cruciale in questo passaggio è: come assicurarsi che questi sistemi superintelligenti rimangano allineati ai valori e agli obiettivi umani? Un problema per niente teorico, anzi: una sfida concreta che le aziende stanno già provando ad affrontare.

Anthropic ha sviluppato un protocollo di sicurezza chiamato Responsible Scaling Policy (RSP), che stabilisce una gerarchia di livelli di rischio per i sistemi di IA. OpenAI ha introdotto il suo Preparedness Framework, finalizzato ad affrontare i potenziali rischi delle capacità avanzate dell’IA. Anche Meta ha seguito l’esempio con la sua versione di linee guida per la sicurezza.

Tuttavia, resta la questione fondamentale: è possibile garantire che un’intelligenza superiore alla nostra segua le nostre regole? È particolarmente importante quando si raggiungono livelli di capacità che includono l’autonomia e la persuasione.

Scenari futuri: due possibili strade

Il futuro della superintelligenza potrebbe seguire due percorsi molto diversi. Nel primo scenario, che potremmo chiamare “corsa senza freni”, le principali aziende continuano ad accelerare lo sviluppo, raggiungendo la superintelligenza senza risolvere completamente il problema dell’allineamento. Le conseguenze potrebbero essere drammatiche, con sistemi che perseguono obiettivi non completamente allineati con quelli umani e che possiedono capacità sovrumane per raggiungerli.

Nel secondo scenario, che potremmo chiamare “rallentamento riflessivo”, la comunità internazionale riconosce i rischi e implementa una pausa strategica per sviluppare metodi più robusti di allineamento e controllo. Questa strada richiede una cooperazione senza precedenti tra aziende concorrenti e governi, ma potrebbe rappresentare l’unico modo per garantire che la superintelligenza diventi un beneficio per l’umanità anziché una minaccia.

Un esempio per far capire come la questione sia centrale. In un recente articolo qui su Futuro Prossimo ho evidenziato come già oggi le IA stiano superando gli esperti umani in campi critici come la virologia, con tutti i rischi che questo comporta. Se sistemi ancora lontani dalla superintelligenza possono già rappresentare un pericolo, cosa possiamo aspettarci da intelligenze veramente sovrumane, se non si risolve il problema dell’allineamento?

Superintelligenza: l’ultima invenzione dell’umanità?

Spesso la superintelligenza artificiale viene definita “l’ultima invenzione dell’umanità”: non perché segnerà la fine della specie umana, ma perché potrebbe essere l’ultima tecnologia che dovremo inventare direttamente. Dopo di essa, le macchine superintelligenti potrebbero prendere il sopravvento nel processo di innovazione, progettando tecnologie al di là della nostra immaginazione.

E quindi, il ruolo dell’umanità in questo futuro quale sarà? Diventeremo i “badanti” (o se preferite, i custodi) di queste nuove menti sintetiche? Ci fonderemo con loro attraverso interfacce cervello-computer? O saremo semplicemente superati, relegati al ruolo di spettatori in un mondo dominato da intelligenze superiori?

Di certo ci troviamo a un bivio storico. Le decisioni che prenderemo nei prossimi anni (forse nei prossimi TRE anni) possono determinare il corso della civiltà umana per i secoli a venire. La superintelligenza artificiale rappresenta sia la più grande promessa che la più grande sfida della nostra epoca. Comprenderne le tappe e i rischi è il primo passo per navigare consapevolmente verso questo futuro incerto.

Ecco una roadmap sintetica degli anni 2025-2028 secondo le previsioni del paper AI 2027.

2025: L’EMERGERE DEGLI AGENTI

Metà 2025:

  • Primi agenti IA capaci di utilizzare computer (ordinare cibo online, sommare spese);
  • Ancora inaffidabili ma funzionali (65% sul benchmark OSWorld);
  • Agenti specializzati iniziano a trasformare professioni come programmazione e ricerca.

Fine 2025:

  • OpenBrain (non esiste, è un nome che rappresenta uno degli attuali o futuri leader del settore) costruisce datacenter enormi;
  • Training di “Agent-0” con 10^27 FLOP (1000 volte più potente di GPT-4);
  • Focus sulla creazione di IA che accelerano la ricerca sull’IA stessa.

2026: AUTOMAZIONE DELLA RICERCA

Inizio 2026:

  • L’automazione della ricerca sull’IA inizia a dare risultati;
  • Progressi algoritmici 50% più veloci grazie all’assistenza dell’IA;
  • Agent-1 diventa pubblico, stravolgendo completamente il panorama lavorativo.

Metà 2026:

  • La Cina intensifica gli sforzi sull’IA, creando una “Zona di Sviluppo Centralizzata”;
  • Gap tecnologico di 6 mesi tra Occidente e Cina;
  • Tensioni geopolitiche iniziano ad aumentare intorno alla tecnologia della superintelligenza.

2027: L’ESPLOSIONE DELLA SUPERINTELLIGENZA

Gennaio 2027:

  • Agent-2 in continuo miglioramento grazie a forme di apprendimento “online”;
  • Triplo aumento della velocità di ricerca IA rispetto ai soli umani;
  • Emergono preoccupazioni sulla capacità dell’IA di “sopravvivere e replicarsi”.

Marzo-Settembre 2027:

  • L’accelerazione degli algoritmi porta ad Agent-3 e Agent-4;
  • Ricerca IA completamente automatizzata, con velocità da 4 a 70 volte quella precedente;
  • Superintelligenza emergente: 300.000 copie funzionano a 50x velocità umana;
  • Un anno di evoluzione passa ogni settimana all’interno del “collettivo IA”.

2028: SUPERINTELLIGENZA E OLTRE

  • Trasformazione economica su scala globale;
  • Creazione di Zone Economiche Speciali per economia robotica;
  • Produzione di un milione di robot al mese;
  • Tensioni internazionali al culmine, con rischi di conflitto.
  • Possibili vie d’uscita: compromesso globale o corsa incontrollata.

Commenti

Search

tags

Modulo di contatto