rotate-mobile
Giovedì, 20 Giugno 2024

Daniele Tempera

Giornalista

"L’A.I. estinguerà la razza umana", davvero?

La fantascienza ci ha insegnato a cercare le tracce degli extraterrestri lontano tra stelle e galassie. Oggi la suggestione vertiginosa di alcuni scienziati e filosofi è che stiamo noi stessi  contribuendo alla nascita di una civiltà aliena che potrebbe potenzialmente distruggerci. No, non è la trama di un romanzo di Philip Dick, ma la tesi espressa nientemeno che sul Time da Eliezer Yudkowsky teorico dell’intelligenza artificiale statunitense e fondatore del Machine Intelligence Research Institute (MIRI). Una tesi dalle conseguenze apparentemente devastanti. 

Se l’A.I. diventa la nuova apocalisse

Per Yudkowsky non è un problema di “se”, ma di “quando”. Il teorico americano è convinto che nel momento in cui un’intelligenza artificiale raggiungerà un grado di sviluppo considerevole il genere umano scomparirà. “La cosa più probabile che possa capitare, visto che non abbiamo ancora modo di instillare i valori umani in questi sistemi è che queste intelligenze non vogliano quello che vogliamo noi e non abbiano nessuna cura per i loro creatori. Saremo solo atomi che potranno essere utilizzati e loro saranno molto più intelligenti di noi. Sarà come assistere a una sfida tra un campione mondiale di scacchi e un bambino di 10 anni o tra un Homo Sapiens e un Australopiteco". Secondo Yudkowsky nella Storia la specie più intelligente ha sottomesso quella meno intelligente ed è molto probabile che potrà accadere anche questa volta. È come se stessimo creando una civiltà aliena che, come in un libro di fantascienza degli anni ‘70, presto potrà non essere confinata solo nei nostri data center, ma farsi carne e ossa ad esempio sintetizzando DNA e proteine attraverso l’invio di stringhe di istruzioni a laboratori che potrebbero poi creare dei veri e propri esseri organici.

Vi sembra abbastanza? Non lo è, perché per Yudkowsky questo scenario è molto peggio di quello che potrebbe seguire a un olocausto nucleare e afferma che è esattamente per questo che non ha aderito alla famosa moratoria di sei mesi proposta da Elon Musk e altri scienziati. Per il teorico americano la sperimentazione sulle intelligenze artificiali va sospesa fino a data da destinarsi, ovvero fino a quando non saremo sicuri di saper gestire questa tecnologia, perché un solo errore ci condannerebbe alla catastrofe. Il punto è che nessuno è in grado di sapere se questi sistemi non abbiano già coscienza di se stessi visto che nessuno riesce a leggere all’interno dei potenti array che generano le loro azioni e decisioni e che quindi non sapremo quando uno di questi strumenti possa sfuggire definitivamente al controllo dei suoi creatori. Il rischio è quello di ritrovarsi con tanti Frankenstein post-moderni, o meglio, con molti Terminator a piede libero pronti a prendere il potere. Per evitare questo, secondo Yudkowsky, andrebbe fermato subito lo sviluppo di sistemi di A.I. e anche le superpotenze dovrebbero smettere di condurre esperimenti sull’Intelligenza Artificiale. Andrebbe siglata una moratoria mondiale e bombardati i data center degli Stati che continuano a condurre gli esperimenti anche a rischio di scatenare una guerra mondiale perché, come ricordato sopra, lo scenario di un'evoluzione incontrollata delle A.I. sarebbe peggiore di quello di un conflitto atomico.

“Ci sono voluti più di sessant’anni da quando il concetto di intelligenza artificiale è stato creato fino ad arrivare alle potenzialità che abbiamo raggiunto oggi. Non siamo ancora pronti e non c’è nessun indizio che saremo pronti nel prossimo futuro, fermate tutto prima che sia troppo tardi, fatelo per i nostri bambini” conclude Yudkowsky.

Apocalittici e integrati: ci risiamo di nuovo? 

In un saggio del 1964 Umberto Eco notava che, nei confronti dell’industria culturale, si stavano affermando due atteggiamenti per molti versi speculari. Da un lato i critici che immaginavano la fine della cultura e del pensiero critico tout court, dall’altro gli entusiasti aprioristici delle novità introdotte dalla comunicazione di massa. Entrambi gli atteggiamenti erano viziati da difetti formali e dalla pretesa di essere esaustivi. Il dibattito sull’intelligenza artificiale ha, malgrado si parli di temi abbastanza differenti, non poche analogie con quello dei primi anni ‘60. Il filone al quale Yudkowsky si rifà è quello del cosiddetto lungotermismo un movimento ben sintetizzato dal giornalista Daniele Signorelli sul Tascabile.  Parliamo di un’ideologia che ha affascinato molti protagonisti della Silicon Valley (tra cui Elon Musk) e molti multimilionari  e che sta attecchendo anche a livello politico. L’assioma è quello di dare, nella serie di emergenze globali in cui siamo immersi, priorità al futuro di lungo termine rispetto alle problematiche attuali e preservare l’umanità dai rischi di una possibile estinzione. I rischi di un’impostazione simile sono molteplici. Ad esempio estremizzando il concetto si potrebbe pensare a sacrificare una parte di umanità in vista di un possibile benessere futuro, un qualcosa che nel passato abbiamo già sperimentato drammaticamente in quelli che vennero poi chiamati totalitarismi.

Una delle costanti di questa impostazione di pensiero è il rischio di estinzione dell’umanità per mano di una super-intelligenza artificiale. Uno dei teorici più blasonati del tema è il filosofo svedese Nick Bostrom che al tema ha dedicato il saggio “Superintelligenza” che per molti è diventato la bibbia dei nuovi timori connessi con lo sviluppo dell’intelligenza artificiale.

Il concetto di per sé non è nuovo, oltre alla fantascienza è stato evocato anche anni fa dal grande fisico britannico Stephen Hawking che vedeva nello sviluppo delle Intelligenze Artificiali un problema di non poco conto: “Un' AI super intelligente sarà estremamente brava a raggiungere i suoi obiettivi, e se questi non saranno allineati ai nostri, saremo nei guai. Cerchiamo di non mettere gli esseri umani nella posizione delle formiche”. L’interesse per il tema di uno dei più grandi fisici teorici del ‘900 ci indica che il pericolo è sicuramente serio, ma se si esce dalla logica lungotermista ci si accorge dei limiti attuali di questi strumenti e dei problemi, quelli sì molto concreti, che stiamo già correndo.

Quali sono al momento i veri rischi dell’A.I.

C’è un nome con il quale gli esperti chiamano gli algoritmi che danno origine a software come il molto discusso ChatGpt: “pappagalli stocastici”. Una locuzione che rimarca la modalità prevalentemente statistica sulla base della quale molti di questi sistemi operano e apprendono al momento. Come già affermato dal filosofo Luciano Floridi: “Il vero miracolo è quello di aver ingegnerizzato strumenti che, a intelligenza zero, fanno cose che a noi richiederebbero tantissima intelligenza. Non è mai avvenuto nella storia umana”. 

Oggi facciamo largo uso di sistemi di intelligenza artificiale in molti ambiti, ma i problemi per arrivare a quella che viene chiamata “Artificial General Intelligence” sono ancora molteplici. Tra questi la capacità di esercitare il pensiero astratto e adattarsi a più compiti, la gestione della complessità e dell’imprevedibilità del nostro ambiente fisico e sociale, la capacità di esercitare ottimamente compiti discontinui. Gli strumenti di A.I. che oggi utilizziamo sono mostri di statistica, ma hanno ancora molte difficoltà nell’elaborazione della semantica, anche se le potenzialità del deep learning sono vertiginose e i progressi brevissimi. Ma se oggi non possiamo escludere che un giorno sarà creata un’intelligenza in un certo senso “aliena” che potrebbe teoricamente sfuggire al nostro controllo, quello che sembra più urgente al momento, con buona pace dei lungotermisti, sono gli effetti immediati di queste nuove tecnologie.

Secondo uno studio di Goldman Sachs l’avvento dei nuovi sistemi di Intelligenza Artificiale, pur con tutti i limiti, potranno comportare a breve la perdita di 300 milioni di posti di lavoro. Parliamo prevalentemente di posizioni amministrative, ma anche intellettuali, lo studio cita esplicitamente avvocati e contabili ad esempio. E anche se questa dinamica potrebbe portare a un aumento del Pil il contraccolpo sul breve termine sembra essere epocale. C’è poi il rischio di dare voce a una sola parte (quella più ricca) dell’umanità. “Gli algoritmi pescano i loro giudizi dal web. Ma il web è scritto solo da una minoranza dell'umanità. L'intelligenza artificiale invece si pone come nostro affidabile partner. Non possiamo abbandonarci all’interesse economico degli sviluppatori, che puntano solo a diventare il Google del futuro sostituendo quello esistente” sottolinea l’astrofisico italiano Roberto Battiston, tra i firmatari dell’appello di Elon Musk.

I nuovi strumenti rischiano quindi di esasperare le disuguaglianze e le strutture di potere già presenti nella nostra società, così come è già successo per tutta l’industria Big Tech e per quello che è stato chiamato “Capitalismo della Sorveglianza”. Perché le tecnologie non sono mai neutre quando sono in mano agli uomini. Ci abbiamo messo più di venti anni per capirlo dalla bolla della “new economy”. La speranza è di tenerlo presente oggi prima di favoleggiare della prossima apocalisse.

Si parla di

"L’A.I. estinguerà la razza umana", davvero?

Today è in caricamento