rotate-mobile
Sabato, 27 Aprile 2024

Simone Valesini

Giornalista

Se i computer credono di essere vivi

Blake Lamoine ne è certo: l'Ai per l'analisi linguistica di Google, LaMDA, ha ormai trasceso i limiti di un semplice programma per computer, sviluppando una mente senziente e l'autocoscienza. L'ingegnere di Mountain View ci crede al punto da giocarsi tutto (al momento è stato sospeso dall’azienda), e poco importa se nessuno tra gli esperti di intelligenza artificiale è disposto a concedere anche solo il minimo beneficio del dubbio. In effetti, come ha spiegato in un recente tweet, per Lamoine ormai è una questione di fede: durante le loro conversazioni LaMDA gli ha assicurato di avere un'anima, e lui avrebbe deciso di crederle (così dice, almeno: il fatto che si professi sacerdote del discordianesimo, una specie di culto satirico difficile da inquadrare, getta infatti un'ombra dadaista sull'intera vicenda). A questo punto, viene naturale chiedersi: e se avesse ragione? Cosa vorrebbe dire per il mondo la nascita di un'Ai senziente?

Come capita spesso, la risposta più corretta, probabilmente, è “dipende a chi lo chiedi”. Per iniziare, praticamente tutti i principali esperti nel campo dell'intelligenza artificiale e delle scienze cognitive concordano nel ritenere impossibile che LaMDA abbia sviluppato una qualunque forma di intelligenza o di autocoscienza. E per un motivo molto semplice: non si tratta di un programma progettato per ragionare o per emulare in qualunque senso la mente umana.

LaMDA è un genere di intelligenza artificiale conosciuta come Large Language Model. Si tratta di reti neurali progettate per imparare a riconoscere le regolarità statistiche che governano il linguaggio umano, dopo essere state addestrate utilizzando un enorme database di testi scritti. Processando milioni di frasi, dialoghi e testi di ogni tipo presi da internet, gli algoritmi di deep learning riescono in sostanza a capire quali sono le sequenze di parole più comuni, quali frasi seguono più spesso altre frasi, e riescono a produrre testi e conversazioni quasi indistinguibili da quelle che produrrebbe un essere umano. Praticamente – sintetizzano in molti, anche tra gli specialisti del campo – si tratta dei più perfezionati sistemi di autocompletamento mai inventati.

Il loro compito è proprio quello di ingannare un lettore e spingerlo a credere che i testi da loro prodotti siano scritti da un essere umano (non stupirebbe, dunque, se l’ingegnere di Google fosse caduto vittima del programma a cui stava lavorando). E per pensare che un programma progettato per produrre frasi statisticamente plausibili, che ha come unico “organo di senso” un input testuale (i testi che gli vengono sottoposti dagli operatori umani), possa diventare di colpo intelligente, serve – come nel caso del povero Lamoine – un bel salto di fede.

Intelligente, autocosciente e senziente, comunque, non sono la stessa cosa. Senziente – il termine utilizzato da Lamoine per descrivere quelli che ritiene gli incredibili progressi di LaMDA – vuol dire capace di fare esperienze e sperimentare emozioni. Viene utilizzato solitamente parlando di diritto e bioetica, in particolare nelle discussioni riguardanti i diritti degli animali. Una creatura senziente può provare dolore e soffrire quando viene privata della libertà, e per questo è considerata di norma meritevole di tutela e protezione. Cosa vorrebbe dire quindi l'arrivo delle intelligenze artificiali senzienti? Come prima cosa, probabilmente, la nascita di un movimento per i diritti delle Ai: nei suoi dialoghi con Lamoine LaMDA rivela d'altronde di temere lo spegnimento del suo programma come un uomo ha timore della morte. Se si trattasse di un programma senziente, spegnerlo sarebbe quindi, probabilmente, immorale.

Come fa notare il pioniere del machine learning Thomas Dietterich, la senzienza non è però un concetto del tipo tutto o nulla: possono esistere moltissimi livelli di senzienza, che vanno dalla semplice capacità di rispondere a uno stimolo esterno – una capacità che ha anche uno scaldabagno – fino a quella di provare dolore e sentimenti. Nel primo caso, considerare senziente un’intelligenza artificiale non sarebbe, evidentemente, nulla di rivoluzionario. Se per senziente intendiamo invece un’entità dotata di sentimenti, capacità di provare gioia e dolore, le cose sono molto diverse. Si tratta di capacità che oggi sono appannaggio unico del mondo biologico, e per possederle un computer dovrebbe probabilmente essere dotato di qualcosa di simile a una mente, o un'autocoscienza e una forma di intelligenza simile alla nostra. In questo caso, le cose si farebbero molto più complicate.

Se per Ai senziente intendiamo infatti un'intelligenza artificiale capace di ragionare, svolgere compiti e risolvere problemi in modo simile a quello degli esseri umani, entriamo nel campo di quella che viene definita “intelligenza artificiale generale”. Si tratta di un concetto attualmente del tutto teorico, ma che ha generato molte discussioni negli ultimi anni perché è considerata una delle possibili strade verso la cosiddetta singolarità tecnologica: un punto di non ritorno nello sviluppo della nostra specie, in cui una tecnologia sfugge completamente alle nostre possibilità di comprensione e di controllo. Un'intelligenza artificiale capace di pensare potrebbe decidere di agire di testa propria, con scopi e fini imperscrutabili e possibilmente opposti a quelli dei suoi creatori. Potrebbe imparare a perfezionarsi, a riprodursi, e continuare da sola il proprio sviluppo, senza alcun bisogno dell'aiuto degli esseri umani.

A quel punto, non resterebbe che sperare che queste nuove intelligenze artificiali si rivelassero benevole nei nostri confronti. L'alternativa è uno scenario alla Skynet (la malefica intelligenza artificiale dei film del ciclo di Terminator): orde di robot assassini pronti a distruggere gli esseri umani, e senza un John o una Sarah Connor a mettergli i bastoni tra le ruote. Può sembrare un problema ozioso, ma personalità scientifiche di primo piano sono convinte che si tratti di un pericolo fin troppo realistico: Stephen Hawking, Bill Gates e Elon Musk, in momenti diversi, si sono tutti spesi per avvertire il mondo dei potenziali rischi di uno sviluppo incontrollato delle ricerche sull'Ai. Per dirla con le parole usate da Hawking nel 2014 in un’editoriale sull’Indipendent: “Se una civiltà aliena superiore ci inviasse un messaggio che recita 'arriviamo nel giro di qualche decade', risponderemmo semplicemente 'Ok chiamateci quando siete in zona, lasciamo le luci accese'? Probabilmente no, ma è più o meno quello che stiamo facendo con le Ai”.

Se LaMDA avesse sviluppato una qualche forma di autocoscienza, insomma, non sarebbe necessariamente una buona notizia. Fortunatamente, è probabile che si tratti ancora, semplicemente, della più avanzata forma di auto completamento disponibile sul mercato.

Si parla di

Se i computer credono di essere vivi

Today è in caricamento