LA PIU’ IMPORTANTE PREOCCUPAZIONE DI HINTON, DI ALBERTO PULIAFITO

Con i suoi studi, Geoffrey Hinton ha contribuito, fin dagli anni ottanta, a rendere possibili le intelligenze artificiali generative che possiamo usare oggi. Il suo lavoro, insieme a quello di John Hopfield, è stato premiato con il Nobel nel 2024.

Insieme al premio sono ritornate a galla alcune delle preoccupazioni espresse dallo stesso Hinton in un’intervista rilasciata al New York Times poco dopo che ChatGPT è stato reso disponibile al grande pubblico. A margine di quell’occasione, Hinton ha chiarito su X di essersi dimesso dal suo ruolo in Google per avere la possibilità di “parlare dei pericoli delle ia” e non per criticare Google in particolare.

Fra le preoccupazioni dell’informatico e psicologo cognitivo, quella più gettonata e più facilmente vendibile è l’idea del rischio esistenziale. Funziona più o meno così: le macchine diventeranno più intelligenti degli esseri umani, prenderanno il controllo, ci annienteranno. È una profezia molto cara alle stesse persone che sviluppano le intelligenze artificiali e fanno soldi nel processo: probabilmente perché l’idea di una super intelligenza che controlla tutto è affascinante e, in qualche modo, vende di più, attirando l’attenzione. Poco importa che lo stesso Hinton abbia poi ammesso: “Magari mi sbaglio sull’idea di un’intelligenza digitale che ci supererà”.

Un’altra preoccupazione che fa molta presa anche negli ambienti progressisti – gli stessi ossessionati dall’idea di poter regolamentare il fenomeno delle cosiddette fake news, spesso senza accurate riflessioni sui rischi che comporterebbe una simile regolamentazione – è l’uso delle ia come arma per la creazione di testi, immagini, video fake che potenzierebbero il rischio della manipolazione di massa. Abbiamo visto, però, che quando questa presunta minaccia manipolatoria assume la forma concreta e reale di deepfake che truffano le persone si fa ben poco per rimediare.

Poi c’è la perdita dei posti di lavoro, che in realtà era un fenomeno già molto chiaro fin dagli anni sessanta del secolo scorso, come dimostra la lettera Triple revolution. È una preoccupazione che nelle istituzioni riecheggia quando parlano associazioni di categoria o quando arriva l’ennesima stima da qualche esperto a Davos o dalla Goldman Sachs. Ma poi sparisce dalla conversazione perché, probabilmente, richiederebbe soluzioni radicali come la presa in considerazione di un reddito di base universale o l’introduzione di una tassa per i super ricchi.

Però c’è un pezzo dell’intervista che, curiosamente, non si vede praticamente mai citato. È questo, in cui, mentre si parla di soldati robot – non necessariamente antropomorfi alla Terminator – Hinton afferma: “Possono esistere cose in grado di muoversi su terreni accidentati e sparare alle persone. E la cosa peggiore dei soldati robot è che se un paese grande vuole invadere un paese piccolo, deve preoccuparsi un po’ di quanti marines [nell’originale Hinton usa proprio questa parola, per due volte, ndr] moriranno. Ma se inviano soldati robot, invece di preoccuparsi di quanti marines moriranno, le persone che finanziano i politici diranno: fantastico. E così manderanno queste armi costosissime, che poi si esauriranno [e quindi dovranno essere rimpiazzate generando profitto, ndr]. Il comparto militare-industriale adorerà i soldati robot”.

Nella puntata del podcast The Daily in cui si sente chiaramente questo passaggio in lingua originale, la conduttrice del podcast Sabrina Tavernise osserva che “è come con i droni. Le persone che uccidono stanno sedute in un ufficio, con un controllo da remoto, molto lontane dalle persone che muoiono”. Ma poi il giornalista Cade Metz, autore dell’intervista, riporta tutto al rischio esistenziale dicendo che in realtà “è un passo oltre. Non sono più le persone a controllare le macchine. Sono le macchine che prendono decisioni per conto loro, in maniera incrementale. È di questo che Geoffrey è preoccupato”.

In effetti Hinton lo aggiunge: “E poi c’è questa specie di incubo esistenziale”, dice, “in cui questa roba diventa molto più responsabile e prende il sopravvento”. Così, l’ipotetico incubo esistenziale futuro cancella quel che viene prima. Forse accade perché il rischio esistenziale è più semplice da raccontare. Forse accade perché quella preoccupazione riporta le cose nelle mani degli umani e, in particolare, degli umani potenti: quelli con il potere politico, quelli che controllano l’industria delle armi.

È una riflessione più scomoda, perché implica che il problema non è un’ia che sfugge al controllo, ma il modo in cui gli esseri umani scelgono di usarla. Sarà anche una prospettiva meno attraente per il grande pubblico, ma è forse la più urgente da affrontare, perché tocca questioni di etica, geopolitica e responsabilità collettiva che non possiamo più ignorare. Anche perché i sistemi di armi autonome con ia integrate non sono il futuro che verrà: sono già realtà e sono usate, per esempio, da Israele per il massacro a Gaza.

Questo testo è tratto dalla newsletter Artificiale.

Pubblicato da Internazionale il 21 ottobre 2024

https://www.internazionale.it/notizie/alberto-puliafito/2024/10/21/la-piu-importante-preoccupazione-di-hinton-non-e-quella-di-cui-parlano-tutti

 

PRESENTANDOCI

Cercasi un fine è “insieme” un periodico e un sito web dal 2005; un’associazione di promozione sociale, fondata nel 2008 (con attività che risalgono a partire dal 2002), iscritta al RUNTS e dotata di personalità giuridica. E’ anche una rete di scuole di formazione politica e un gruppo di accoglienza e formazione linguistica per cittadini stranieri, gruppo I CARE. A Cercasi un fine vi partecipano credenti cristiani e donne e uomini di diverse culture e religioni, accomunati dall’impegno per una società più giusta, pacifica e bella.


 

 

SORRIDENDO

Ultimi Articoli

Contribuendo

Per sostenere le nostre attività, cioè le scuole di formazione sociale e politica, questo sito web e il periodico cartaceo di cultura e politica, l’insegnamento dell’italiano per cittadini stranieri, la biblioteca “Bice Leddomade” e le altre attività di formazione culturale e sociopolitica, ti invitiamo a:

  • Donare un sostegno economico attraverso un Bonifico Bancario Cercasi un Fine APS

IBAN IT26C0846941440000000019932 BCC Credito Cooperatvo oppure CCP 000091139550 intestato ad Associazione Cercasi un fine

  • Donare il tuo 5×1000: basta la tua firma e il numero dell’associazione 91085390721 nel primo riquadro (in alto a sinistra) dedicato al Terzo Settore – RUNTS. 
  • Predisporre un lascito nel tuo testamento: hai la possibilità di aiutarci nel futuro – nel rispetto della legge, senza escludere possibili soggetti legittimari – attraverso il dono di qualcosa a Cercasi un fine (come una somma di denaro, beni mobili o immobili, una polizza di vita). Il testamento è un atto semplice, libero, sempre revocabile. Con il tuo lascito sosterrai le nostre attività. 

Grazie per quello che farai per noi.