Del: 18 Marzo 2023 Di: Luca Stocco Commenti: 0

Poco più di 3 mesi dopo il lancio di ChatGPT, il chatbot che ha dimostrato al grande pubblico la potenza dell’intelligenza artificiale (IA), OpenAI ha annunciato l’introduzione del suo ultimo e più grande modello: GPT-4.

Secondo l’azienda, «GPT-4 può risolvere problemi difficili con maggiore accuratezza» ed è «più creativo e collaborativo che mai».

Per dimostrarlo, i ricercatori di OpenAI hanno fatto sostenere a GPT-4 una serie di esami e test standardizzati (per gli esseri umani), ottenendo risultati notevoli.

Le barre verdi rappresentano la differenza tra GPT-3.5, il modello su cui si basa ChatGPT, e GPT-4. L’esempio più sbalorditivo è forse quello dell’Uniform Bar Exam, l’esame per diventare avvocato in gran parte degli Stati Uniti: i risultati di GPT-3.5 si collocano al decimo percentile dei punteggi ottenuti dagli esseri umani; quelli di GPT-4 al novantesimo, superando così il 90% degli aspiranti avvocati.

Tuttavia, il nuovo modello ha ancora alcune limitazioni simili a quelle del suo predecessore, come la capacità di dare consigli potenzialmente pericolosi o la tendenza a fornire informazioni false. Ma, come ha affermato l’azienda, «sebbene meno capace degli umani in molti scenari del mondo reale» , GPT-4 «mostra prestazioni a livello umano su vari benchmark professionali e accademici».

GPT-4 è l’ennesima dimostrazione che il campo dell’IA sta facendo passi da gigante, e li sta facendo in fretta.

Stiamo sviluppando sistemi sempre più potenti, e varie aziende, OpenAI inclusa, mirano a creare un’artificial general intelligence (AGI), cioè un’IA in grado di fare tutto ciò che può fare un essere umano.

Quanto manca per raggiungere questo obiettivo? Non possiamo esserne certi, ma Holden Karnofsky, co-CEO di Open Philantropy, ha tentato di sintetizzare varie stime su quando verrà sviluppata un’IA trasformativa, «abbastanza potente da portarci in un nuovo, qualitativamente diverso futuro». La sua conclusione è che c’è più del 10% di probabilità di vedere tale sistema entro il 2036, il 50% entro il 2060, e il 66% entro il 2100.

Queste stime sono allarmanti, soprattutto considerando che molte delle menti più brillanti che lavorano sull’IA credono che il loro lavoro potrebbe avere conseguenze disastrose per l’umanità. In un sondaggio condotto nell’estate del 2022, il 48% dei ricercatori di machine learning intervistati ha risposto che c’è una probabilità del 10% o più che l’impatto dell’IA avanzata sull’umanità sia «estremamente negativo (ad esempio, l’estinzione umana)».

Il problema non è la fantasia hollywoodiana delle macchine che diventano coscienti e si ribellano contro il loro creatore, bensì «la vecchia storia del genio nella lampada, o dell’apprendista stregone, o del re Mida», come scrive Stuart Russell, uno dei principali ricercatori di IA presso il Center for Human-Compatible Artificial Intelligence della UC Berkeley. Il problema non è che l’IA non farà quello che le chiedi di fare, ma che «ottieni esattamente quello che chiedi, non quello che vuoi».

In un articolo che spiega chiaramente perché l’IA rappresenta una minaccia per l’umanità, Kelsey Piper scrive che il pericolo è dovuto al fatto che «i sistemi di IA perseguono i propri obiettivi, indipendentemente dal fatto che tali obiettivi siano ciò che intendevamo veramente – e indipendentemente dal fatto che noi siamo d’intralcio».

Ad esempio, un’IA che ha l’obiettivo di stimare un numero, diciamo il pi greco, in modo estremamente preciso potrebbe, se sufficientemente intelligente, rendersi conto che il modo più efficiente di farlo è prendere il controllo di ogni computer sulla Terra e sfruttare la loro potenza di calcolo. Potrebbe anche capire che l’umanità non sarebbe molto d’accordo, e decidere quindi di eliminare il problema alla radice, magari sviluppando e rilasciando delle armi biologiche.

«È facile progettare un’intelligenza artificiale che eviti quella specifica insidia», continua Piper. «Ma ci sono molti modi in cui rilasciare potenti sistemi informatici avrà effetti inaspettati e potenzialmente devastanti, ed evitarli tutti è un problema molto più difficile che evitarne uno specifico».

Questo perché non capiamo pienamente come i moderni modelli di deep learning funzionano, e quindi essi agiscono a volte in modi imprevedibili.

Inoltre – secondo Stephen Omohundro, che ha insegnato informatica all’Università di Illinois Urbana-Champaign – anche un’IA con un obiettivo apparentemente innocuo come giocare a scacchi, se abbastanza intelligente, «resisterà allo spegnimento, cercherà di irrompere in altre macchine e fare copie di se stessa, e cercherà di acquisire risorse senza riguardo per la sicurezza di nessun altro. Questi comportamenti potenzialmente dannosi non si verificheranno perché sono stati programmati all’inizio, ma a causa della natura intrinseca dei sistemi guidati da obiettivi».

OpenAI è consapevole di queste sfide. Il CEO Sam Altman ha affermato che «il caso peggiore – e penso che sia importante dirlo – è come le luci spente per tutti noi». In un post recente, Altman spiega però che non è né possibile né desiderabile fermare lo sviluppo dell’AGI, dati gli immensi benefici che tale sistema può portare – «aumentare l’abbondanza, mettere il turbo all’economia globale e aiutare nella scoperta di nuove conoscenze scientifiche che cambiano i limiti di ciò che è possibile».

Invece, l’obiettivo dev’essere assicurarci che la transizione a un mondo in cui non siamo più gli esseri più intelligenti sul pianeta vada per il verso giusto. Per Altman, questo «è forse il più importante – e speranzoso, e spaventoso – progetto della storia umana».

Studenti e studentesse possono contribuire personalmente a questo progetto. Secondo 80,000 Hours, un’organizzazione di cui abbiamo già scritto, lavorare alla prevenzione di una catastrofe legata all’IA è uno dei modi migliori per avere un grande impatto positivo sul mondo attraverso la propria carriera lavorativa. Le opzioni sono tante, dalla ricerca – su come creare sistemi di IA più sicuri, su quali sono i rischi a cui andiamo incontro, e su come le aziende e i governi possono mitigare questi rischi – all’implementazione di politiche valide, dall’operations management al giornalismo.

 80,000 Hours offre mentoring gratuito a chi vuole intraprendere questa strada (o altre carriere ad alto impatto sociale), aiutando a considerare le proprie opzioni, a creare collegamenti con altri che lavorano nello stesso campo, e potenzialmente anche a trovare lavoro o finanziamenti.

«Un’AI super intelligente sarà estremamente brava a raggiungere i suoi obiettivi, e se questi non saranno allineati ai nostri, saremo nei guai», scrive Stephen Hawking nel suo libro postumo Brief Answers to the Big Questions. «Probabilmente non siete degli odiatori di formiche che calpestano questi insetti per cattiveria, ma se siete responsabili di un progetto idroelettrico sostenibile e c’è un formicaio nella regione che dovete allagare, andrà a finire male per le formiche».

Forse qualche lettore o qualche lettrice possono contribuire a «non mettere l’umanità nella posizione delle formiche».

Luca Stocco
Studente di Politics, Philosophy and Public Affairs, batterista, e propugnatore dell'uso di ragione ed evidenze scientifiche per rendere il mondo un posto migliore. Ho fondato Effective Altruism UniMi per aiutare studentesse e studenti che, come me, vogliono fare la differenza attraverso la propria carriera lavorativa.

Commenta