Del: 22 Marzo 2025 Di: Giacomo Pallotta Commenti: 0

È innegabile che l’Intelligenza Artificiale sia ormai entrata a far parte della nostra vita. Il suo utilizzo ha aperto possibilità infinite in numerosissimi campi, rivoluzionando il modo di approcciarsi a problemi complessi, ma anche insinuandosi nella nostra quotidianità, nel modo in cui affrontiamo le piccole sfide di ogni giorno, sia a lavoro sia sui banchi di scuola. E proprio sui banchi si gioca una partita importante. L’uso dell’AI nella didattica, infatti, non è più solo argomento di discussione, bensì una pratica sempre più diffusa tra studenti e docenti. Ma quali sono i benefici e i rischi di questo utilizzo?

Un recente rapporto di Planeta Formación y Universitades, la rete internazionale che riunisce ben 22 istituti educativi, tra cui la Rome Business School, ha rilevato che l’89% degli studenti universitari italiani utilizza strumenti di IA. Un numero impressionante che, tuttavia, va letto alla luce dell’uso effettivo di questi strumenti. Solo il 32%, infatti, ha dichiarato di essere in grado di sviluppare soluzioni proprie basate sull’Intelligenza artificiale, non limitandosi, cioè, alla stesura di testi, alla creazione di immagini e video o alla mera ricerca di dati.

La maggior parte degli studenti, dunque, non sfrutterebbe a pieno le opportunità offerte dal nuovo mezzo tecnologico, rivelando un gap di conoscenze significativo, che sembra, però, destinato a essere colmato in breve tempo, visto il crescente interesse sul tema.

Un interesse coltivato non solo dagli studenti ma anche da un numero crescente di università e di insegnanti in Italia e nel resto del mondo. 

Tra tutti spicca il caso cinese. Le università della Cina, difatti, stanno creando corsi ad hoc incentrati sull’utilizzo dei modelli AI sviluppati da DeepSeek, la start-up capace di competere con OpenAI e le altre aziende del settore. Tali corsi, attivati nelle università di Shenzen, di Zhejiang, nella Jiao Tong di Shanghai e nella Renmin di Pechino, oltre a impartire nozioni tecniche, riguarderebbero anche aspetti etici e di sicurezza, a riprova dell’esistenza di rischi legati alla nuova tecnologia.

In Italia, l’approccio sembra incentrato sulla scuola più che sull’Università. Lo scorso ottobre, il ministro dell’istruzione e del merito Valditara ha annunciato l’avvio della sperimentazione dell’IA nelle scuole secondarie di primo e secondo grado. Il piano prevede l’utilizzo dell’Intelligenza Artificiale a scopo didattico in alcuni istituti del Lazio, della Calabria, della Lombardia e della Toscana per la durata di due anni, al termine dei quali le prove Invalsi delle classi interessate saranno messe a confronto con quelle che non hanno partecipato all’esperimento. 

Analogamente il ministro ha annunciato lo stanziamento di 450 milioni per fornire un’adeguata istruzione agli insegnanti.

Ma alcuni di essi hanno già implementato l’uso di ChatBot e IA generativa nei loro corsi. Ad esempio Gianluca Nativo, professore di italiano, storia e geografia in una scuola media di Milano, utilizza l’IA per semplificare i testi, adattandoli all’età dei suoi studenti. Oppure il professor Pietro Stori, docente di filosofia e storia, che in un liceo milanese ha fondato una «commissione per le AI» allo scopo di sperimentare nuove soluzioni didattiche. 

Alcune di queste soluzioni, inoltre, sono attualmente messe in pratica nei Paesi del Nord Europa, in cui, come dichiarato da Andrea Garavaglia, professore di AI in Education e Tecnologie didattiche presso il nostro ateneo, sarebbero in uso registri digitali in grado di «personalizzare i percorsi, analizzare le risposte degli studenti, fornire proposte didattiche più mirate».

Non tutti, però, vedono nell’intelligenza artificiale un alleato irrinunciabile.

Il direttore della Scuola Normale di Pisa Luigi Ambrosio, intervistato dal Corriere della Sera, ha espresso forti dubbi sull’ implementazione dell’AI, considerata «troppo veloce per le nostre capacità di adattamento». Per il professor Ambrosio, il rischio è quello di affidarsi eccessivamente ai nuovi strumenti, perdendo, di conseguenza, parte delle nostre capacità intellettive: «Oggi c’è chi non sa più fare nemmeno una divisione, mi domando che cosa accadrà tra 20 anni».

Alcuni pericoli sembrano, invece, insiti nella natura stessa delle intelligenze artificiali. L’informatico statunitense Daniel Tunkelang ha notato che ChatGPT ha la tendenza ad assecondare l’utente, quasi come se volesse a tutti i costi fare una buona impressione con il suo interlocutore umano. Essendo un amante del dark humor, Tunkelang si diverte a chiedere al Chatbot di comporre canzoni parodia dai toni macabri, e ChatGPT non solo lo accontenta ma, una volta compreso l’amore dell’informatico per quel tipo di umorismo, ha iniziato a spingersi sempre più in là, arrivando a proporre modifiche ancor più lugubri e spaventose.

Un problema analogo è stato riscontrato da Jennifer Marsh, legale esperta di tecnologie applicate al settore forense, che ha riscontrato come ChatGPT, quando interrogato su una questione legale, piuttosto che dare una risposta legalmente corretta, tenda a confermare l’ipotesi o l’idea di fondo dell’utente.

A uno studente o a un insegnante si potrebbe quindi presentare la stessa problematica. Uno studente convinto di un’idea sbagliata non sarebbe messo di fronte a una scomoda verità, mentre un’insegnante poco attento potrebbe presentare delle opinioni soggettive come verità assolute.

Ad aggravare il quadro interviene il fenomeno delle «allucinazioni» delle Intelligenze Artificiali.

Nonostante il termine appaia bizzarro descrive perfettamente certi risultati falsati prodotti dall’IA che, decodificando in modo errato i dati elaborati, produce risultati senza un senso logico, proprio come noi guardando una nuvola potremmo distinguere un volto o un’oggetto che nessun’altro a fianco a noi è in grado a vedere.

L’Intelligenza Artificiale non è altro che uno strumento tecnologico. E come ogni altro strumento dobbiamo imparare a usarlo, saggiandone sia le potenzialità sia i limiti. Sarebbe un errore imperdonabile affidargli ciecamente ogni nostro compito o delegargli ogni nostra decisione e, allo stesso modo, sarebbe stupido non utilizzarlo perché terrorizzati da esso. Come ogni altro strumento siamo noi a doverlo controllare, evitando che sia lui a controllare noi.

Giacomo Pallotta

Commenta