Luci e ombre della didattica AI

È inne­ga­bi­le che l’Intelligenza Arti­fi­cia­le sia ormai entra­ta a far par­te del­la nostra vita. Il suo uti­liz­zo ha aper­to pos­si­bi­li­tà infi­ni­te in nume­ro­sis­si­mi cam­pi, rivo­lu­zio­nan­do il modo di approc­ciar­si a pro­ble­mi com­ples­si, ma anche insi­nuan­do­si nel­la nostra quo­ti­dia­ni­tà, nel modo in cui affron­tia­mo le pic­co­le sfi­de di ogni gior­no, sia a lavo­ro sia sui ban­chi di scuo­la. E pro­prio sui ban­chi si gio­ca una par­ti­ta impor­tan­te. L’uso dell’AI nel­la didat­ti­ca, infat­ti, non è più solo argo­men­to di discus­sio­ne, ben­sì una pra­ti­ca sem­pre più dif­fu­sa tra stu­den­ti e docen­ti. Ma qua­li sono i bene­fi­ci e i rischi di que­sto utilizzo?

Un recen­te rap­por­to di Pla­ne­ta For­ma­ción y Uni­ver­si­ta­des, la rete inter­na­zio­na­le che riu­ni­sce ben 22 isti­tu­ti edu­ca­ti­vi, tra cui la Rome Busi­ness School, ha rile­va­to che l’89% degli stu­den­ti uni­ver­si­ta­ri ita­lia­ni uti­liz­za stru­men­ti di IA. Un nume­ro impres­sio­nan­te che, tut­ta­via, va let­to alla luce dell’uso effet­ti­vo di que­sti stru­men­ti. Solo il 32%, infat­ti, ha dichia­ra­to di esse­re in gra­do di svi­lup­pa­re solu­zio­ni pro­prie basa­te sull’Intelligenza arti­fi­cia­le, non limi­tan­do­si, cioè, alla ste­su­ra di testi, alla crea­zio­ne di imma­gi­ni e video o alla mera ricer­ca di dati.

La mag­gior par­te degli stu­den­ti, dun­que, non sfrut­te­reb­be a pie­no le oppor­tu­ni­tà offer­te dal nuo­vo mez­zo tec­no­lo­gi­co, rive­lan­do un gap di cono­scen­ze signi­fi­ca­ti­vo, che sem­bra, però, desti­na­to a esse­re col­ma­to in bre­ve tem­po, visto il cre­scen­te inte­res­se sul tema.

Un interesse coltivato non solo dagli studenti ma anche da un numero crescente di università e di insegnanti in Italia e nel resto del mondo. 

Tra tut­ti spic­ca il caso cine­se. Le uni­ver­si­tà del­la Cina, difat­ti, stan­no crean­do cor­si ad hoc incen­tra­ti sull’utilizzo dei model­li AI svi­lup­pa­ti da Deep­Seek, la start-up capa­ce di com­pe­te­re con Ope­nAI e le altre azien­de del set­to­re. Tali cor­si, atti­va­ti nel­le uni­ver­si­tà di Shen­zen, di Zhe­jiang, nel­la Jiao Tong di Shan­ghai e nel­la Ren­min di Pechi­no, oltre a impar­ti­re nozio­ni tec­ni­che, riguar­de­reb­be­ro anche aspet­ti eti­ci e di sicu­rez­za, a ripro­va dell’esistenza di rischi lega­ti alla nuo­va tecnologia.

In Ita­lia, l’approccio sem­bra incen­tra­to sul­la scuo­la più che sull’Università. Lo scor­so otto­bre, il mini­stro dell’istruzione e del meri­to Val­di­ta­ra ha annun­cia­to l’avvio del­la spe­ri­men­ta­zio­ne dell’IA nel­le scuo­le secon­da­rie di pri­mo e secon­do gra­do. Il pia­no pre­ve­de l’utilizzo dell’Intelligenza Arti­fi­cia­le a sco­po didat­ti­co in alcu­ni isti­tu­ti del Lazio, del­la Cala­bria, del­la Lom­bar­dia e del­la Tosca­na per la dura­ta di due anni, al ter­mi­ne dei qua­li le pro­ve Inval­si del­le clas­si inte­res­sa­te saran­no mes­se a con­fron­to con quel­le che non han­no par­te­ci­pa­to all’esperimento. 

Analogamente il ministro ha annunciato lo stanziamento di 450 milioni per fornire un’adeguata istruzione agli insegnanti. 

Ma alcu­ni di essi han­no già imple­men­ta­to l’uso di Chat­Bot e IA gene­ra­ti­va nei loro cor­si. Ad esem­pio Gian­lu­ca Nati­vo, pro­fes­so­re di ita­lia­no, sto­ria e geo­gra­fia in una scuo­la media di Mila­no, uti­liz­za l’IA per sem­pli­fi­ca­re i testi, adat­tan­do­li all’età dei suoi stu­den­ti. Oppu­re il pro­fes­sor Pie­tro Sto­ri, docen­te di filo­so­fia e sto­ria, che in un liceo mila­ne­se ha fon­da­to una «com­mis­sio­ne per le AI» allo sco­po di spe­ri­men­ta­re nuo­ve solu­zio­ni didattiche. 

Alcu­ne di que­ste solu­zio­ni, inol­tre, sono attual­men­te mes­se in pra­ti­ca nei Pae­si del Nord Euro­pa, in cui, come dichia­ra­to da Andrea Gara­va­glia, pro­fes­so­re di AI in Edu­ca­tion e Tec­no­lo­gie didat­ti­che pres­so il nostro ate­neo, sareb­be­ro in uso regi­stri digi­ta­li in gra­do di «per­so­na­liz­za­re i per­cor­si, ana­liz­za­re le rispo­ste degli stu­den­ti, for­ni­re pro­po­ste didat­ti­che più mirate».

Non tutti, però, vedono nell’intelligenza artificiale un alleato irrinunciabile.

Il diret­to­re del­la Scuo­la Nor­ma­le di Pisa Lui­gi Ambro­sio, inter­vi­sta­to dal Cor­rie­re del­la Sera, ha espres­so for­ti dub­bi sull’ imple­men­ta­zio­ne dell’AI, con­si­de­ra­ta «trop­po velo­ce per le nostre capa­ci­tà di adat­ta­men­to». Per il pro­fes­sor Ambro­sio, il rischio è quel­lo di affi­dar­si ecces­si­va­men­te ai nuo­vi stru­men­ti, per­den­do, di con­se­guen­za, par­te del­le nostre capa­ci­tà intel­let­ti­ve: «Oggi c’è chi non sa più fare nem­me­no una divi­sio­ne, mi doman­do che cosa acca­drà tra 20 anni».

Alcu­ni peri­co­li sem­bra­no, inve­ce, insi­ti nel­la natu­ra stes­sa del­le intel­li­gen­ze arti­fi­cia­li. L’informatico sta­tu­ni­ten­se Daniel Tun­ke­lang ha nota­to che ChatGPT ha la ten­den­za ad asse­con­da­re l’utente, qua­si come se voles­se a tut­ti i costi fare una buo­na impres­sio­ne con il suo inter­lo­cu­to­re uma­no. Essen­do un aman­te del dark humor, Tun­ke­lang si diver­te a chie­de­re al Chat­bot di com­por­re can­zo­ni paro­dia dai toni maca­bri, e ChatGPT non solo lo accon­ten­ta ma, una vol­ta com­pre­so l’amore dell’informatico per quel tipo di umo­ri­smo, ha ini­zia­to a spin­ger­si sem­pre più in là, arri­van­do a pro­por­re modi­fi­che ancor più lugu­bri e spaventose.

Un pro­ble­ma ana­lo­go è sta­to riscon­tra­to da Jen­ni­fer Marsh, lega­le esper­ta di tec­no­lo­gie appli­ca­te al set­to­re foren­se, che ha riscon­tra­to come ChatGPT, quan­do inter­ro­ga­to su una que­stio­ne lega­le, piut­to­sto che dare una rispo­sta legal­men­te cor­ret­ta, ten­da a con­fer­ma­re l’ipotesi o l’idea di fon­do dell’utente.

A uno stu­den­te o a un inse­gnan­te si potreb­be quin­di pre­sen­ta­re la stes­sa pro­ble­ma­ti­ca. Uno stu­den­te con­vin­to di un’idea sba­glia­ta non sareb­be mes­so di fron­te a una sco­mo­da veri­tà, men­tre un’insegnante poco atten­to potreb­be pre­sen­ta­re del­le opi­nio­ni sog­get­ti­ve come veri­tà assolute.

Ad aggravare il quadro interviene il fenomeno delle «allucinazioni» delle Intelligenze Artificiali.

Nono­stan­te il ter­mi­ne appa­ia biz­zar­ro descri­ve per­fet­ta­men­te cer­ti risul­ta­ti fal­sa­ti pro­dot­ti dall’IA che, deco­di­fi­can­do in modo erra­to i dati ela­bo­ra­ti, pro­du­ce risul­ta­ti sen­za un sen­so logi­co, pro­prio come noi guar­dan­do una nuvo­la potrem­mo distin­gue­re un vol­to o un’oggetto che nessun’altro a fian­co a noi è in gra­do a vedere.

L’Intelligenza Arti­fi­cia­le non è altro che uno stru­men­to tec­no­lo­gi­co. E come ogni altro stru­men­to dob­bia­mo impa­ra­re a usar­lo, sag­gian­do­ne sia le poten­zia­li­tà sia i limi­ti. Sareb­be un erro­re imper­do­na­bi­le affi­dar­gli cie­ca­men­te ogni nostro com­pi­to o dele­gar­gli ogni nostra deci­sio­ne e, allo stes­so modo, sareb­be stu­pi­do non uti­liz­zar­lo per­ché ter­ro­riz­za­ti da esso. Come ogni altro stru­men­to sia­mo noi a dover­lo con­trol­la­re, evi­tan­do che sia lui a con­trol­la­re noi.

Con­di­vi­di:
Giacomo Pallotta

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.