Guerra, Adolescenti e Intelligenza Artificiale: Quando l'Immaginazione Incontra la Realtà (Mediata) 🧠💥
di maria Cattini
Immaginate un mondo in cui gli adolescenti, armati non di fucili ma di prompt testuali, possano esprimere la loro visione della guerra. Questo è stato il cuore di un recente seminario presso il Centro Nexa dell'Università di Torino. Il titolo? "Imagining War with AI: Teenagers, Generative AI, Social Media and the Representation of War". Un tema cruciale in un'epoca in cui i conflitti sono onnipresenti nei media e l'intelligenza artificiale generativa sta rivoluzionando la creazione di contenuti.
Ma come vedono la guerra i ragazzi? E in che modo l'AI può diventare uno strumento per comprendere e rappresentare questa complessa realtà? Gli esperti di semiotica e media, Antonio Sant'Angelo, Ilaria Ingrao e Mirson Ball, hanno condotto una ricerca coinvolgendo studenti italiani e iraniani per analizzare come viene rappresentata la guerra di Gaza sui media e come l'intelligenza artificiale generativa può aiutare i giovani a esprimere le proprie idee.
Lacune nei Media Tradizionali
Un'analisi critica dei media ha rivelato alcune lacune significative. Spesso, non c'è una chiara distinzione tra Hamas e la popolazione palestinese. L'esercito israeliano appare quasi come una "forza invisibile", e l'emotività delle popolazioni coinvolte è sottorappresentata, sfociando in rappresentazioni stereotipate: palestinesi ritratti come donne e bambini disperati, mentre gli israeliani come uomini e soldati. Queste narrazioni richiamano la stessa rappresentazione stereotipata che i media fanno dei migranti: soggetti passivi che subiscono un destino ingiusto.
L'Esperimento con l'AI: Rappresentare la Guerra con le Immagini
L'esperimento con l'intelligenza artificiale è stato particolarmente illuminante. Gli studenti sono stati invitati a creare immagini a partire da concetti legati alla guerra, confrontando poi le loro creazioni con le rappresentazioni mediatiche esistenti. L'obiettivo era duplice: insegnare loro a "dialogare" con l'AI attraverso il prompting e stimolare una riflessione critica sulle diverse narrazioni della guerra.
Risultati Sorprendenti
I risultati hanno offerto spunti di riflessione sorprendenti. Sebbene l'85% degli studenti creda che le immagini generate dall'AI siano facilmente comprensibili per i loro coetanei, un 100% ha dichiarato di preferire le immagini del mondo reale. Un dato ancora più interessante: la maggior parte degli studenti non condividerebbe sui social media le immagini create con l'AI relative alla guerra. La motivazione? Le immagini non sarebbero "accurate" e non si saprebbe cosa intendono comunicare. Allo stesso tempo, quasi tutti dichiarerebbero la natura sintetica di tali contenuti.
title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
Verità vs. Accuratezza: Il Paradosso delle Immagini
Questo paradosso apre una finestra sul complesso rapporto tra verità, accuratezza e rappresentazione. Gli studenti percepiscono le immagini reali, seppur potenzialmente manipolabili, come più "vere" perché provenienti direttamente dal contesto del conflitto. Le immagini generate dall'AI, pur riflettendo potenzialmente il loro pensiero (l'85% ritiene che le immagini riflettano bene le loro idee), non godono della stessa fiducia e autenticità.
Tuttavia, l'AI ha dimostrato di poter rappresentare aspetti della guerra che spesso rimangono invisibili nei media tradizionali, come immagini più crude di sofferenza. Alcuni studenti hanno persino creato immagini che auspicavano una riconciliazione tra israeliani e palestinesi, un discorso meno presente nel panorama mediatico.
Il Ruolo dell'Intelligenza Artificiale nell'Educazione alla Guerra 📚💡
La domanda cruciale diventa quindi: l'intelligenza artificiale generativa può essere utilizzata in ambito educativo per contrastare la diffusione di narrazioni ideologiche, anziché favorirle? La risposta, secondo i ricercatori, è potenzialmente sì. Ma è fondamentale un approccio critico e guidato. Insegnare agli studenti a interrogare l'AI attraverso il prompting consapevole e analizzare criticamente i risultati è essenziale per andare oltre gli stereotipi e le rappresentazioni parziali.
Come ha sottolineato uno dei relatori, Massimo, non si tratta di sfidare i limiti dell'AI evidenziandone i bias, ma di imparare a "dialogare" con essa per far emergere prospettive diverse. Anche se gli strumenti di AI sono costruiti su dataset esistenti e quindi potenzialmente biased, un uso consapevole del prompting può portare a risultati inaspettati e utili per la riflessione.
Un Nuovo Spazio Educativo
In conclusione, l'esperimento ha evidenziato un gap importante nell'alfabetizzazione all'AI, con studenti che faticano a utilizzare il prompting per esprimere le proprie idee. Ma ha anche aperto nuove prospettive sul potenziale dell'AI come strumento educativo per stimolare il pensiero critico sulla rappresentazione della guerra e, forse, per immaginare scenari futuri al di là delle narrazioni dominanti. Resta aperta la riflessione sul delicato equilibrio tra accuratezza, verità e fiducia nell'era delle immagini generate dall'intelligenza artificiale.