Qualunque ricercatore nell’ambito dell’Intelligenza Artificiale si è sentito dire almeno una volta nella vita una battuta tanto vecchia quanto banale:
- Forse prima dovremmo trovare l’intelligenza umana…
Ora, se da un lato questa freddura non fa più ridere dal 1970, dall’altro – in maniera del tutto inconsapevole – pone l’accento su un aspetto rilevante del sentire comune nei confronti dello sviluppo tecnologico. Il timore diffuso non è quello del popolo dei robot che si ribella agli umani, né quello dell’IA che prende coscienza e aspira al controllo del mondo, bensì è il più semplice timore di un utilizzo sconsiderato, maldestro o criminoso della tecnologia da parte di chi la costruisce, gestisce e utilizza.
Di questi temi e del recente sviluppo vertiginoso dell’Intelligenza Artificiale si è parlato nell’ultima edizione della Milano Digital Week, iniziata giovedì 10 e conclusasi lunedì 14 ottobre 2024, alla quale alcuni di noi hanno partecipato nella veste di spettatori. Malgrado gli eventi fossero numerosi e variegati sia nel contenuto sia nella forma, e di conseguenza per darne una visione esaustiva sarebbe servito il dono dell’ubiquità, il fil rouge che connette tutti i talk e i workshop a cui abbiamo partecipato è l’integrazione tra le soluzioni tecnologiche più innovative e la necessaria componente umana.
Nel settore dell’Intelligenza Artificiale, in particolare dell’IA generativa, è frequente assistere a dimostrazioni delle incredibili capacità dei modelli all’ultimo grido, mentre è frequente sorvolare su o dimenticare del tutto le questioni relative all’interazione tra i sistemi umani e la macchina. Le dimostrazioni da vetrina non sono mancate neanche in questo caso, con conversazioni intrattenute con la nuova modalità vocale di ChatGPT[1] e un cane robotico portato direttamente nella sala di Palazzo Giureconsulti, nonché riportando esperimenti sull’ammirevole comportamento di un’IA nella veste di medico[2] e di scienziato[3], ma molta attenzione è stata posta sul ruolo ambivalente e per certi versi nebuloso dei modelli di IA nella vita sociale, culturale e politica delle persone.
Un ambiente cruciale su cui l’impatto dell’IA è già evidente è quello dell’istruzione. Già dall’uscita di ChatGPT nel 2022, e con la sua velocità di diffusione senza precedenti, docenti e stakeholder a vario titolo del mondo della scuola hanno iniziato a interrogarsi sulle modalità più opportune per approcciare i nuovi strumenti. Non mancano le voci critiche da entrambi i lati, che per semplificare si indicano spesso con tecno-ottimisti (o tecno-entusiasti) e tecnofobi. Da parte dei primi arriva spesso un’accusa al ritardo del nostro Paese nell’adottare un cambiamento inevitabile, dall’altra si registra invece un attaccamento profondo ai pregi del nostro sistema scolastico e una conseguente preoccupazione per la perdita delle competenze che esso dovrebbe trasmettere. Come spesso succede, tra posizioni diametralmente opposte si trova una scala di grigi che rappresentano un’adozione critica delle tecnologie in questione. Timothy O’Connell e Diego Pizzocaro di H-Farm propendono per una visione ottimista, in cui l’adozione delle nuove tecnologie è tanto più urgente quanto più gli individui (nel caso della scuola gli studenti) già ci sono arrivati, ma allo stesso tempo sottolineano l’importanza della preservazione degli studi tradizionali nei curricula scolastici e accademici. Gli strumenti di IA – sottolineano i relatori in particolare con riferimento ai Large Language Models che animano i nuovi chatbot – possono rappresentare una possibilità di upskilling accelerato per i più giovani e inesperti, quelli che nel mondo del lavoro si chiamano junior. Dall’altro lato, tuttavia, una competenza che difficilmente l’IA è in grado di trasmettere, e anzi si pone come prerequisito per un suo uso consapevole e intelligente, è la capacità di pensare criticamente, analizzare le fonti e stabilire le giuste connessioni. È su questo che la scuola, se vuole stare al passo, dovrebbe concentrarsi? La risposta a questa domanda non può chiaramente essere esaurita in una singola presentazione, ma necessita senza dubbio di una riflessione ampia e partecipata.
Ma oltre a rispondere a domande, l’IA può essere utilizzata anche per supportare l’immaginazione? È l’obiettivo che si sono preposti i ragazzi dell’associazione InTra, ex studenti del Politecnico di Milano che organizzano – tra le altre cose – laboratori per “immaginare futuri desiderabili” con l’aiuto di modelli di IA come Midjourney. L’osservazione che sorge spontanea è la solita: un modello di IA generativa non è in grado veramente di immaginare, o comunque di creare qualcosa di nuovo, ma solo di ricomporre e di interpolare i dati cui è stato sottoposto durante la fase di addestramento. Oltre a basarsi sull’assunzione che i dati di test seguano la stessa distribuzione statistica dei dati di training, fenomeno plausibile data la quantità dei dati di training ma non necessariamente vero, questa prospettiva dovrebbe portare forse a interrogarsi da un lato su cosa sia la creatività in ambito umano e in che modo essa differisca da una ricomposizione di informazioni note, dall’altro su cosa possa scaturire dall’interazione tra uomo e macchina nel processo immaginativo. Nell’ambito specifico dell’immaginazione di futuri desiderabili, l’uomo e la macchina si possono complementare contribuendo ciascuno a una parte: l’umano alla produzione di idee innovative che la macchina fatica a generare, e la macchina alla condensazione e concretizzazione di esse in forme visuali o linguistiche.
Dopo l’imparare e l’immaginare, con un workshop intitolato Tech(&)Democracy, tenuto presso la Fondazione Giangiacomo Feltrinelli e condotto dalle ricercatrici del Politecnico Ilaria Mariani e Beatrice Gobbo, la riflessione ha toccato una terza azione: il decidere. L’utilizzo dell’IA a supporto delle decisioni non è una novità, anzi è uno dei più longevi percorsi di studio nell’ambito, ma cosa succede quando a prendere le decisioni non è più un singolo o un gruppo ristretto di persone? Cosa succede, insomma, quando si parla di democrazia? Il supporto dell’IA ai processi democratici è un argomento scivoloso e complesso, dati la strutturale difficoltà nel produrre studi numericamente significativi e le intrinseche questioni politiche che esso solleva. Ad evidenziare poi altri fattori di criticità sono il prof. Marco Deseriis (Scuola Normale Superiore) e il prof. Alessandro Gandini (Università degli Studi di Milano), che sottolineano il rapporto fiduciario umano sul quale sono costruite le istituzioni della democrazia rappresentativa, nonché gli altri relatori: Roberta Tassi (Politecnico di Milano), Alice Casiraghi (Food Trails), Davide Leo (Pagella Politica), Franz Purpura (Rob de Matt APS), Prof.ssa Maria Francesca Murru (Università degli Studi di Bergamo). Sembrerebbe che gli ostacoli siano troppi, e quindi che l’IA farebbe meglio a stare fuori dai processi decisionali democratici. Tuttavia, anche in questo caso l’interazione tra l’umano e la macchina può produrre risultati innovativi, come si propone il progetto Orbis[4] e come hanno dimostrato applicazioni puntuali quali l’uso del software Polis[5] a Taiwan nel 2019. In questa direzione va anche la nostra recente presentazione dei software LIA[6] e LIAEducation, proposti alla manifestazione di interesse in materia di IA della Camera dei Deputati. Sfruttando la potenza dei Large Language Models, combinata con efficaci metodi di Document Retrieval (reperimento di documenti di interesse da un corpus) in quella che nel gergo è chiamata Retrieval-Augmented Generation (RAG), è possibile offrire all’utente una libertà speculativa senza precedenti e una fonte di conoscenza puntuale su argomenti complessi e spesso elitari. Di lavori approfonditi sul rapporto tra IA e democrazia ne sono stati prodotti molti (dal Parlamento Europeo[7] all’UNESCO[8], da Cambridge[9] a numerose altre università) e non è questa la sede per proporne un altro. Ad un livello più superficiale si tratta di riconoscere quali sono le opportunità e i rischi posti dall’IA per la democrazia, sottolineando in particolare la necessità di un approccio human-in-the-loop, nel quale l’umano mantiene un ruolo attivo nei sistemi potenziati da strumenti di IA.
Nel caso di attività eminentemente umane, quali l’imparare, l’immaginare e il decidere, ma anche in una prospettiva più ampia, un’applicazione consapevole dell’IA non sminuisce il fattore umano, lo esalta. Bisogna però partire dalla progettazione, fin dallo stadio della ricerca. E quali siano gli strumenti che il ricercatore in IA ha a disposizione è una questione che riguarda allo stesso tempo gli stessi ricercatori e le altre discipline. Il dialogo interdisciplinare, che abbiamo riscontrato alla base di tutti gli interventi a cui abbiamo assistito, è una componente troppo spesso dimenticata che può aiutarci a riconnettere il mondo degli algoritmi con il fattore umano. In questo senso, le collaborazioni che come ISLab intratteniamo con i dipartimenti di diritto, di storia, di lettere, di filosofia e altri ancora, aspirano da un lato a scambiare strumenti, competenze e conoscenze di utilità, e dall’altro a sviluppare un linguaggio condiviso in grado di produrre una visione sistemica delle discipline. Il giurista, lo storico, il filosofo familiarizzano con i dati e si inseriscono nel mondo della tecnica, l’informatico e il data scientist apprendono altri linguaggi che permettono di conoscere campi applicativi inediti ed immaginare concretamente le strade per avere un impatto tangibile. Se la didattica sta già muovendo i primi passi in questo senso, con un numero sempre maggiore di corsi di carattere interdisciplinare, forse per l’applicazione consapevole delle nuove tecnologie l’iper-specializzazione non è più ritenuta sufficiente.
[1] https://www.technologyreview.com/2024/09/24/1104422/openai-released-its-advanced-voice-mode-to-more-people-heres-how-to-get-it/
[2] https://www.nature.com/articles/d41586-024-00099-4
[3] https://arxiv.org/abs/2409.05556
[6] Riva Davide, Lamorte Davide. Supporting Law-Making through Retrieval-Augmented Generation. 3rd Italian Conference on Big Data and Data Science (ITADATA 2024), Pisa, 16-19 Settembre 2024
[7] https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2023)751478
[8] https://www.unesco.org/en/articles/artificial-intelligence-and-democracy
[9] https://www.cambridge.org/core/books/cambridge-handbook-of-responsible-artificial-intelligence/artificial-intelligence-and-the-past-present-and-future-of-democracy/B6A19E65F15179EC41AB226D24A9FC51