20 anni di FSFE: intervista con Vincent Lequertier sulla IA
Nella sesta pubblicazione sul nostro anniversario intervistiamo Vincent Lequertier sugli aspetti fondamentali dell'intelligenza artificiale, come la sua trasparenza, la sua connessione con le scienze aperte, e le questioni di copyright. Vincent raccomanda anche ulteriori approfondimenti e dà un riscontro dei 20 anni di FSFE.
Dottorando all'università Claude Bernard di Lione che fa ricerca con l'intelligenza artificiale in campo medico, Vincent sostiene la libertà del software ed è volontario della FSFE nel suo tempo libero. È stato membro per molti anni degli hacker di sistema, il team responsabile dell'infrastruttura tecnica della FSFE. Il suo contributo è stato preziosissimo nell'impostare le basi per l'ottimo stato in cui è oggi il team degli hacker di sistema della FSFE. Vincent è anche un membro dell'Assemblea Generale della FSFE, e partecipa alla campagna "Denaro pubblico? Codice pubblico!". Nella nostra intervista, Vincent condivide i suoi pensieri rispondendo a domande sullo stato attuale dell'IA e sulle sue future implicazioni.
Intervista con Vincent Lequertier
FSFE: Sei profondamente coinvolto nel settore dell'intelligenza artificiale. Come spiegheresti ad un bambino di 10 anni cos'è l'IA?
Vincent Lequertier: Alcuni anni fa ero lo speaker radiofonico di una stazione locale, e qualche volta ero responsabile per il mix dell'audio. Alla stazione c'erano diversi ingressi: i microfoni degli speaker radiofonici (incluso il mio), la musica, i motivetti, e così via. E poi c'era l'uscita trasmessa agli ascoltatori della radio. Tra gli ingressi e l'uscita c'era un mixer, con innumerevoli manopole e barre scorrevoli. Avevo bisogno di regolare le manopole e i cursori in modo che gli ingressi venissero mixati bene insieme, in modo da produrre un'uscita che fosse gradevole agli ascoltatori. Attualmente, una IA funziona semplicemente così: regola automaticamente i numerosi parametri di un mixer digitale virtuale. Una volta inseriti, gli ingressi producono una uscita soddisfacente secondo una definizione di risultato posta a priori (nel paragone preso come esempio, che il suono fosse gradevole).
Stai sostenendo una IA accessibile e trasparente. Secondo la tua ricerca, quali ritieni siano i requisiti necessari per essere sicuri che i programmi che utilizzano l'intelligenza artificiale siano accessibili e trasparenti?
È molto utile riutilizzare le IA perché sono dispendiose da sviluppare e addestrare, sia in termini di risorse umane che computazionali. In aggiunta, addestrare i modelli IA richiede molti dati che sono particolarmente difficili da ottenere e con cui è difficile lavorare. È quindi importante essere in grado di riutilizzare una IA, dal momento che il riutilizzo fa risparmiare tempo e risorse potenzialmente scarse. Inoltre, rendere una IA disponibile ad altri accresce l'innovazione attraverso l'agevolazione della collaborazione. Credo che un requisito essenziale per una IA accessibile sia il Software Libero, perché le IA con una licenza di Software Libero (detto anche Open Source) sono intrinsecamente accessibili. Altri requisiti possono essere gli Standard Aperti e i Dati Aperti. I modelli IA dovrebbero quindi essere pubblicati e liberamente accessibili.
La trasparenza nell'IA è la capacità di capire e interpretare i suoi risultati. Sebbene potrebbe essere difficile ottenere la trasparenza vista la complessità dei moderni sistemi IA, essa è un'importante caratteristica dal momento che accresce la fiducia. Essere in grado di capire perché è stato prodotto un certo risultato, e quale parte ha principalmente contribuito a produrlo, aumenta la confidenza nel modello e lo rende più semplice da mettere a punto. Capire poi che ruolo gioca ogni informazione in ingresso può aiutare i processi decisionali basati sui dati. Ad esempio, in ambito sanitario, capire i fattori più importanti che incidono sulla qualità delle cure dei pazienti malati può validare o cambiare le pratiche assistenziali. Il Software Libero è una componente chiave della trasparenza perché permette a tutti di usare l'IA e analizzare le sue previsioni per capirle più a fondo.
Come possiamo essere sicuri che le disuguaglianze nella società odierna non vengano incluse nell'apprendimento dei dati dell'IA? Come possiamo garantire che i risultati dell'IA siano imparziali?
Dal momento che nell'IA le esistenti disuguaglianze trovate nei dati vengono amplificate, si insinueranno problematiche di imparzialità. Identificare queste problematiche nell'insieme dei dati e nel risultato dell'IA è quindi indispensabile. Rimuovere semplicemente i dati che potrebbero essere fonte di iniquità (ad esempio, la variabile di un insieme di dati di training che non è più rappresentativa una volta che il modello viene attivato sul campo) non sempre funziona, perché questi dati potrebbero essere correlati ad altri attributi nell'insieme dei dati che avrebbero bisogno di essere rimossi allo stesso modo. Rimuovere completamente ogni potenziale disuguaglianza potrebbe quindi rimuovere molti dati dall'insieme, limitando potenzialmente la capacità dell'IA di affrontare e risolvere correttamente il problema per il quale è stata progettata. Le disuguaglianze, quindi, provengono da insiemi di dati malamente raccolti, e sono necessari metodi avanzati per aggirarle.
I dati relativi al COVID-19 sono pubblici, e i più noti siti web per visualizzare questi dati, come anche altri strumenti, sono Software Libero.
Per rilevare problematiche di imparzialità, deve prima essere definita la stessa imparzialità. Ad esempio, l'imparzialità può essere definita come se a coppie di individui simili viene attribuita una previsione simile (imparzialità individuale), o potrebbe essere definita come se le previsioni sono simili tra gruppi di maggioranza e di minoranza secondo alcune caratteristiche (imparzialità di gruppo). Questa misurazione dell'imparzialità può essere elaborata una volta che l'IA è stata addestrata per identificare potenziali iniquità, o può essere elaborata durante lo stesso addestramento in modo che possa tenere conto dell'imparzialità durante la regolazione dei suoi parametri.
Il Software Libero è importante anche qui, dal momento che permette a ciascuno di controllare l'esistenza di eventuali problematiche di imparzialità, tramite l'ispezione del codice sorgente o eseguendo direttamente l'IA e analizzando le sue previsioni.
La tua ricerca si focalizza sull'assistenza sanitaria, un campo in cui viene universalmente richiesto di sostenere la Scienza Aperta. In che misura sono aperte le misurazioni sanitarie e la biometria? L'intelligenza artificiale per l'assistenza sanitaria ha un obiettivo grande e con collaborazione mondiale o è indipendente e competitivo?
Beh, dipende! Per questioni di sicurezza e di privacy, l'accesso ai dati metrici sanitari è spesso limitato e ogni studio che li utilizza deve essere approvato da una commissione etica. Sono comunque largamente disponibili i dati statistici aggregati. Ad esempio, il sito web data.gouv.fr ha una sezione dedicata all'assistenza sanitaria. Anche i dati relativi al COVID-19 sono pubblici, e i più noti siti web per visualizzare questi dati, come anche altri strumenti, sono Software Libero.
Gli aspetti di apertura e di collaborazione della ricerca sull'IA miglioreranno, in parte perché le riviste scientifiche incoraggeranno i ricercatori a condividere tutti i materiali di ricerca, incluso il codice sorgente, e poi perché gli istituti di finanziamento possono anche chiedere loro di farlo. [...] Credo anche che il ragionamento che sta intorno alla nostra campagna "Denaro pubblico? Codice pubblico!" possa applicarsi alla ricerca sull'IA.
Tuttavia, occorre notare che i dati senza abbastanza granularità possono ridurre le prestazioni dell'IA nel settore sanitario, dal momento che, come gli esseri umani, un'applicazione IA deve avere informazioni dettagliate, soprattutto se l'obiettivo dell'IA è quello di fare previsioni a livello individuale. Poiché i risultati sanitari sono molto dipendenti dal contesto, le capacità di previsione dipendono da specifiche situazioni sanitarie. Più i dati sono aperti e più Software Libero (cioè Open Science) viene utilizzato, più diventa facile collaborare. Un insieme di dati condiviso rilasciato con una licenza di Software Libero crea un "campo di gioco" dove i modelli IA possono essere facilmente confrontati e dove possiamo creare un task di analisi comparativa, come la previsione della durata della permanenza in ospedale. Senza un corretto task di analisi comparativa, è difficile trovare migliorie metodologiche. Un esempio di insieme di dati aperto per la salute è MIMIC. Inoltre, molta documentazione sulla ricerca AI è liberamente disponibile su arxiv.org. Penso che gli aspetti di apertura e di collaborazione della ricerca sull'IA miglioreranno, in parte perché le riviste scientifiche incoraggeranno i ricercatori a condividere tutti i materiali di ricerca, incluso il codice sorgente, e poi perché gli istituti di finanziamento possono anche chiedere loro di farlo. Ad esempio, il programma Horizon 2020 dell'Unione valorizza la Scienza Aperta.
Credo anche che il ragionamento che sta intorno alla nostra campagna "Denaro pubblico? Codice pubblico!" possa applicarsi alla ricerca sull'IA.
Un'aspettativa comune per il futuro dell'IA è che possa avere un brusco impatto economico e sociale rendendo molte posizioni di lavoro ridondanti. La vedi come una possibilità per i prossimi anni? Se è così, c'è qualche pratica che potrebbe alleviare queste conseguenze? Il Software Libero ne sarebbe una?
Credo che l'IA abbia fatto molti progressi negli ultimi dieci anni. È sempre più in grado di organizzare e strutturare le informazioni. I campi dove il progresso fatto è stato più impressionante sono l'elaborazione del linguaggio naturale (cioè i compiti che coinvolgono testi, come l'analisi del sentimento) e la visione artificiale (cioè compiti che coinvolgono immagini, come la classificazione delle immagini). Nell'elaborare il linguaggio naturale, i modelli di apprendimento profondo possono comprendere semanticamente le parole e i documenti, come anche le relazioni tra di loro. Quindi penso che i lavori in cui l'IA sarà in grado di assisterci (faccio qui considerazioni solo da un punto di vista tecnico) sono i lavori che si occupano di moltissime informazioni strutturate che devono essere comprese, elaborate e memorizzate, e l'IA sta diventando meglio di noi su questo. Ad esempio, software basato su IA ha dimostrato buoni risultati nell'assistenza in radiologia, nell'analisi dei documenti legali e nella programmazione (vedi domanda successiva). Quindi è possibile che l'IA renda le persone più efficienti, il che ridurrebbe la quantità di lavoro umano richiesto. Tuttavia, questo lavoro richiederebbe competenze che l'IA non è in grado di svolgere bene al momento, come la creatività o la comunicazione enfatica e riflessiva.
I lavori in cui l'IA sarà in grado di assisterci (faccio qui considerazione solo da un punto di vista tecnico) sono i lavori che si occupano moltissime informazioni strutturate che devono essere comprese, elaborate e memorizzate, e l'IA sta diventando meglio di noi su questo. Ad esempio, software basato su IA ha dimostrato buoni risultati nell'assistenza in radiologia, nell'analisi dei documenti legali e nella programmazione.
Se l'IA è destinata a migliorare, e a un certo punto avrà la capacità di automatizzare completamente un certo lavoro, la trasparenza e l'equità possono solo diventare sempre più importanti. Anche se non sufficiente, il Software Libero è una parte importante di ciò che aiuta a mettere in atto solide salvaguardie.
Tuttavia, non credo che spetti alla comunità scientifica progettare politiche intorno all'occupazione. Mettere insieme prove di fattibilità o trovare una nuova teoria che potrebbe automatizzare un certo lavoro non è un motivo per inserirlo nella vita quotidiana. Negli ultimi anni, l'UE ha già dovuto occuparsi di applicazioni IA che sono impressionanti tecnicamente, ma che sollevano preoccupazioni etiche. Ad esempio, la piattaforma di riconoscimento facciale Clearview AI è stata giudicata illegale in alcuni paesi dell'UE, e i cittadini hanno il diritto di rifiutarsi di utilizzare questa tecnologia. I prossimi anni saranno importanti per quanto riguarda le preoccupazioni etiche dell'IA, e il prossimo Artificial Intelligence Act dell'UE potrebbe svolgere un ruolo importante.
E infine, anche se non sono uno storico, penso che negli ultimi secoli abbiamo fatto un enorme progresso tecnologico, e la società si è sempre evoluta insieme ad esso. Pensare agli ostacoli passati a riguardo dei miglioramenti tecnologici ci aiuterebbe a comprendere se questi ostacoli potrebbero essere diversi questa volta, e come affrontarli nel modo migliore possibile.
Quali questioni legali pensi che sorgeranno a riguardo dell'IA nei prossimi dieci anni? Sarebbe questione di proprietà o di responsabilità? Per esempio, stiamo già vedendo aspetti etici e tecnici della proprietà IA in Copilot di Github. Siamo interessati a sapere quali, secondo te, possano essere le prossime cruciali questioni.
Le questioni riguardanti la proprietà e la responsabilità saranno molto importanti, e Copilot è un primo esempio di questo, dove la questione fondamentale è se ciò che viene creato in IA possa essere considerato come idea originale, e, se lo è, se sia possibile applicare indipendentemente il copyright. Nello specifico a riguardo di Copilot, il fatto che uno strumento di completamento del codice possa produrre direttamente copie di lavoro coperto da licenza può essere problematico, dal momento che attualmente l'IA non conosce la licenza con cui viene rilasciato il sorgente del codice autocompletato, e non sa come la licenza dovrebbe essere rispettata. Ad esempio, per quello che ne so io, non è chiaro se il codice autocompletato da Copilot originariamente rilasciato sotto la GNU Public Licence renda il resto del progetto un lavoro derivato. Per poter essere in grado di utilizzare liberamente il codice sorgente, occorre spesso rispettare degli obblighi, indipendentemente dal fatto che il codice sia inserito da un'intelligenza artificiale o da un essere umano. Il nostro progetto REUSE, che ha lo scopo di rendere più facile capire programmaticamente con che licenza un progetto e i suoi diversi componenti sono rilasciati, può aiutare a costruire strumenti di programmazione che tengano conto della licenza. Gli stessi problemi legali si applicano ad altri modelli in grado di generare contenuti, in domini come la pittura o la produzione musicale.
Un'altra problematica legale è con i brevetti, dove la questione se un'IA può essere considerata un autore di brevetti non è stata ancora decisa. Nel Regno Unito e nell'UE, un brevetto il cui inventore era un'IA è stato respinto perché è stata fatta la considerazione che un'IA non possiede una personalità giuridica e non può aver alcun diritto legale su ciò che produce. Ma due mesi fa, è stato approvato il primo brevetto il cui inventore è un'IA.
La questione fondamentale è se ciò che viene creato in IA possa essere considerato come idea originale, e, se lo è, se sia possibile applicare indipendentemente il copyright.
C'è qualche libro sull'intelligenza artificiale che vorresti raccomandare ai nostri lettori?
Non mi stancherò mai di raccomandare "Genesis" di Bernard Beckett. Si tratta di un piccolo romanzo che mostra un dibattito filosofico intorno alle domande di che cosa significa essere umani e se le macchine possono avere coscienza. Il classico "I, Robot" di Isaac Asimov solleva anche molte questioni che hanno molto senso oggi (è stato pubblicato nel 1950!). Se stiamo costruendo robot autonomi con una certa libertà di azione, quali tutele dobbiamo mettere in atto? Il libro parla davvero di come assicurarsi che l'IA funzioni come previsto.
Fai parte della FSFE da diversi anni. Qual è una cosa importante che hai imparato da questa esperienza?
Ho imparato che il Software Libero può essere visto da molte diverse prospettive e non è solo un argomento tecnico. Questo si traduce nella diversità e nella vastità della nostra comunità. Questa diversità è un punto di forza enorme.
E qual è una storia che ti fa ancora sorridere quando ti viene in mente?
Il mio primo FOSDEM nel 2019. Ho incontrato delle persone fantastiche della nostra comunità. Mi ha scaldato davvero il cuore.
Come ultima domanda, cosa auguri alla FSFE per i prossimi 20 anni?
Vorrei che la FSFE riuscisse ad affrontare le sfide future. I prossimi anni saranno pieni di innovazioni che renderanno la tecnologia ancora più onnipresente nella nostra vita. Spero che potremo continuare a divulgare il Software Libero e i valori che stanno dentro di esso.
Per poter essere in grado di utilizzare liberamente il codice sorgente, occorre spesso rispettare degli obblighi, indipendentemente dal fatto che il codice sia inserito da un'intelligenza artificiale o da un essere umano. Il nostro progetto REUSE, che ha lo scopo di rendere più facile capire programmaticamente con che licenza un progetto e i suoi diversi componenti sono rilasciati, può aiutare a costruire strumenti di programmazione che tengano conto della licenza.
FSFE: Grazie mille!
Informazioni sui "20 anni di FSFE"
Nel 2021 la Free Software Foundation Europe compie 20 anni. Due decadi dedicate a dare agli utenti i mezzi per controllare la tecnologia.
Il 20ª anniversario è un momento dove vorremmo prenderci una piccola pausa e guardare indietro alla strada percorsa, per riflettere sui traguardi che abbiamo raggiunto, sui successi ottenuti, sulle storie scritte e sulle occasioni che ci hanno fatto incontrare e che ricorderemo sempre piacevolmente. Nel 2021 vorremmo dare uno slancio alla FSFE e ancor di più alla nostra comunità paneuropea, la comunità che ha costituito e sempre costituirà le spalle sulle quali il nostro movimento fa affidamento.
20 anni di FSFE significa festeggiare chiunque ci abbia accompagnato in passato o lo sta facendo ancora ora. Grazie per la tua presenza nella struttura odierna della FSFE e per aver gettato le basi della libertà del software per i prossimi decenni a venire.