Considerata una delle più grandi esperte mondiali di IA, è l’inviata speciale dell’Eliseo e incaricata di organizzare il summit mondiale che si terrà a Parigi il 10 e 11 febbraio 2025. «L’organizzazione del lavoro cambierà molto, significa che forse dovremo formare di più le persone all’interazione umana»
DAL NOSTRO CORRISPONDENTE
PARIGI – La matematica e dirigente d’azienda Anne Bouverot è una delle più grandi esperte mondiali di Intelligenza artificiale, inviata speciale dell’Eliseo e incaricata di organizzare il summit mondiale che si terrà a Parigi il 10 e 11 febbraio 2025. A margine di una riunione dei Gracques (il think tank fondato da Bernard Spitz), Bouverot fa il punto sulla AI con il Corriere.
Il nostro sguardo sta cambiando? Le opportunità diventano più importanti dei rischi?
«Sì, e credo che questo sia normale in tutto il mondo. Quando succede qualcosa e non sappiamo cosa sia, soprattutto quando si chiama intelligenza artificiale, pensiamo: sì, fantascienza, Terminator e così via. Ma poi ci si rende conto di che cosa sia veramente. Quindi ci diciamo: sì, ci sono rischi, ma ci sono anche applicazioni interessanti. L’IA ha conseguenze nel settore del lavoro e dobbiamo vedere come sta cambiando alcune professioni (ad esempio nella traduzione). Possiamo vedere che in alcuni settori, come lo sviluppo informatico e lo scrivere codice o la medicina, può essere molto utile. Cioè, siamo più propensi ad avere reazioni più concrete e specifiche a cose che comprendiamo meglio. Questo è il cambiamento complessivo della percezione dell’intelligenza artificiale».
E che cosa pensa del dibattito sulla presunta coscienza dell’intelligenza artificiale?
«Per me, fa più parte della prima fase di stupore per l’ignoto. Ora capiamo che certe frasi sono più generate statisticamente che altro. Certo, questo stimola il nostro pensiero, ma non significa che abbiamo una coscienza davanti a noi. Sono davvero convinta che stiamo parlando di strumenti informatici».
Si comincia anche a sottolineare che i progressi dell’intelligenza artificiale potrebbero non essere così rapidi ed esponenziali come si pensava. Cosa ne pensa?
«Si parla molto di una potenziale bolla. Va detto che gli investimenti sono davvero impressionanti e che i ricavi generati dalle aziende non sono ancora molto elevati. Quindi non tutte queste start-up sono ancora redditizie. E gli unici che stanno facendo davvero molti soldi sono i fornitori di potenza di calcolo o di cloud, per esempio. Quindi si ipotizza una bolla. Ma penso soprattutto che la calibrazione tra ciò che ci aspettiamo e i risultati non è forse molto chiara».
E in termini di progresso tecnologico?
«Ci sono stati nuovi annunci sulle nuove capacità di questi modelli di IA generativa, che stanno facendo progressi ma forse un po’ meno del previsto, ma forse vedremo innovazioni in altri settori. L’intelligenza artificiale simbolica si è sviluppata all’inizio, poi quella neurale, poi il machine learning, poi l’IA generativa, forse vedremo un altro ramo di sviluppo. Ma l’impatto sulla società lo faranno i casi d’uso, e ce ne sono una quantità enorme».
Quali sono, secondo lei, le applicazioni più promettenti?
«Nella scienza c’è un grande potenziale. Con il Premio Nobel per la Chimica a Demis Hassabis abbiamo visto che possiamo scoprire nuove strutture proteiche. Penso che in tutti i settori della chimica, dell’analisi dei materiali, della biologia, della fisica e della medicina, abbiamo un’enorme capacità di aiutare la scienza».
In particolare nella medicina di precisione, personalizzata?
«Assolutamente sì, c’è molta speranza. Bisogna passare attraverso gli ospedali, le compagnie di assicurazione e i medici. È complesso in ogni Paese, ma ci sono enormi possibilità. Ed è fantastico, perché sono settori in cui è sempre più importante che le nostre società facciano progressi».
Da un punto di vista politico, qual è la posizione attuale dell’Europa in termini di capacità di regolamentare senza frenare il progresso tecnologico?
«A livello europeo, c’è il desiderio di creare un mercato unico e quindi di armonizzare le regole all’interno dell’Europa, il che è un’ottima cosa. L’importante è semplificare il modo in cui le regole vengono applicate in Europa e anche reagire, in particolare dopo la relazione di Draghi, per garantire che venga data priorità anche agli investimenti e allo sviluppo dell’innovazione. Al summit sull’intelligenza artificiale di inizio 2025 non cercheremo di introdurre nuove norme. Non abbiamo la legittimità per farlo. Tuttavia, cercheremo di armonizzare gli standard, che non sono tutti europei, per rendere più facile alle aziende rispettarli. E per evidenziare la capacità di innovazione dell’Europa».
Di solito associamo gli Stati Uniti ai giganti tecnologici della California, le Big Tech. E la Little Tech?
«Little Tech è una parola che indica le start-up, in contrapposizione alle Big Tech. Il programma di Donald Trump è molto incentrato sulla Little Tech, cercherà di incoraggiare l’ecosistema americano delle start-up».
E in Europa?
«In Europa diversi Paesi che stanno investendo nell’AI con un ecosistema di start-up AI piuttosto ricco. I più grandi sono il Regno Unito, la Germania e la Francia. Ci sono iniziative in corso in Svezia, per esempio, e in Svizzera. Anche in Italia».
Quale impatto potrebbe avere l’intelligenza artificiale sulla politica?
«Potrebbe consentire di consultare i cittadini su questioni specifiche. A Taipei, per esempio, si stanno sviluppando meccanismi di consultazione dei cittadini. Abbiamo una professoressa a Yale, Hélène Landemore, che sta pensando alle consultazioni in più Paesi, per consentire a un gruppo di persone di porre domande su questioni sociali».
Quindi non è la fine della democrazia.
«Non credo che l’intelligenza artificiale in quanto tale stia contribuendo alla fine della democrazia. Il problema è la disinformazione. L’intelligenza artificiale permette di generare contenuti falsi, ma ciò che conta davvero è il modo in cui vengono diffusi. L’AI ha due tipi di impatto. Il primo, nella generazione di contenuti. E sì, è sorprendente. In questo caso, dobbiamo mettere in atto strumenti come il watermarking e fare anche molta educazione, fin dalla scuola materna, per imparare a porci a dubbio se un’immagine, per esempio, è reale o no. Il secondo, nella diffusione: l’intelligenza artificiale può aiutare a diffondere, ma anche a distinguere il vero dal falso. Aumenta la minaccia ma anche la capacità di contrastarla. Sono due aspetti che convivono».
Se dovesse immaginare la società tra 10 anni, quali saranno le conseguenze più rilevanti?
«È una domanda difficile. Non è molto lusinghiero per l’intelligenza artificiale, ma spesso uso il paragone dell’arrivo di PowerPoint. Quando è arrivato PowerPoint, abbiamo pensato: questo sostituirà il lavoro di tutte le persone che fanno presentazioni. Poi ci siamo resi conto che ha aumentato notevolmente la quantità di presentazioni PowerPoint e il numero di persone che creano presentazioni PowerPoint. C’è una democratizzazione della creazione. È un po’ come quando sono arrivate le macchine fotografiche sui telefoni. Il ruolo dei fotografi professionisti è ancora molto importante, ma tutti scattano foto. Allo stesso modo, l’organizzazione del lavoro cambierà molto. Non so esattamente in che direzione andrà, ma se eliminiamo le mansioni amministrative negli ospedali, in un certo numero di professioni, e può andare bene, significa che forse dovremo formare di più le persone all’interazione umana. E forse dobbiamo dire che non ci sono lavori migliori di altri, o più grandi o più piccoli, e incoraggiare le persone a spostarsi tra diversi tipi di lavoro nel corso della loro vita. Questo è un aspetto importante. Imparare a usare strumenti diversi e a fare cose diverse. Il vertice che stiamo organizzando a Parigi a febbraio giunge al momento opportuno per anticipare questi temi e garantire che l’evoluzione dell’IA sia inclusiva, al servizio dell’interesse generale».
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link