Vogliamo trasmettere all’intelligenza artificiale i nostri valori umani, ma non sempre ne siamo all’altezza, come si vede dai controlli di polizia alla frontiera tra Italia e Francia
Laura Turini
da Cannes
Il summit sull’intelligenza artificiale voluto dal presidente francese Emmanuel Macron, dopo Parigi ha avuto la sua appendice a Cannes dove il 13 e 14 Febbraio si è tenuto il WAICF, World Intelligence Cannes Festival, che ha riunito esperti da tutto il mondo e imprese innovative.
L’atmosfera che si respira è di grande entusiasmo. Ci sono molte aziende che presentano i propri prodotti che si basano sull’intelligenza artificiale, piattaforme, robot e ho potuto vedere fisicamente anche le famose Gpu (Graphics Processing Unit) di NVIDIA.
Ci sono anche diverse istituzioni. L’Italia partecipa tramite l’Ice, l’Istituto per il Commercio Estero, che oltre ad avere il proprio stand ha consentito, a proprie spese, ad una trentina di piccole aziende di esporre i loro prodotti, a dire il vero non particolarmente innovativi, almeno ad una prima impressione.
C’è anche il neonato AI4I, l’Artificial Institute of AI for Industry, una fondazione costituita circa un anno fa dal ministero delle Imprese e del Made in Italy, dal ministero dell’Economia e dal ministero dell’Università e della ricerca con lo scopo di sviluppare applicazioni di intelligenza artificiale orientate alle imprese.
Sempre a livello istituzionale è presente uno stand della regione Friuli Venezia Giulia, che si è presentata come il luogo ideale in cui poter sviluppare sistemi di intelligenza artificiale. Può sembrare molto, in realtà è molto poco.
In apertura, a parlare sono stati Clara Chappaz, Ministro francese per l’AI e la Digital Economy e Gilles Roth, ministro delle Finanze del Lussemburgo che hanno mostrato tutto l’ottimismo possibile in un contesto che è davvero difficile per l’Europa.
L’unica che ha qualche ragione per sorridere è probabilmente proprio la Francia.
Clara Chappaz ha detto chiaramente che la Francia è partita in anticipo, ha le infrastrutture e ha l’energia elettrica pulita, frutto delle sue centrali, per potere sostenere l’intelligenza artificiale. Ha anche le menti, in quanto investe da tempo nella ricerca e dal 2025 lancerà un piano formativo dalle scuole elementari per educare le persone, fin dall’infanzia, a interagire con la tecnologia e l’intelligenza artificiale, in modo da preparare le nuove generazioni alla sfida che le attende.
Clara Chappaz ha detto che la Francia non ha niente da temere, per poi estendere questo ottimismo all’Europa intera. Non è vero che siamo in ritardo, siamo “in corsa” come ha affermato più volte, siamo pronti, siamo al fianco delle grandi potenze.
La Francia è, tra i paesi europei, il più avanzato, per non dire l’unico a potere sperare di competere, ha il suo LLM, Mistral, che nel corso degli eventi è stato molto elogiato perché addestrato su dati interni e con una “mentalità” europea che lo renderebbe molto più affidabile dei colleghi statunitensi come ChatGPT, anche se, in realtà, dal punto di vista tecnico, non sembrerebbe funzionare così bene, ma gli altri Stati europei sono molto più indietro.
Nonostante un grande entusiasmo, mi è sembrato più preoccupato Giles Roth. È stato molto aperto e disponibile, ha visitato gli stand, ha parlato a lungo con chiunque gli si avvicinasse e ha affermato che il Lussemburgo ha tutte le competenze finanziarie per sostenere la crescita dell’AI, ma al tempo stesso ha ribadito più volte che lo sviluppo e l’integrazione dell’AI è indispensabile e non ritardabile e in questo appello si avvertiva tutta l’urgenza di porre fine ad un drammatico ritardo.
Da parte dell’Italia, nonostante la vicinanza geografica, nessun rappresentante delle istituzioni. Un’assenza che pesa, se si considera quanto, a parole, il nostro Stato dica di voler investire ed essere all’avanguardia in questo settore.
Ciò su cui, invece, l’Europa si sente all’avanguardia è il piano regolatorio, la tutela dei valori fondamentali e l’etica. In ogni occasione si è sottolineata l’importanza di regolamentare l’intelligenza artificiale, in modo da sviluppare sistemi che rispettino i nostri valori, non siano discriminatori, siano trasparenti.
Nel corso di un seminario Francesca Rossi, scienziata di fama mondiale, fellow and AI ethics global leader di IBM, ha sottolineato l’importanza dei codici etici, che non devono essere soltanto dichiarazioni di principio ma tradursi in atti pratici.
Ha detto che in IBM sono molto attenti a questo, hanno adottato sistemi di gestione del rischio e hanno policy interne molto rigide, che escludono la possibilità di stipulare accordi con chi non abbia una sensibilità analoga.
Ha dovuto però constatare che questo tipo di attenzione spesso non appartiene alle start up, che investono le loro energie per la crescita ma meno per questo tipo di cultura a cui non sono abituati ma, soprattutto, che non sempre possono permettersi.
È stata evidenziata da molti l’importanza di un’attenzione verso la privacy e il rispetto dei diritti dei cittadini, che devono sempre essere informati su come sono trattati i loro dati, sul tipo di risultato che possono ottenere utilizzando un sistema AI, ma che soprattutto devono avere la garanzia di un intervento umano nel processo decisionale finale, quando deve essere assunta una scelta che interferisce con la loro vita, come nel caso della selezione di personale, ha sottolineato Sarah Mathews, AI manager di Adecco.
Infine, ma è al primo posto, l’etica. Affermare di voler realizzare un’intelligenza artificiale etica ha poco senso, si è detto, perché quello che conta è ciò che c’è intorno all’AI, come viene usata, ed è ciò che ruota intorno all’AI che deve essere etico. Sono i valori di cui gli esseri che la usano si fanno promotori e sostenitori che fanno la differenza.
Da qui, nuovamente l’importanza delle regole, per evitare che l’intelligenza artificiale, di per sé neutra, possa essere utilizzata per fini non etici o in violazione dei diritti fondamentali, cosa che è espressamente vietata anche dall’AI ACT.
Così, mentre ascoltavo tutto questo, non ho potuto non pensare ai gendarmi armati che sono saliti, a due a due, a Mentone sui vagoni del treno appena partito da Ventimiglia, cercando con lo sguardo chi avesse una faccia scura.
A un signore seduto dietro di me hanno chiesto se avesse il passaporto, lui ha risposto che era un richiedente asilo e che stava andando a Nizza, lo hanno fatto scendere per controlli, se lo sono portato dietro e non è stato l’unico.
Mi sono vergognata pensando che non stavo subendo lo stesso trattamento solo perché avevo la pelle bianca e una fisionomia occidentale.
Un poliziotto che ha visto il mio terrore mi ha detto “Bonjour”, con un grande sorriso per rassicurarmi. Non ha capito che non avevo paura di lui, ma del mondo in cui sto vivendo. Mi sembrava di essere nella scena di film sulla deportazione degli ebrei, quando venivano ricercati nelle scuole, sui posti di lavoro, ed è sempre la stessa storia.
Se questa è l’etica e l’umanità che vogliamo insegnare all’intelligenza artificiale, forse una riflessione sui diritti fondamentali dell’uomo sarebbe quanto mai opportuna e urgente.
A grande richiesta tornano i seminari digitali dello Spykman Center diretto dalla firma geopolitica di Appunti Manlio Graziano. Dopo la serie sulle elezioni americane, ecco tre eventi dedicati alla crisi di un ordine mondiale, e alla possibilità che ne emerga un altro.
Potete registrarvi a questo link entro il 12 febbraio.
Se vuoi sostenere Appunti, uno spazio di informazione e di analisi libero che si regge su lettrici e lettori, il modo migliore è regalare un abbonamento a qualcuno a cui tieni
L’Institute for European Policymaking della Bocconi è il think tank fondato da Mario Monti con il quale collaboro, che vuole portare la ricerca accademica nel dibattito europeo.
IEP@BU adesso è su Substack, potete iscrivervi qui sotto:
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link