Castaldo, napoletano, cofondatore di IdentifAI, startup che svela gli inganni: «Qualsiasi settore è a rischio»
Cacciatori di fake news e documenti generati dall’intelligenza artificiale, ormai bounty killer necessari per districarsi in un mondo dove tutto può non essere reale. Basta smanettare un po’ sui social per rendersene conto. Il «Gaza resort» creato in questi giorni dall’AI con Trump e Netanyahu che prendono il sole in spiaggia insieme ne è l’ultimo esempio. Le aziende, soprattutto quelle più grandi, hanno sempre più necessità di difendersi da video e immagini che sembrano assolutamente vere ma che non sono reali. «Bisogna saperle analizzare con una tecnologia adeguata. Ora anche la voce è duplicabile, è la nuova frontiera della contraffazione AI», spiega Marco Castaldo, napoletano di Posillipo e cofondatore di IdentifAI, startup che ha sviluppato una piattaforma tecnologica innovativa basata sull’intelligenza artificiale «degenerativa», cioè in grado di riconoscere con un’elevata probabilità se un’immagine o un video siano «genuini». «De-generativa in questo caso non è una parola negativa, è la contrapposizione a generativa, cioè ciò che l’intelligenza artificiale può creare: scoprirlo è la nostra missione».
Chi è
Laureato in Economia e commercio alla Federico II, Marco Castaldo ha alle spalle una grande esperienza nel mondo della finanza e sa cosa oggi temono le aziende. «IdentifAI è nata da poco, nel luglio del 2024 ed ha già ottenuto a settembre i primi contratti. Ha una percentuale di verifica molto elevata, del 95%, una delle più alte al mondo».
Qual è il vostro lavoro, magari spieghiamolo con qualche esempio. «Il più semplice da fare è l’Onboarding Digitale delle banche. Anche un bambino di 10 anni può produrre con l’AI documenti falsi con tanto di foto. Controllare l’ingresso di nuovi clienti online che vogliono accedere a servizi e prodotti è di fondamentale importanza per gli istituti di credito».
E poi? «Le assicurazioni, ad esempio, si possono modificare le foto di un perito che valuta i danni di un incidente facendoli salire da cento a mille euro. Insomma i rischi sono tanti. Basti pensare che l’Fbi ha mappato già ventisei tipologie di frodi con l’intelligenza artificiale. L’utilizzo fraudolento può spingersi fino alla modifica del volto. Mettiamo ad esempio che un’azienda di cibersecurity abbia lavorato a un progetto per mesi. Arriva quello che tu pensi sia il tuo collega e online gli fornisci i documenti e i dati della ricerca. E invece è un’identità creata con l’AI. Anche questo è capitato. Le grandi aziende sono molto sensibili a questi rischi e qualcuna è tra i nostri clienti».
È vero che l’intelligenza artificiale può «fregare» anche le società di calcio? «Mandare osservatori in giro per il mondo costa e così arrivano video di presunti campioni in erba. Dribbling, rovesciate, tiri all’incrocio dei pali. Tutto bello ma tutto falso. La società prima di mandare sul posto un inviato vuole sapere se quel video è vero o creato con l’AI. E fanno bene, perché spesso sono campioni falsi».
E nel campo dell’informazione? Quella più colpita dalle fake… «Sì, la verifica di immagini e informazioni è determinante. Con grandi giornali stiamo portando avanti il progetto “Fight for truth”, abbiamo invitato una prima lista di giornalisti ad avere un accesso gratuito sulla piattaforma come nostro contributo alla lotta contro la falsificazione della realtà a scopi malevoli. Inoltre già grandi testate nazionali ed emittenti tv hanno contratti con IdentifAI. E siamo pronti a promuovere corsi perché sapere se una cosa è vera o falsa è un diritto di tutti i cittadini».
La nuova frontiera della falsificazione della voce è quella che allarma di più, perché è un fenomeno tecnologicamente nuovo. L’ultimo esempio, in ordine di tempo, è stata la truffa architettata da una banda che ha contattato e raggirato diversi imprenditori riproducendo al telefono la voce del ministro della Difesa Guido Crosetto. IdentifAi ha un modello di business preciso, che prevede di rivolgersi a due tipi di mercato: il B2B, vendendo cioè alle singole aziende la licenza per usare la tecnologia IdentifAI; oppure intervenendo direttamente laddove venga richiesto dalle imprese per operazioni più mirate. «In questo momento — continua Marco Castaldo — abbiamo un importante progetto con l’università di Bologna e la Federico II. Con Giorgio Ventre, eccellenza in questo campo, stiamo lavorando per aumentare la capacità tecnologica del riconoscimento di adulterazioni del volto. La nostra è una sfida che prevede un aggiornamento continuo perché l’intelligenza artificiale cresce perfezionandosi, i cacciatori di fake news devono crescere anche di più per difendere il diritto alla verità».
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link