Milano, 8 gennaio 2026 – Sempre di più gli strumenti di intelligenza artificiale (AI) consentono di riprodurre in videoconferenza la voce e le sembianze di un partecipante, rendendo possibili frodi, atti di spionaggio, sabotaggio e malversazioni di ogni tipo. È un pericolo reale, in grado di compromettere le funzionalità aziendali, interferire con le attività delle istituzioni o persino di minare la sovranità nazionale, che negli ultimi dodici mesi ha colpito non poche realtà.
CONTRASTARE I DEEPFAKE
Dai risultati di un’analisi recentemente condotta da Gartner, multinazionale impegnata in consulenza strategica, ricerca di mercato e analisi nel campo della tecnologia informatica, è emerso che in questo periodo infatti il 29% dei responsabili aziendali della cybersicurezza ha rivelato che le proprie organizzazioni hanno subito attacchi alle applicazioni di AI generativa, mentre il 62% di esse è stata oggetto di attacchi compiuti tramite deepfake condotti con lo sfruttamento di social engeneering o processi di sfruttamento automatizzati. IdentifAI, start up italiana fondata da Marco Ramilli e Marco Castaldo che ha sviluppato una piattaforma tecnologica innovativa basata sull’intelligenza artificiale «degenerativa», un prodotto capace di verificare gli ambienti più classici di videoconferenza (Zoom, Google Meet e Microsoft Team) al fine di individuare potenziali deepfake. Si tratta dell’IdentifAI Agent, in grado di sfruttare i modelli di machine learning per analizzare stream video, individuando in tempo reale ogni tipo di manipolazione digitale.

Marco Ramilli
COME FUNZIONA IDENTIFAI AGENT
Per operare l’Agent deve essere invitato in qualità di partecipante a tutti gli effetti, esso in brevissimo tempo emette un responso ed esce dalla call, variabile quest’ultima che tiene conto del numero di coloro che presenziano da remoto alla conversazione. Al termine, il responso sulla presenza o meno di deepfake, sarà visibile a tutti e, in caso di risposta affermativa, l’organizzatore riceverà un messaggio di posta elettronica (e-mail) recante le istruzioni da seguire: escludere il partecipante deepfake e chiamare telefonicamente chi è stato artificialmente impersonato per sincerarsi della sua effettiva partecipazione ed eventualmente riammetterlo; inoltre, per maggior certezza che non si tratti di un errore nel responso, l’organizzatore sarà chiamato a compiere alcune semplici procedure per attestarne l’autenticità del partecipante, chiedendogli di compiere azioni difficilmente riproducibili da modelli di deepfake (come girare il volto di profilo o coordinare gestualità manuale e sguardo) o, in caso di deepfake audio, di rispondere a domande inaspettate o fuori contesto per rivelare sfumature innaturali del tono di voce.
UOMO O MACCHINA?
I manager e le organizzazioni che adotteranno tempestivamente queste tecnologie, ovvero un proprio agente in difesa, migliorando la propria postura di sicurezza, dimostreranno anche un livello avanzato di maturità tecnologica. «La nostra tecnologia – sostiene Marco Ramilli, founder di IdentifAI – verifica in tempo reale l’autenticità dei partecipanti a una videoconferenza e segnala tentativi di impersonificazione digitale. Nel prossimo futuro questo tipo di verifica diventerà uno standard di mercato, proprio come è avvenuto per le firme digitali. Chi sceglie di adottare questa soluzione per primo ha l’opportunità di dimostrare leadership, tutelare i propri clienti e distinguersi rispetto alla concorrenza». IdentifAI è una start up italiana che ha sviluppato una piattaforma tecnologica innovativa basata sull’intelligenza artificiale degenerativa, in grado di riconoscere con un’elevata probabilità se un’immagine o un video siano stati prodotti da una IA generativa oppure da un essere umano al fine di rendere l’utilizzatore consapevole di ciò che sta osservando.
INTELLIGENZA ARTIFICIALE DEGENERATIVA
Attraverso soluzioni proattive e tecnologie avanzate di IA, IdentifAI promuove l’integrità dell’espressione creativa e offre strumenti per apprezzare i contributi unici sia umani sia artificiali; inoltre è progettato come uno strumento per supportare la sicurezza digitale e combattere la disinformazione attraverso la verifica delle immagini. IdentifAI, a luglio 2025, aveva annunciato un round di raccolta di capitali da 5 milioni di euro guidato da United Ventures, gestore di venture capital focalizzato negli investimenti in startup tecnologiche. Questo investimento è giunto a meno di un anno dal precedente investimento da 2,2 milioni di euro a testimonianza di un impegno condiviso per sviluppare tecnologie di contrasto all’uso malevolo dei deepfake e promuovere un ambiente informativo trasparente e sicuro.



