Nuova pericolosa insidia che sfrutta l’intelligenza artificiale

Roma – Una nuova insidia informatica si va sempre più diffondendo: è il deep fake, una tecnica che sfrutta l’intelligenza artificiale per sovrapporre il volto di una persona ad un’altra ripresa in un video, che «può essere usato per tanti scopi criminali gravissimi, nel mondo politico ma anche finanziario» come riferito da Nunzia Ciardi, direttrice del servizio Polizia Postale e delle Comunicazioni, intervenendo a Roma alla conferenza sul tema «La minaccia del deep fake», promossa da Videocittà. Come riportato dalla stessa Ciardi «le aziende negli ultimi anni sono ormai preda di truffe informatiche sempre più sofisticate e, in alcuni casi, persino milionarie, portate avanti usando il social engineering, ad esempio con email che sembrano inviate dall’amministratore delegato dell’impresa». E’ quindi chiaro che il pericolo a questo punto è che «con il deep fake, si potrebbe arrivare perfino a simulare una videoconferenza di un alto esponente». Ad oggi il 96% del deep fake si concentra nel mondo del porno, ma i rischi di questa tecnica non vanno sottovalutati secondo il capo della Polizia Postale, che anzi aggiunge come «siamo ormai abituati a chattare con persone a cui attribuiamo l’immagine che vediamo in una foto, rischiando di incappare, ad esempio, in una truffa sentimentale. Attribuiamo credibilità alle immagini che vediamo, mala tecnologia riesce ingannare i nostri sensi, e il deep fake è un’evoluzione che rende ancora più deflagrante questo impatto». Proprio per questa ragione la Ciardi invita a «rendere sufficientemente sicuro l’ecosistema digitale, e ciò spetta alle istituzioni, alle grandi aziende e alle forze come la PolPost, ma è necessario che anche il singolo cittadino sia culturalmente attrezzato e preparato».