🧮CRYPTOMAP 🧮STOCKMAP 🔍SUPERSEARCH
Menu Laterale Completo
× 📱 DOWNLOAD APP OUR SERVICE

⭕️COME INDIVIDUARE UN DEEPFAKE

⭕️COME INDIVIDUARE UN DEEPFAKE

Giorno: 05 marzo 2024 | Ora: 15:00 Il Super Martedì si avvicina negli Stati Uniti in vista delle elezioni presidenziali del 2024 e la capacità di individuare deepfake generati da intelligenza artificiale sarà fondamentale per gli elettori che cercano di rimanere accurati e aggiornati. Secondo i dati di SumSub, nel 2023 c'è stato un aumento del 1.740% di deepfake in Nord America. Gli esperti consigliano di prestare attenzione a segni come movimenti innaturali delle mani o delle labbra, sfondi artificiali, movimenti irregolari e differenze nell'illuminazione. È necessario verificare le fonti delle informazioni e le piattaforme dei social media dovrebbero adottare tecnologie di rilevamento dei deepfake per garantire l'autenticità dei contenuti. I governi di diversi paesi stanno prendendo misure per contrastare il fenomeno dei deepfake, con l'India che ha richiesto l'approvazione per l'uso pubblico di strumenti di intelligenza artificiale "non affidabili" in vista delle elezioni del 2024.

I VOTANTI POSSONO INDIVIDUARE I DEEPFAKE GENERATI DA IA PRIMA DELLE ELEZIONI PRESidenziali DEL 2024?

Sta per arrivare il Super Martedì negli Stati Uniti, in vista delle elezioni presidenziali del 2024, e la capacità di individuare i deepfake generati da intelligenza artificiale sarà fondamentale per gli elettori che vogliono rimanere accurati e aggiornati.

COME INDIVIDUARE UN DEEPFAKE

Secondo l'esperto di intelligenza artificiale Pavel Goldman Kalaydin, ci sono diversi segnali che possono indicare la presenza di un deepfake, come movimenti innaturali delle mani o delle labbra, sfondi artificiali, movimenti irregolari, variazioni nell'illuminazione, differenze nel tono della pelle, modelli di sbadiglio insoliti, scarsa sincronizzazione dei movimenti delle labbra con il discorso o artefatti digitali.

LA GENERAZIONE, LA DISTRIBUZIONE E LA SOLUZIONE DEI DEEPFAKE

Kalaydin spiega che il vero problema risiede nella generazione dei deepfake e nella loro successiva distribuzione. L'accessibilità dell'IA ha aperto la porta delle opportunità per molti, ma è anche la causa dell'aumento dei contenuti falsi. La mancanza di regolamenti e politiche legali chiare rende poi più facile diffondere tali disinformazioni online. Kalaydin suggerisce che le piattaforme di social media dovrebbero effettuare controlli obbligatori sui contenuti generati da IA o deepfake per informare gli utenti e che potrebbe essere utile introdurre la verifica degli utenti, in cui gli utenti verificati si assumerebbero la responsabilità dell'autenticità dei contenuti visivi, mentre gli utenti non verificati sarebbero distintamente contrassegnati, invitando gli altri a essere cauti nel fidarsi dei contenuti.

LE MISURE ADOTTATE A LIVELLO GOVERNATIVO

Per far fronte a questa situazione, alcuni governi stanno prendendo in considerazione misure sufficienti. L'India ha pubblicato un avviso alle aziende tecnologiche locali in cui si richiede l'approvazione prima di rilasciare nuovi strumenti AI "non affidabili" per l'uso pubblico in vista delle proprie elezioni del 2024. In Europa, la Commissione europea ha creato linee guida sulle disinformazioni dell'IA per le piattaforme che operano nell'area, alla luce dei numerosi cicli elettorali dei paesi della regione. Poco dopo, Meta, la società madre di Facebook e Instagram, ha presentato la propria strategia per l'UE per combattere l'abuso di IA generativa nei contenuti sulle sue piattaforme.

cee54faf-bb59-497a-8285-851457d83880.jpg

Source : https://cointelegraph.com/news/voters-spot-ai-deepfakes-presidential-elections