YouTube sta ampliando l'accesso a uno strumento denominato "Rilevamento di somiglianze", introdotto per la prima volta in ottobre, progettato per identificare i deepfake: video falsi creati con l'intelligenza artificiale che utilizzano i volti di blogger famosi. Tuttavia, questo strumento richiede ai creatori di contenuti di fornire dati biometrici, il che ha sollevato serie preoccupazioni tra gli esperti.
La critica principale riguarda i termini di utilizzo dello strumento. Come riporta CNBC, gli esperti fanno riferimento alla "Politica sulla privacy di Google", dove si afferma che le informazioni pubblicamente disponibili, che possono includere dati biometrici, possono essere utilizzate per addestrare i modelli di intelligenza artificiale dell'azienda e sviluppare nuovi prodotti. Secondo gli specialisti, questo crea un rischio potenziale e incertezza per i creatori che trasmettono i propri dati biometrici univoci all'hosting video.
In risposta a una richiesta di CNBC, il portavoce ufficiale di YouTube, Jack Malon, ha dichiarato che le informazioni raccolte vengono utilizzate esclusivamente per identificare gli utenti e per il funzionamento di questo strumento. Ha sottolineato che l'azienda non ha mai utilizzato la biometria dei creatori per addestrare i propri algoritmi di intelligenza artificiale. YouTube ha anche comunicato di essere al lavoro per chiarire le formulazioni al fine di evitare malintesi, ma la politica di base in materia di dati non cambierà.
Il responsabile della direzione prodotti per editori di YouTube, Amjad Hanif, ha spiegato che lo strumento è stato sviluppato tenendo conto delle dimensioni colossali della piattaforma, dove ogni giorno viene pubblicata un'enorme quantità di contenuti. Si prevede che entro la fine di gennaio più di tre milioni di partecipanti al programma partner avranno accesso allo strumento. Allo stesso tempo, esperti di mercato come Dan Neely della società Vermillio, specializzata nella protezione dei diritti di immagine, consigliano agli autori di prestare attenzione. Sottolinea che nell'era dell'IA, l'immagine digitale sta diventando un asset chiave e la perdita di controllo su di essa potrebbe essere irreversibile. Allo stesso tempo, l'amministratore delegato di Loti, Luke Arrigoni, ha anche affermato di non raccomandare ai clienti di connettere questa funzione nella sua forma attuale, indicando gli elevati rischi potenziali.
La rilevanza del problema dei deepfake sta crescendo parallelamente allo sviluppo di tecnologie di generazione video, come il prodotto stesso di Google chiamato Veo 3, che, secondo CNBC, viene addestrato anche su materiale video di YouTube. Editori famosi, come il medico-blogger Mikhail Varshavski, noto come Doctor Mike, si imbattono già regolarmente in falsi in cui il suo aspetto viene utilizzato per pubblicizzare beni discutibili o disinformazione.
Attualmente, i creatori di contenuti non hanno la possibilità di monetizzare l'uso non autorizzato del proprio aspetto, a differenza delle opzioni di distribuzione delle entrate disponibili tramite il sistema Content ID di YouTube. Tuttavia, Hanif ha affermato che l'azienda sta valutando la possibilità di utilizzare un modello simile per i video creati con l'IA.
La preoccupazione principale risiede nel fatto che i dati biometrici, una volta forniti, potrebbero essere utilizzati da Google per l'addestramento dei suoi algoritmi di intelligenza artificiale, come specificato nella politica sulla privacy. Questo solleva interrogativi sull'effettivo controllo che i creatori avranno sui propri dati e su come questi verranno utilizzati in futuro. La promessa di YouTube di utilizzare i dati solo per l'identificazione e il funzionamento dello strumento non è sufficiente a placare i timori, soprattutto considerando la rapida evoluzione delle tecnologie di intelligenza artificiale e le potenziali applicazioni future dei dati biometrici.
Inoltre, la mancanza di un sistema di monetizzazione per l'uso non autorizzato del proprio aspetto nei deepfake rappresenta un ulteriore svantaggio per i creatori. Mentre YouTube sta valutando la possibilità di introdurre un modello simile al Content ID per i video generati dall'IA, è fondamentale che tale sistema sia efficace e garantisca una compensazione equa per i creatori il cui aspetto viene sfruttato.
La situazione attuale evidenzia la necessità di un approccio più trasparente e responsabile da parte delle piattaforme online nella gestione dei dati biometrici. È essenziale che i creatori di contenuti siano pienamente consapevoli dei rischi e delle implicazioni derivanti dalla condivisione dei propri dati, e che abbiano il controllo sulle modalità di utilizzo di tali dati. Inoltre, è necessario un quadro normativo chiaro che protegga i diritti di immagine e garantisca una compensazione adeguata per l'uso non autorizzato dell'aspetto di una persona nei deepfake.
In conclusione, mentre lo strumento anti-deepfake di YouTube rappresenta un passo avanti nella lotta contro la disinformazione e la protezione dei creatori, è fondamentale affrontare le preoccupazioni relative alla privacy e all'utilizzo dei dati biometrici. Solo attraverso un approccio trasparente, responsabile e orientato alla protezione dei diritti dei creatori sarà possibile sfruttare appieno il potenziale dell'intelligenza artificiale senza compromettere la privacy e la libertà individuale.
Prima di procedere


