La richiesta della Commissione europea vale anche per Bing, Google Search, TikTok e altre piattaforme
La Commissione europea ha inviato formalmente richieste di informazioni ai sensi del Digital Services Act (DSA) a Bing e Google Search, oltre a Facebook, Instagram, Snapchat, TikTok, YouTube e X, per chiedere delucidazioni sui deepfake. La Commissione chiede a questi servizi di fornire maggiori informazioni sulle rispettive misure di attenuazione dei rischi legati all’IA generativa, come le cosiddette “allucinazioni” in cui l’IA fornisce informazioni false, la diffusione virale di deepfake e la manipolazione automatizzata dei servizi che possono ingannare gli elettori.
La Commissione richiede inoltre informazioni e documenti interni sulle valutazioni dei rischi e sulle misure di mitigazione legati all’impatto dell’IA generativa sui processi elettorali, diffusione di contenuti illegali, tutela dei diritti fondamentali, violenza di genere, tutela dei minori, benessere mentale , protezione dei dati personali, tutela dei consumatori e proprietà intellettuale. Le domande riguardano sia la diffusione che la creazione di contenuti di intelligenza artificiale generativa.
Le società interessate dovranno fornire alla Commissione le informazioni richieste entro il 5 aprile 2024 per le questioni relative alla tutela delle elezioni ed entro il 26 aprile 2024 per le restanti questioni – dice la Commissione.
Una richiesta di informazioni è un atto investigativo che non pregiudica eventuali ulteriori passi che la Commissione può o meno decidere di intraprendere. Sulla base della valutazione delle risposte, la Commissione valuterà le fasi successive. Ai sensi dell’articolo 74, paragrafo 2, della DSA, la Commissione può imporre sanzioni per informazioni errate, incomplete o fuorvianti in risposta a una richiesta di informazioni. In caso di mancata risposta da parte dei VLOP e dei VLOSE, la Commissione può decidere di richiedere le informazioni mediante decisione. In tal caso, la mancata risposta entro il termine potrebbe comportare l’irrogazione di penalità di mora.L’intelligenza artificiale generativa è anche uno dei rischi individuati dalla Commissione nella sua bozza di orientamenti sull’integrità dei processi elettorali. Il loro scopo è fornire ai VLOP e ai VLOSE le migliori pratiche ed esempi di potenziali misure di mitigazione dei rischi legati alle elezioni, comprese misure specifiche legate all’intelligenza artificiale generativa.
© Copyright LaPresse - Riproduzione Riservata