Pubblicato anche un nuovo Rapporto sui rischi dell'intelligenza artificiale

OpenAI afferma di aver trovato prove che la start-up cinese di intelligenza artificiale DeepSeek ha utilizzato i modelli proprietari dell’azienda statunitense per addestrare il proprio concorrente open-source, mentre crescono le preoccupazioni per una potenziale violazione della proprietà intellettuale. Lo riporta il Financial Times.

Il produttore di ChatGPT con sede a San Francisco ha dichiarato al Financial Times di aver riscontrato alcune prove di “distillazione”, che sospetta provengano da DeepSeek. Questa tecnica viene utilizzata dagli sviluppatori per ottenere prestazioni migliori su modelli più piccoli utilizzando i risultati di modelli più grandi e più capaci, consentendo loro di ottenere risultati simili su compiti specifici a un costo molto inferiore. In precedenza, lo zar dell’IA e delle criptovalute del presidente Donald Trump, David Sacks, ha dichiarato che “è possibile” che si sia verificato un furto di proprietà intellettuale.

“C’è una tecnica nell’AI chiamata distillazione… quando un modello impara da un altro modello e in un certo senso succhia la conoscenza dal modello madre”, ha detto Sacks a Fox News martedì. “E ci sono prove sostanziali che ciò che DeepSeek ha fatto in questo caso è stato distillare la conoscenza dai modelli di OpenAI, e non credo che OpenAI sia molto felice di questo”, ha aggiunto Sacks, anche se non ha fornito prove.

Il nuovo Rapporto sui rischi dell’intelligenza artificiale

I sistemi avanzati di intelligenza artificiale sono potenzialmente in grado di creare nuovi rischi estremi, come la perdita di posti di lavoro, il terrorismo o il rischio di sfuggire al controllo. È quanto afferma un gruppo di esperti indipendenti nel Rapporto scientifico internazionale sulla sicurezza dell’AI avanzata, pubblicato in vista di un importante vertice sull’IA che si terrà a Parigi il mese prossimo, che per la prima volta nel suo genere, ha catalogato la gamma di pericoli posti dalla tecnologia.

Il documento è sostenuto da 30 Paesi, tra cui Stati Uniti e Cina, e segna una rara cooperazione tra i due Paesi in lotta per la supremazia dell’AI, evidenziata dalla startup cinese DeepSeek che questa settimana ha sbalordito il mondo con il suo chatbot economico, nonostante i controlli statunitensi sulle esportazioni di chip avanzati verso il Paese.

“Il rapporto è una ‘sintesi’ della ricerca esistente che intende aiutare a guidare i funzionari che lavorano alla stesura di guardrail per la tecnologia in rapida evoluzione”, ha detto Yoshua Bengio, un importante scienziato di AI che ha guidato lo studio.

“La posta in gioco è alta”, si legge nel rapporto, in cui si osserva che mentre qualche anno fa i migliori sistemi di AI riuscivano a malapena a sputare un paragrafo coerente, ora sono in grado di scrivere programmi per computer, generare immagini realistiche e tenere conversazioni prolungate. Mentre alcuni danni dell’AI sono già ampiamente noti, come i deepfake, le truffe e i risultati falsati, il rapporto afferma che “man mano che l’AI per scopi generali diventa più capace, emergono gradualmente prove di ulteriori rischi” e le tecniche di gestione del rischio sono solo agli inizi. Il rapporto giunge in concomitanza con gli avvertimenti sull’intelligenza artificiale lanciati questa settimana dal Vaticano e dal gruppo che sta dietro all’Orologio del Giorno del Giudizio. Il rapporto si concentra sull’Intelligenza Artificiale per scopi generici, caratterizzata da chatbot come ChatGPT di OpenAI, utilizzati per svolgere diversi tipi di compiti.

I rischi si dividono in tre categorie: uso malevolo, malfunzionamenti e rischi “sistemici” diffusi. 

© Copyright LaPresse - Riproduzione Riservata