Le autorità centrali cinesi hanno proposto nuove e severe norme per l'intelligenza artificiale (IA) per garantire la tutela dei minori e impedire che i chatbot offrano consigli che potrebbero indurre all'autolesionismo o alla violenza.
In base alle normative previste, gli sviluppatori dovranno anche garantire che i loro modelli di intelligenza artificiale non generino contenuti che promuovano il gioco d'azzardo.
Per proteggere i bambini, la Cina decide nuove regole per le aziende di IA
L'annuncio arriva dopo l'impennata del numero di chatbot lanciati in Cina e nel resto del mondo.
Una volta finalizzate, le norme si applicheranno ai prodotti e ai servizi di intelligenza artificiale in Cina, segnando un passo importante verso la regolamentazione di questa tecnologia in rapida crescita, che quest'anno è stata oggetto di un attento esame per questioni di sicurezza.
La bozza di regolamento , pubblicata dalla Cyberspace Administration of China (CAC), include misure per la protezione dei minori. Tra queste, l'obbligo per le aziende di intelligenza artificiale di offrire impostazioni personalizzate, di stabilire limiti di tempo per l'utilizzo e di ottenere il consenso dei tutori prima di fornire servizi di assistenza emotiva.
L'amministrazione ha affermato che gli operatori di chatbot devono far sì che un essere umano prenda in carico qualsiasi conversazione relativa al suicidio o all'autolesionismo e informi immediatamente il tutore dell'utente o un contatto di emergenza.
I fornitori di intelligenza artificiale devono garantire che i loro servizi non generino o condividano "contenuti che mettano a repentaglio la sicurezza nazionale, danneggino l'onore e gli interessi nazionali [o] minino l'unità nazionale", si legge nella dichiarazione.
Il CAC ha affermato di incoraggiare l'adozione dell'intelligenza artificiale, ad esempio per promuovere la cultura locale e creare strumenti di compagnia per gli anziani, a condizione che la tecnologia sia sicura e affidabile. Ha inoltre chiesto il feedback del pubblico. Quest'anno, la società cinese di intelligenza artificiale DeepSeek ha fatto notizia in tutto il mondo dopo aver raggiunto il primo posto nelle classifiche di download delle app.
Questo mese, due startup cinesi, Z.ai e Minimax, che insieme contano decine di milioni di utenti, hanno annunciato l'intenzione di quotarsi in borsa. Questa tecnologia ha rapidamente guadagnato un numero enorme di abbonati, alcuni dei quali la utilizzano per compagnia o terapia. Negli ultimi mesi l'impatto dell'intelligenza artificiale sul comportamento umano è stato oggetto di un esame più approfondito.
Sam Altman, a capo di OpenAI, azienda produttrice di ChatGPT, ha affermato quest'anno che il modo in cui i chatbot rispondono alle conversazioni relative all'autolesionismo è uno dei problemi più difficili dell'azienda.
Ad agosto, una famiglia in California ha fatto causa a OpenAI per la morte del figlio sedicenne , sostenendo che ChatGPT lo avesse incoraggiato a togliersi la vita. La causa ha segnato la prima azione legale che accusa OpenAI di omicidio colposo.
Questo mese, l'azienda ha pubblicato un annuncio per la ricerca di un "responsabile della preparazione" che sarà responsabile della difesa contro i rischi derivanti dai modelli di intelligenza artificiale per la salute mentale umana e la sicurezza informatica.
Il candidato ideale sarà responsabile del monitoraggio dei rischi dell'intelligenza artificiale che potrebbero rappresentare un danno per le persone. Altman ha affermato : "Sarà un lavoro stressante e ti ritroverai a tuffarti subito in questa nuova sfida".