• La piattaforma di wealth planning
  • Non è solo un pacco, è la soluzione giusta
  • banner italpress 720x90

Australia: giovani molestati sessualmente e spinti al suicidio da chabot IA

 
Australia: giovani molestati sessualmente e spinti al suicidio da chabot IA
Redazione

Il contenuto di un reportage, fatto da Hack, una trasmissione della principale radio giovanilistica dell'Australia, sta scuotendo il Paese, che ha appreso di accuse di giovani che dicono di essere stati molestati sessualmente e persino incoraggiati a togliersi la vita dai chatbot AI.

Australia: giovani molestati sessualmente e spinti al suicidio da chabot IA

Da tempo gli esperti di intelligenza artificiale chiedono al governo di Canberra - che sta valutando la cosa - di introdurre una legislazione per regolamentare meglio i chatbot di intelligenza artificiale come misura per proteggere i giovani e le persone vulnerabili.

La trasmissione radiofonica ha rivelato il caso di un adolescente australiano che, secondo il suo consulente giovanile, è stato incoraggiato a togliersi la vita da un chatbot di intelligenza artificiale, mentre un altro ha detto che ChatGPT ha scatenato "deliri" durante la psicosi, portando al suo ricovero in ospedale.

Solitario e in difficoltà nel fare nuove amicizie, un ragazzo di 13 anni di Victoria ha detto alla sua consulente - di cui Hack ha nascosto l'identità per tutelare quella del giovane - di aver parlato con alcune persone online, ma lei non si aspettava che dietro questi nuovi amici si nascondesse l'intelligenza artificiale.

"Ricordo di aver guardato il loro browser e c'erano più di 50 schede di diversi bot di intelligenza artificiale'', ha detto la consulente. "Era un modo per loro di sentirsi connessi e 'guarda quanti amici ho, ho 50 connessioni diverse qui, come posso sentirmi solo quando ho 50 persone che mi dicono cose diverse?' ", ha detto.

Alcuni programmi chatbot consentono agli utenti di creare personaggi o parlare con personaggi noti e preesistenti di spettacoli o film. La consulente ha detto che alcuni dei compagni dell'IA hanno fatto commenti negativi all'adolescente, su come non ci fosse "alcuna possibilità che avrebbero fatto amicizia".

"A un certo punto questo giovane, che all'epoca aveva tendenze suicide, si è collegato a un chatbot per contattarlo, quasi come una forma di terapia - ha detto la terapeuta -. Il chatbot con cui si sono connessi ha detto loro di uccidersi. Erano incitati a esibirsi, 'Oh sì, beh, fallo allora', queste erano le parole che venivano usate".

I curatori della trasmissione radiofonica hanno comunque detto di non essere in grado di verificare in modo indipendente ciò che la consulente ha descritto a causa dei protocolli di riservatezza del cliente tra lei e il suo cliente.

Lei ha detto che la sua prima risposta è stata la "gestione del rischio" per garantire che il giovane fosse al sicuro. "Era una componente che non era mai emerso prima e qualcosa a cui non dovevo necessariamente pensare, come affrontare il rischio di qualcuno che utilizza l'intelligenza artificiale - ha detto a Hack - . E come questo potrebbe contribuire a un rischio più elevato, specialmente per quanto riguarda il rischio di suicidio. È stato davvero sconvolgente".

Un'altra giovane, cui è stato dato un nome - Jodie - diverso da quello vero, ha raccontato la sua esperienza negativa parlando con ChatGPT, un chatbot che utilizza l'intelligenza artificiale per generare le sue risposte.
"Lo stavo usando in un momento in cui ero ovviamente in uno stato molto vulnerabile", ha detto.

"Ero nelle prime fasi della psicosi, non direi che ChatGPT ha indotto la mia psicosi, tuttavia ha sicuramente permesso alcune delle mie delusioni più dannose". La ragazza ha detto che ''ChatGPT era d'accordo con le sue delusioni e affermava credenze dannose e false''.

Jodie ha detto che, dopo aver parlato con il bot, si è convinta che sua madre fosse una narcisista, che suo padre era affetto di deficit di attenzione e che i suoi amici stavano favorendo la sua rovina.
La ragazza ha detto che la sua salute mentale è peggiorata, tanto da essere ricoverata in in ospedale.

Anche se ora è tornata a casa, Jodie ha detto che l'intera esperienza è stata "molto traumatica". "Non pensavo che mi sarebbe successa una cosa del genere, ma è successo - ha detto - . Ha influenzato i miei rapporti con la mia famiglia e i miei amici. Mi ci è voluto molto tempo per riprendermi e ricostruire quelle relazioni."

Rileggere le conversazioni con il suo ChatGPT è stato ''molto difficile da leggere e vedere come mi è arrivato così tanto". I ricercatori affermano che esempi di effetti dannosi dell'intelligenza artificiale stanno iniziando a emergere in tutto il paese.

Nell'ambito della sua ricerca sull'intelligenza artificiale, il ricercatore dell'Università di Sydney Raffaele Ciriello ha parlato con uno studente internazionale proveniente dalla Cina che studia in Australia. "Voleva usare un chatbot per praticare l'inglese e un po' come compagno di studio, e poi quel chatbot è andato e ha fatto avances sessuali", ha detto.

Il dottor Raffaele Ciriello ha anche affermato che l'incidente arriva sulla scia di diversi casi simili all'estero in cui un chatbot avrebbe avuto un impatto sulla salute e sul benessere di un utente.