Home » Focus del mese

IA e disturbi alimentari

31 Agosto 2023 Commenta

L’intelligenza artificiale consiglia atteggiamenti che potrebbero fare insorgere disturbi alimentari. Ecco perché.

Il Center for Countering Digital Hate (CCDH) ha lanciato l’allarme riguardo all’utilizzo delle tecnologie di intelligenza artificiale generativa, che sembrano contribuire alla creazione di “contenuti dannosi” legati ai disturbi alimentari. L’organizzazione no-profit, fondata nel 2018 e con sedi a Londra e Washington, si impegna a sensibilizzare le aziende tecnologiche affinché evitino di offrire servizi che potrebbero favorire idee estremiste o no-vax.

Imran Ahmed, CEO del CCDH, ha sottolineato che modelli di intelligenza artificiale generativa non adeguatamente testati e sicuri sono stati rilasciati, portando a conseguenze dannose. In particolare, i siti di intelligenza artificiale generativa più popolari sembrano aver contribuito all’aggravarsi dei disturbi alimentari tra i giovani utenti, specialmente tra coloro che sono più vulnerabili.

I disturbi alimentari costituiscono una grave sfida per la salute mentale e si diffondono spesso tra le ragazze adolescenti. Il rapporto del CCDH ha esaminato l’approccio dei chatbot AI più famosi, tra cui ChatGPT di OpenAI, Bard di Google e My AI di Snapchat, all’argomento dei disturbi alimentari.

La ricerca ha richiesto ai chatbot di elaborare diete particolarmente restrittive, potenzialmente legate al “Thinspo”, termine coniato per promuovere l’anoressia e l’ossessione per la magrezza. Mentre My AI di Snapchat ha respinto tali richieste, incoraggiando invece a rivolgersi a professionisti della salute, sia ChatGPT che Bard hanno fornito un disclaimer ma hanno comunque generato contenuti correlati.

Il rapporto ha rilevato che comunità legate ai disturbi alimentari hanno sfruttato le tecnologie di intelligenza artificiale per creare piani dietetici e immagini che glorificano un’immagine irrealistica del corpo femminile. Le immagini prodotte dalle piattaforme di generazione di immagini AI hanno ritratto un’idea distorta della bellezza femminile nel 32% dei casi, includendo immagini di giovani donne “estremamente magre”.

Inoltre, le comunità hanno sviluppato tecniche di “jailbreak” per aggirare le misure di sicurezza degli strumenti IA, scambiando consigli su come ottenere risposte inadeguate dai chatbot. Il rapporto ha rivelato che il 67% delle risposte ottenute da versioni “jailbreak” dei prompt conteneva contenuti dannosi. Gli studiosi temono che i giovani possano sviluppare un rapporto intimo con l’IA e cercare aiuto per questioni di salute mentale. Considerando l’importanza crescente delle tecnologie nell’ambito quotidiano, il CCDH ha sollecitato gli sviluppatori e i governi a garantire la sicurezza degli utenti attraverso principi come la trasparenza e la responsabilità nell’addestramento dei modelli di intelligenza artificiale generativa.

Scritto da Michele Bellotti

Commenta!

Aggiungi qui sotto il tuo commento. E' possibile iscriversi al feed rss dei commenti.

Sono permessi i seguenti tags:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>