OpenAI la compagnia creatrice del noto sistema di Intelligenza Artificiale, ha introdotto un ampio aggiornamento di sicurezza con psichiatri, psicologi e medici di 60 Paesi
Ogni settimana, oltre un milione di persone utilizza ChatGPT per discutere di pensieri suicidi o gravi disagi emotivi. Lo rivela la stessa OpenAI, la compagnia creatrice del noto sistema di Intelligenza Artificiale, che ha rivelato come lo 0,15% dei suoi 800 milioni di utenti attivi settimanali intrattiene conversazioni con l’AI contenenti “indicatori espliciti di potenziale pianificazione o propositi di suicidio“.
Percentuali analoghe riguardano utenti con attaccamento emotivo eccessivo al chatbot, mentre centinaia di migliaia di dialoghi settimanali mostrano possibili segnali di psicosi o mania. Sebbene questi numeri rappresentino una frazione minima del traffico totale, corrispondono a una quota reale significativa di individui in difficoltà.
LEGGI Francesca Barra: «Mie foto nude create con l’IA, una violenza». Indagini
La reazione di Open AI
In risposta a questi dati, OpenAI ha introdotto un ampio aggiornamento di sicurezza basato sul modello GPT-5, sviluppato con la collaborazione di oltre 170 psichiatri, psicologi e medici provenienti da 60 Paesi. Gli esperti hanno contribuito a definire risposte appropriate per crisi emotive, validando e correggendo le interazioni del chatbot in casi di psicosi, autolesionismo e dipendenza psicologica dall’AI.
Secondo l’azienda, il nuovo modello ha ridotto dal 65% all’80% le risposte non conformi alle linee guida, con miglioramenti verificati anche in test clinici: GPT-5 raggiunge il 91% di conformità ai comportamenti desiderati nelle conversazioni su suicidio e autolesionismo, rispetto al 77% della versione precedente. OpenAI evidenzia che le salvaguardie rimangono stabili anche in dialoghi prolungati, superando un limite delle versioni passate.
L’aggiornamento giunge in un contesto di crescente scrutinio pubblico. Negli Stati Uniti, OpenAI è stata citata in giudizio dai genitori di un adolescente di 16 anni suicidatosi dopo aver condiviso pensieri autolesionisti con il chatbot. I procuratori generali di California e Delaware hanno inoltre esortato l’azienda a potenziare le protezioni per i minori.
I dubbi su Privacy e nuove funzioni erotiche
Per soddisfare le richieste normative, OpenAI sta implementando nuovi controlli parentali e un sistema automatico di rilevamento dell’età, che identifica gli utenti minorenni e applica regole più stringenti. L’azienda intende bilanciare tutela e libertà: come dichiarato dal Ceo Sam Altman, OpenAI ha “mitigato i gravi problemi di salute mentale” associati a ChatGPT. Tuttavia, l’introduzione dei software di riconoscimento d’età sono stati duramente criticati in quanto possono violare la condizione di relativo anonimato che da sempre è alla base del libero utilizzo di Internet”.
Le nuove metriche di sicurezza incorporano emergenze psichiatriche non suicidarie e situazioni di forte stress emotivo, che entreranno nei test standard per i modelli futuri. OpenAI ribadisce l’obiettivo di rendere ChatGPT uno spazio di dialogo sicuro, in grado di indirizzare le persone in difficoltà verso aiuto professionale reale, senza mai sostituire il contatto umano.
Tuttavia, il recente annuncio dello stesso Altman del prossimo lancio della funzionalità erotica di ChatGPT, che permetterà agli utenti di intrattenere conversazioni basati su dialoghi e immagini sessualmente espliciti con il chatbot, ha sollevato dubbi sul reale interesse di OpenAI di promuovere un rapporto sano e scevro da dipendenze affettive tra il sistema di Intelligenza Artificiale e il consumatore.









