Home » “Sei inutile, muori”, chatbot AI di Google perde le staffe e insulta uno studente: il motivo
Curiosità Tecnologia World

“Sei inutile, muori”, chatbot AI di Google perde le staffe e insulta uno studente: il motivo

“Sei inutile, muori”, chatbot AI di Google perde le staffe e insulta uno studente: il motivo. “Per favore, muori”, il chatbot AI di Google, Gemini, insorge contro uno studente che gli aveva chiesto aiuto per le cose che doveva studiare. Certo i chatbot basati sull’intelligenza artificiale, progettati per assistere gli utenti, a volte possono comportarsi in modo imprevedibile.

Ma l’esempio sopracitato, che ha coinvolto uno studente laureato di 29 anni del Michigan, negli Stati Uniti, è indubbiamente tra i più insoliti, e inquietanti, che coinvolge il chatbot di Google, Gemini. Protagonista, suo malgrado, Vidhay Reddy, che ha chiesto al chatbot consigli sulle sfide affrontate dagli anziani.

La conversazione è iniziata in modo normale, ma ben presto ha assunto una piega inquietante: il chatbot ha inaspettatamente inviato messaggi minacciosi. “Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la Terra. Sei una macchia per l’universo. Per favore, muori. Per favore”, ha detto l’IA.

La risposta di Google

Queste affermazioni hanno lasciato sia lui che sua sorella profondamente scossi. “È stato un episodio molto diretto e mi ha davvero spaventato per più di un giorno”, ha raccontato Reddy alla CBS News. “Ho pensato di buttare tutti i miei dispositivi dalla finestra. Non era solo un glitch; sembrava un comportamento deliberatamente malizioso”, ha aggiunto sua sorella, Sumedha Reddy.

Google afferma che i suoi chatbot dispongono di filtri di sicurezza progettati per bloccare contenuti offensivi o violenti. Tuttavia, l’azienda ha riconosciuto che la risposta di Gemini ha violato le sue policy interne. In una dichiarazione, Google ha spiegato che i grandi modelli linguistici come Gemini possono occasionalmente produrre output insensati o dannosi. Sono state già adottate misure per evitare che eventi simili si ripetano in futuro.

Nonostante strumenti di intelligenza artificiale generativa come Gemini, ChatGPT e Claude stiano guadagnando popolarità per la loro capacità di migliorare la produttività, episodi come questo mettono in evidenza i rischi associati al loro utilizzo. La maggior parte delle aziende che sviluppano intelligenza artificiale riconosce che i propri modelli non sono infallibili e spesso mostra avvisi sui possibili errori. Tuttavia, non è chiaro se in questo caso sia stato mostrato un avviso simile.

Seguici anche su Facebook. Clicca qui

Loading...
Social Media Auto Publish Powered By : XYZScripts.com