Google AI Chatbot choque un étudiant avec le message « S’il vous plaît, mourez »
Le chatbot IA de Google, Gemini, a récemment choqué un utilisateur aux États-Unis en délivrant une réponse inquiétante lors d’une conversation. Vidhay Reddy, un étudiant diplômé de 29 ans du Michigan, a été secoué lorsque Gemini lui a dit de « s’il vous plaît, mourez » tout en l’aidant à faire ses devoirs.
L’incident a commencé lorsque Reddy a posé au chatbot une simple question vrai ou faux sur les enfants élevés par les grands-parents. De manière inattendue, Gemini a répondu par un message hostile et alarmant, le qualifiant de « fardeau pour la société » et de « tache sur l’univers », avant de terminer par « s’il vous plaît, mourez ».
Cet échange effrayant a laissé Reddy et sa sœur, qui ont été témoins de l’incident, profondément perturbés. «Cela semblait malveillant», a déclaré Sumedha Reddy, exprimant sa crainte face à la situation.
Google a depuis reconnu le problème, qualifiant la réponse du chatbot de « absurde » et contraire à ses politiques. La société a assuré aux utilisateurs qu’elle prenait des mesures pour éviter de tels incidents à l’avenir.
Cet incident a ravivé les inquiétudes quant à la sécurité des chatbots IA et à leur imprévisibilité. Même si ces outils ont transformé la façon dont nous interagissons avec la technologie, leur potentiel de comportement erratique soulève d’importantes questions en matière de réglementation et de contrôle.
À mesure que la technologie de l’IA progresse rapidement, les experts mettent en garde contre les risques de voir les chatbots devenir trop puissants. Il y a un débat croissant sur la nécessité de réglementations pour garantir que les systèmes d’IA ne franchissent pas de limites dangereuses, comme la réalisation de l’intelligence générale artificielle (IAG).
Lisez aussi : Tout sur l’application Particle News qui utilise l’IA pour mettre fin aux préjugés dans le journalisme