L’Italie interdit ChatGPT — RT World News

L’autorité italienne de protection des données exige que le créateur du chatbot, OpenAI, prenne des mesures ou encoure de lourdes amendes

L’organisme italien de surveillance de la protection des données a interdit l’accès au chatbot ChatGPT d’OpenAI en raison de violations présumées de la vie privée. La décision est intervenue après une violation de données le 20 mars qui a révélé les conversations des utilisateurs et les informations de paiement.

ChatGPT, qui a été lancé en novembre 2022, est devenu populaire pour sa capacité à écrire dans différents styles et langues, à créer des poèmes et même à écrire du code informatique.

Cependant, l’Autorité nationale italienne pour la protection des données personnelles a reproché au chatbot de ne pas fournir de notice d’information aux utilisateurs dont les données sont collectées par OpenAI. Le chien de garde a également contesté la « absence de base légale » qui justifierait la collecte et le stockage massif de données personnelles destinées à « former » les algorithmes qui exécutent la plate-forme.

Bien que le chatbot soit destiné aux personnes de plus de 13 ans, les autorités italiennes ont également reproché à OpenAI de ne pas avoir installé de filtres pour vérifier l’âge des utilisateurs, ce qui, selon elles, peut conduire à la présentation de réponses à des mineurs. « Absolument pas en accord avec leur niveau de développement. »

Le chien de garde exige maintenant qu’OpenAI « communiquer sous 20 jours les mesures prises » pour remédier à cette situation sous peine d’une amende pouvant aller jusqu’à 4 % de son chiffre d’affaires mondial annuel. La décision de bloquer le chatbot et de limiter temporairement le traitement des données des utilisateurs italiens via OpenAI a pris « effet immédiat, » a ajouté l’organisation.



Musk demande une pause à l'IA

Pendant ce temps, plus de 1 100 chercheurs en IA et éminents leaders technologiques, dont le PDG de Tesla Elon Musk et le co-fondateur d’Apple Steve Wozniak, ont signé une lettre ouverte exigeant un moratoire de six mois sur « Expériences géantes d’IA. »

Les signataires affirment que « Les systèmes d’IA dotés d’une intelligence compétitive humaine peuvent poser de graves risques pour la société et l’humanité” et que la technologie qui progresse rapidement devrait être « planifié et géré avec des soins et des ressources proportionnés. » Le groupe a fortement mis en garde contre l’autorisation d’un « une course incontrôlable pour développer et déployer des esprits numériques encore plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable. »

La lettre indique que si les développeurs d’IA ne peuvent pas se gouverner, les gouvernements doivent intervenir, en créant des organismes de réglementation capables de régner sur les systèmes incontrôlables, en finançant la recherche sur la sécurité et en atténuant le coup économique lorsque des systèmes super-intelligents commencent à prendre le contrôle des emplois humains.

Vous pouvez partager cette histoire sur les réseaux sociaux :