Dans un renversement des politiques précédentes, le géant de la technologie permettra désormais d’utiliser la technologie pour développer des armes et des outils de surveillance
Google a considérablement révisé ses principes d’intelligence artificielle, supprimant les restrictions antérieures sur l’utilisation de la technologie pour développer des outils d’armes et de surveillance. La mise à jour, annoncée mardi, modifie la position antérieure de l’entreprise contre les applications qui pourraient provoquer «Un préjudice global.»
En 2018, Google a établi un ensemble de principes d’IA en réponse aux critiques concernant son implication dans les efforts militaires, tels qu’un projet du ministère de la Défense américain qui impliquait l’utilisation de l’IA pour traiter les données et identifier les objectifs des opérations de combat. Les directives originales ont explicitement indiqué que Google ne concevrait pas ou ne déploierait pas l’IA pour une utilisation dans des armes ou des technologies qui provoquent ou ne faciliteraient pas directement les blessures aux personnes, ou pour la surveillance qui viole les normes acceptées par le international.
La dernière version des principes d’IA de Google, cependant, a frotté ces points. Au lieu de cela, le PDG de Google Deepmind Demis Hassabis et un cadre supérieur pour la technologie et la société James Manyika ont publié une nouvelle liste des géants de la technologie «Tenants de base» concernant l’utilisation de l’IA. Il s’agit notamment de l’accent mis sur l’innovation et la collaboration et une déclaration qui «Les démocraties devraient conduire dans le développement de l’IA, guidé par des valeurs fondamentales comme la liberté, l’égalité et le respect des droits de l’homme.»
Margaret Mitchell, qui avait auparavant co-dirigé l’équipe éthique de l’IA de Google, a déclaré à Bloomberg que la suppression de la clause «dommage» pourrait suggérer que l’entreprise travaillera désormais sur «Le déploiement de la technologie directement qui peut tuer des gens.»
Selon le Washington Post, le géant de la technologie a collaboré avec l’armée israélienne depuis les premières semaines de la guerre de Gaza, en concurrence avec Amazon pour fournir des services d’intelligence artificielle. Peu de temps après l’attaque d’octobre 2023 contre Israël, la division du cloud de Google a travaillé pour accorder aux forces de la défense des Israël l’accès aux outils de l’IA, malgré les affirmations publiques de l’entreprise de limiter la participation aux ministères du gouvernement civil, le journal a rapporté le mois dernier, citant des documents internes.
L’inversion de Google de sa politique intervient au milieu des préoccupations continues concernant les dangers posés par l’IA à l’humanité. Geoffrey Hinton, une figure pionnière de l’IA et récipiendaire du prix Nobel de la physique 2024, a averti à la fin de l’année dernière que la technologie pourrait potentiellement conduire à l’extinction humaine au cours des trois prochaines décennies, une probabilité qu’il considère comme étant jusqu’à 20%.
Hinton a averti que les systèmes d’IA pourraient éventuellement dépasser l’intelligence humaine, échapper au contrôle humain et potentiellement causer un préjudice catastrophique à l’humanité. Il a exhorté des ressources importantes allouées à la sécurité de l’IA et à l’utilisation éthique de la technologie et que des mesures proactives soient développées.
Vous pouvez partager cette histoire sur les réseaux sociaux: