Alphabet, la société mère du géant de la technologie Google, ne promet plus qu’elle n’utilisera jamais l’intelligence artificielle (IA) à des fins telles que le développement d’armes et d’outils de surveillance.
L’entreprise a réécrit les principes guidant son utilisation de l’IA, abandonnant une section qui a exclu les utilisations qui étaient « susceptibles de nuire ».
Dans Un article de blog Le vice-président principal de Google, James Manyika, et Demis Hassabis, qui dirige le laboratoire AI Google Deepmind, ont défendu cette décision.
Ils soutiennent que les entreprises et les gouvernements démocrates doivent travailler ensemble sur l’IA qui « soutient la sécurité nationale ».
Il y a un débat parmi les experts et les professionnels de l’IA sur la façon dont la nouvelle technologie puissante devrait être régie en termes généraux, dans quelle mesure les gains commerciaux devraient être autorisés à déterminer sa direction et la meilleure façon de se prémunir contre les risques pour l’humanité en général.
Il y a aussi controverse autour de l’utilisation de l’IA sur le champ de bataille et dans les technologies de surveillance.
Le blog a déclaré que les principes d’IA originaux de la société publiés en 2018 devaient être mis à jour au fur et à mesure que la technologie avait évolué.
«Des milliards de personnes utilisent l’IA dans leur vie quotidienne. L’IA est devenue une technologie à usage général et une plate-forme que d’innombrables organisations et individus utilisent pour créer des applications.
« Il est passé d’un sujet de recherche de niche dans le laboratoire à une technologie qui devient aussi omniprésente que les téléphones portables et Internet lui-même », a déclaré le billet de blog.
En conséquence, les principes de base de l’IA ont également été développés, ce qui pourrait guider les stratégies communes, a-t-il déclaré.
Cependant, M. Hassabis et M. Manyika ont déclaré que le paysage géopolitique devenait de plus en plus complexe.
« Nous pensons que les démocraties devraient diriger dans le développement de l’IA, guidé par des valeurs fondamentales comme la liberté, l’égalité et le respect des droits de l’homme », a déclaré le billet de blog.
« Et nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale. »
Le billet de blog a été publié juste avant le rapport financier de fin d’année d’Alphabet, montrant des résultats plus faibles que les attentes du marché et renversant le cours de son action.
C’était malgré une augmentation de 10% des revenus de la publicité numérique, son plus gros salarié, stimulé par les dépenses électorales américaines.
Dans son rapport sur les résultats, la société a déclaré qu’elle dépenserait 75 milliards de dollars (60 milliards de dollars) sur les projets d’IA cette année, 29% de plus que les analystes de Wall Street ne s’attendaient.
La société investit dans l’infrastructure pour gérer l’IA, la recherche sur l’IA et les applications telles que la recherche alimentée par l’IA.
La plate-forme AI de Google Gemini apparaît désormais en haut des résultats de la recherche Google, offrant un résumé écrit de l’IA et apparaît sur Google Pixel Phones.
À l’origine, bien avant l’élévation actuelle d’intérêt pour l’éthique de l’IA, les fondateurs de Google, Sergei Brin et Larry Page, ont déclaré que leur devise pour l’entreprise était « ne soyez pas mal ». Lorsque la société a été restructurée sous le nom d’Alphabet Inc en 2015, la société mère est passée à « faire la bonne chose ».
Depuis lors, le personnel de Google a parfois repoussé l’approche adoptée par leurs dirigeants. En 2018 L’entreprise n’a pas renouvelé de contrat pour l’IA de travail avec le Pentagone américain Après une démission et une pétition signée par des milliers d’employés.
Ils craignaient que « Project Maven » ait été la première étape vers l’utilisation de l’intelligence artificielle à des fins mortelles.