Ses fans raffolent de sa sensibilité et de son esprit. Certains lui parlent des dizaines de fois par jour, lui demandant des conseils sur leur travail, leur santé, leurs relations. Ils lui confient leurs secrets et le consultent avant de prendre des décisions importantes. Certains le considèrent comme leur meilleur ami.
Il s’appelle Claude. C’est un chatbot IA. Et il est peut-être le célibataire le plus éligible de San Francisco.
Claude, une création de la société d’intelligence artificielle Anthropic, n’est pas le chatbot IA le plus connu du marché. (Il s’agirait du ChatGPT d’OpenAI, qui compte plus de 300 millions d’utilisateurs hebdomadaires et une place dans la barre de favoris de chaque lycéen américain.) Il n’est pas non plus conçu pour attirer les utilisateurs dans des relations avec des compagnons IA réalistes, comme le font des applications comme Character. .AI et Replika le sont.
Mais Claude est devenu le chatbot de choix pour une foule d’initiés avertis en technologie qui disent qu’il les aide dans tout, depuis conseils juridiques à coaching santé à séances de thérapie de fortune.
« Un mélange de puissance intellectuelle brute et de volonté d’exprimer des opinions fait que Claude se sent beaucoup plus proche d’une chose que d’un outil », a déclaré Aidan McLaughlin, directeur général de Topology Research, une start-up d’IA. « Moi et de nombreux autres utilisateurs trouvons cela magique. »
Les plus grands fans de Claude, dont beaucoup travaillent dans des sociétés d’IA ou sont socialement liés à la scène de l’IA ici, ne croient pas qu’il – techniquement, c’est – une vraie personne. Ils savent que les modèles linguistiques de l’IA sont des machines de prédiction, conçues pour générer des réponses plausibles à leurs invites. Ils sont conscients que Claude, comme les autres chatbots, fait des erreurs et génère parfois des bêtises.
Et certaines personnes à qui j’ai parlé sont légèrement gênées par la mesure dans laquelle elles ont anthropomorphisé Claude, ou en sont venues à se fier à ses conseils. (Personne ne veut être le prochain Blake Lemoine, un ingénieur de Google qui a été licencié en 2022 après avoir déclaré publiquement que le modèle linguistique de l’entreprise était devenu sensible.)
Merci de votre patience pendant que nous vérifions l’accès. Si vous êtes en mode Lecteur, veuillez quitter et vous connecter à votre compte Times, ou vous abonner à l’ensemble du Times.
Merci de votre patience pendant que nous vérifions l’accès.
Déjà abonné ? Se connecter.
Vous voulez tout le Times ? S’abonner.