X

Les policiers commencent à utiliser des chatbots d’intelligence artificielle pour rédiger des rapports de crimes. Seront-ils efficaces devant les tribunaux ?

VILLE D’OKLAHOMA — Une caméra corporelle a capturé chaque mot et chaque aboiement prononcés pendant que le sergent de police Matt Gilmore et son chien K-9, Gunner, recherchaient un groupe de suspects pendant près d’une heure.

Normalement, le sergent de police d’Oklahoma City aurait pris son ordinateur portable et aurait passé 30 à 45 minutes supplémentaires à rédiger un rapport sur la recherche. Mais cette fois, il avait intelligence artificielle écrire le premier brouillon.

À partir de tous les sons et des conversations radio captés par le microphone attaché à la caméra corporelle de Gilbert, l’outil d’IA a produit un rapport en huit secondes.

« C’était un meilleur rapport que ce que j’aurais pu écrire, et il était précis à 100 %. Il était plus fluide », a déclaré Gilbert. Le rapport documentait même un fait qu’il ne se souvenait pas avoir entendu : la mention par un autre policier de la couleur de la voiture d’où les suspects s’étaient enfuis.

Le département de police d’Oklahoma City est l’un des rares à expérimenter des chatbots d’intelligence artificielle pour produire les premières versions des rapports d’incident. Les policiers qui l’ont essayé sont enthousiasmés par cette technologie qui permet de gagner du temps, tandis que certains procureurs, organismes de surveillance de la police et juristes s’inquiètent de la manière dont elle pourrait modifier un document fondamental du système de justice pénale qui joue un rôle dans la détermination des personnes poursuivies ou emprisonnées.

Construit avec la même technologie que ChatGPT et vendu par Axon, surtout connu pour avoir développé le Taser et comme le principal fournisseur américain de caméras corporelles, il pourrait devenir ce que Gilbert décrit comme un autre « changeur de jeu » pour le travail de la police.

« Ils deviennent policiers parce qu’ils veulent faire du travail de police, et passer la moitié de leur journée à saisir des données n’est qu’une partie fastidieuse du travail qu’ils détestent », a déclaré le fondateur et PDG d’Axon, Rick Smith, décrivant le nouveau produit d’IA – appelé Draft One – comme ayant la « réaction la plus positive » de tous les produits introduits par l’entreprise.

« Il y a certainement des inquiétudes », a ajouté M. Smith. Il a notamment déclaré que les procureurs de district qui poursuivent une affaire pénale veulent être sûrs que les policiers – et pas seulement un chatbot IA – sont responsables de la rédaction de leurs rapports, car ils peuvent être amenés à témoigner devant le tribunal de ce dont ils ont été témoins.

« Ils ne veulent jamais entendre à la barre un officier dire : « C’est l’IA qui a écrit ça, pas moi » », a déclaré Smith.

La technologie de l’IA n’est pas nouvelle pour les services de police, qui ont adopté des outils algorithmiques pour lire les plaques d’immatriculation, reconnaître les visages des suspects, détecter les bruits de coups de feu et prédire où les crimes pourraient se produire. Beaucoup de ces applications ont suscité des inquiétudes en matière de respect de la vie privée et de droits civils et les tentatives des législateurs Mais l’introduction des rapports de police générés par l’IA est si récente qu’il existe peu, voire aucune, de garde-fous pour encadrer leur utilisation.

Préoccupations concernant les préjugés et les discriminations raciales de la société s’intégrer dans la technologie de l’IA ne sont qu’une partie de ce que l’activiste communautaire d’Oklahoma City, Aurelius Francisco, trouve « profondément troublant » à propos du nouvel outil, dont il a entendu parler par l’Associated Press.

« Le fait que cette technologie soit utilisée par la même entreprise qui fournit les Tasers au département est suffisamment alarmant », a déclaré Francisco, cofondateur de la Fondation pour la libération des esprits à Oklahoma City.

Il a déclaré que l’automatisation de ces rapports « faciliterait la capacité de la police à harceler, surveiller et infliger des violences aux membres de la communauté. Tout en facilitant le travail des policiers, cela rend la vie des Noirs et des personnes de couleur plus difficile. »

Avant de tester l’outil à Oklahoma City, des responsables de la police l’ont montré aux procureurs locaux qui ont conseillé la prudence avant de l’utiliser dans des affaires criminelles à enjeux élevés. Pour l’instant, il n’est utilisé que pour les signalements d’incidents mineurs qui n’entraînent pas d’arrestation.

« Donc pas d’arrestations, pas de délits, pas de crimes violents », a déclaré le capitaine Jason Bussert de la police d’Oklahoma City, qui gère les technologies de l’information pour le département de 1 170 agents.

Ce n’est pas le cas dans une autre ville, Lafayette, dans l’Indiana, où le chef de la police Scott Galloway a déclaré à l’AP que tous ses agents peuvent utiliser Draft One sur n’importe quel type d’affaire et que cela a été « incroyablement populaire » depuis le début du projet pilote plus tôt cette année.

Ou à Fort Collins, dans le Colorado, où le sergent de police Robert Younger a déclaré que les officiers étaient libres de l’utiliser pour tout type de rapport, bien qu’ils aient découvert que cela ne fonctionnait pas bien lors des patrouilles dans le quartier des bars du centre-ville en raison d’une « quantité écrasante de bruit ».

En plus d’utiliser l’IA pour analyser et résumer l’enregistrement audio, Axon a expérimenté la vision par ordinateur pour résumer ce qui est « vu » dans les séquences vidéo, avant de se rendre rapidement compte que la technologie n’était pas prête.

« Étant donné toutes les sensibilités autour du maintien de l’ordre, autour de la race et des autres identités des personnes impliquées, c’est un domaine dans lequel je pense que nous allons devoir faire un vrai travail avant de l’introduire », a déclaré Smith, le PDG d’Axon, décrivant certaines des réponses testées comme n’étant pas « ouvertement racistes » mais insensibles à d’autres égards.

Ces expériences ont conduit Axon à se concentrer directement sur l’audio dans le produit dévoilé en avril lors de sa conférence annuelle d’entreprise destinée aux responsables de la police.

Cette technologie s’appuie sur le même modèle d’IA générative que celui utilisé par ChatGPT, développé par OpenAI, basé à San Francisco. OpenAI est un partenaire commercial proche de Microsoft, le fournisseur de cloud computing d’Axon.

« Nous utilisons la même technologie sous-jacente que ChatGPT, mais nous avons accès à plus de boutons et de cadrans qu’un véritable utilisateur de ChatGPT », a déclaré Noah Spitzer-Williams, qui gère les produits d’IA d’Axon. En baissant le « bouton de créativité », le modèle s’en tient aux faits afin qu’il « n’embellisse pas ou n’hallucine pas de la même manière que si vous utilisiez ChatGPT seul », a-t-il déclaré.

Axon ne précise pas combien de services de police utilisent cette technologie. Ce n’est pas le seul fournisseur, des startups comme Policereports.ai et Truleo proposent des produits similaires. Mais compte tenu des relations étroites d’Axon avec les services de police qui achètent ses Tasers et ses caméras corporelles, les experts et les responsables de la police s’attendent à ce que les rapports générés par l’IA deviennent plus omniprésents dans les mois et les années à venir.

Avant que cela ne se produise, le juriste Andrew Ferguson aimerait voir davantage de débats publics sur les avantages et les inconvénients potentiels de cette approche. D’une part, les grands modèles linguistiques derrière les chatbots d’IA ont tendance à inventer de fausses informations, ce qui pose un problème. connu sous le nom d’hallucination ce qui pourrait ajouter des faussetés convaincantes et difficiles à détecter dans un rapport de police.

« Je crains que l’automatisation et la facilité d’utilisation de la technologie n’incitent les policiers à être moins prudents dans leur façon d’écrire », a déclaré Ferguson, professeur de droit à l’American University, qui travaille sur ce qui devrait être le premier article de revue juridique sur cette technologie émergente.

Selon Ferguson, un rapport de police est important pour déterminer si les soupçons d’un policier « justifient la perte de liberté d’une personne ». C’est parfois le seul témoignage qu’un juge voit, en particulier pour les délits mineurs.

Les rapports de police générés par des humains présentent également des défauts, a déclaré Ferguson, mais la question de savoir lequel est le plus fiable reste ouverte.

Pour certains policiers qui l’ont essayé, cela a déjà changé leur façon de réagir à un crime signalé. Ils racontent ce qui se passe pour que la caméra capte mieux ce qu’ils voudraient mettre par écrit.

À mesure que la technologie progresse, Bussert s’attend à ce que les officiers deviennent « de plus en plus verbaux » pour décrire ce qui se trouve devant eux.

Après que Bussert ait chargé la vidéo d’un contrôle routier dans le système et appuyé sur un bouton, le programme a produit un rapport de style narratif dans un langage conversationnel qui comprenait les dates et les heures, tout comme un agent l’aurait tapé à partir de ses notes, le tout basé sur l’audio de la caméra corporelle.

« Cela n’a duré que quelques secondes », a déclaré Gilmore, « et cela a été fait au point où je me suis dit : « Je n’ai rien à changer ». »

À la fin du rapport, l’agent doit cliquer sur une case indiquant qu’il a été généré à l’aide de l’IA.

—————

O’Brien a fait son reportage depuis Providence, Rhode Island

—————

L’Associated Press et OpenAI ont un accord de licence et de technologie qui permet à OpenAI d’accéder à une partie des archives textuelles d’AP.

Lien source

Harold Fortier: