L’IA peut contribuer à rendre le travail des policiers plus efficace, mais peut également être source de gros problèmes juridiques, selon les experts
Les services de police de tout le pays commencent à utiliser l’intelligence artificielle pour les aider à remplir leurs formalités administratives.
L’IA peut aider les agents à gagner du temps dans la rédaction de leurs rapports et à rendre leur travail plus efficace. Presse associéerapports électroniques.
Mais les experts mettent en garde contre les dangers potentiels liés à l’exploitation des nouvelles technologies, qui peuvent introduire des erreurs graves, parfois mortelles, dans les rapports, favoriser les préjugés et le racisme et divulguer des informations privées. Politique rapports.
Selon son site Web, un nouveau produit d’IA proposé par la société technologique Axon appelé Draft One est conçu pour aider les policiers à déposer des rapports en moins de temps que nécessaire avec les méthodes conventionnelles.
« Aujourd’hui, les policiers consacrent jusqu’à deux tiers de leur journée à la paperasse », explique Axon sur son site Internet. « Notre équipe de recherche en IA s’efforce de réduire le temps consacré à la paperasse en améliorant l’efficacité et la précision de la rédaction des rapports et de l’analyse des informations par les forces de l’ordre. »
Par exemple, Axon affirme que son produit donne aux agents la possibilité de supprimer automatiquement les images capturées par les caméras corporelles « afin que les agents puissent partager les images avec le public plus rapidement tout en protégeant la vie privée des personnes capturées dans la vidéo ».
Son logiciel d’IA permet aux superviseurs d’examiner les images et les rapports afin qu’ils « puissent mieux comprendre la conformité et fournir des commentaires afin d’améliorer la formation et les relations entre la police et la communauté ».
Draft One a reçu la « réaction la plus positive » de tous les produits que la société a lancés sur le marché, a déclaré à l’Associated Press Rick Smith, fondateur et PDG d’Axon. Mais, a-t-il ajouté, « il y a certainement des inquiétudes ».
Les procureurs de district veulent savoir que les policiers ne se sont pas uniquement appuyés sur un chatbot IA pour rédiger un rapport, car ils pourraient être amenés à témoigner devant un tribunal au sujet d’un crime présumé, a déclaré Smith à l’AP.
« Ils ne veulent jamais avoir à la barre un policier qui dise : « Eh bien, c’est l’IA qui a écrit ça, pas moi » », a déclaré Smith au média.
Une enquête de l’AP sur un autre programme d’IA de lutte contre le crime, ShotSpotter, un outil de détection des coups de feu qui, selon son site Web, utilise « des capteurs, des algorithmes et de l’intelligence artificielle » pour classer 14 millions de sons dans sa base de données comme des coups de feu ou autre chose, a trouvé de « graves défauts » dans la technologie.
Dans un cas où des preuves ShotSpotter ont été présentées au tribunal, un grand-père de l’Illinois nommé Michael Williams a été emprisonné pendant plus d’un an en 2021 lorsqu’il a été accusé d’avoir tiré et tué un homme sur la base de preuves audio que les procureurs disent avoir obtenues à partir de l’outil d’IA, l’AP a rapporté en 2022.
La technologie d’IA aurait détecté un bruit fort lorsque la voiture de Williams a traversé une intersection et a déterminé que Williams avait tiré sur le passager de sa voiture, a rapporté l’AP.
Mais Williams a déclaré aux autorités qu’une personne dans un autre véhicule s’était approchée de sa voiture et avait tiré sur son passager, a rapporté l’AP. Un juge a fini par classer l’affaire, les procureurs ayant déclaré qu’ils n’avaient pas suffisamment de preuves pour poursuivre.
« J’ai essayé de comprendre comment ils pouvaient s’en tirer en utilisant cette technologie contre moi ? » a déclaré Williams à l’AP.
Vous souhaitez être au courant des dernières actualités criminelles ? Inscrivez-vous à PERSONNESLa newsletter gratuite True Crime pour des nouvelles criminelles de dernière minute, une couverture des procès en cours et des détails sur des affaires intrigantes non résolues.
Dans une variété d’autres applications utilisées par les avocats, « l’IA crée des « hallucinations » ou de faux cas, citations et arguments juridiques qui semblent corrects mais n’existent pas réellement », a déclaré un expert du cabinet d’avocats. Freeman, Mathis et Gary a écrit dans un article sur son site Web sur les risques et les problèmes associés à l’IA générative utilisée dans la profession juridique.
Cela inclut la précision des chatbots désormais utilisés par les procureurs et les avocats de la défense pour passer au crible les documents afin de détecter des preuves pertinentes, rédiger des notes juridiques et élaborer des stratégies de litige complexes. [2024]Étude de l’Université de Stanford « Nous avons constaté que 75 % des réponses générées par les chatbots IA concernant un exemple de décision judiciaire étaient incorrectes », a écrit l’expert.
« En outre, l’IA ne peut pas répondre de manière adéquate aux questions de droit qui impliquent plus d’un domaine de pratique. Par exemple, une question juridique impliquant à la fois le droit de l’immigration et le droit pénal peut donner une réponse précise aux fins du droit de l’immigration, mais ne pas tenir compte des questions et implications du droit pénal. »
L’IA utilisée par les forces de l’ordre peut être utile, mais des précautions et des protections doivent être mises en place, a déclaré à Politico Jonathan Parham, ancien directeur de police de Rahway, dans le New Jersey.
« L’IA ne devrait jamais remplacer l’officier – elle devrait améliorer ses compétences opérationnelles », a déclaré Parham à Politico.
Pour plus d’actualités sur les gens, assurez-vous de inscrivez-vous à notre newsletter !
Lire l’article original sur Personnes.