Les défenseurs de la liberté de la presse exhortent Apple à abandonner un système d’IA générative « immature » qui résumait de manière incorrecte une notification d’information de la BBC qui racontait de manière incorrecte que le tireur présumé du PDG d’UnitedHealthcare, Luigi Mangione, s’était suicidé.
Reporters sans frontières (RSF) dit Cette semaine, le brouhaha d’Apple en matière d’IA, qui a généré un faux résumé comme « Luigi Mangione se tire une balle », est une preuve supplémentaire que l’intelligence artificielle ne peut pas produire de manière fiable des informations destinées au public. Apple Intelligence, lancé au Royaume-Uni le 11 décembre, a mis moins de 48 heures pour commettre une erreur très publique.
« Cet accident met en évidence l’incapacité des systèmes d’IA à publier systématiquement des informations de qualité, même lorsqu’elles s’appuient sur des sources journalistiques », déclare RSF. « La manière probabiliste dont fonctionnent les systèmes d’IA les disqualifie automatiquement en tant que technologie fiable pour les médias d’information pouvant être utilisée dans des solutions destinées au grand public. »
Parce qu’elle n’est pas fiable et précise, RSF a déclaré que l’IA ne devrait pas être autorisée à être utilisée à de telles fins et a demandé à Apple de retirer cette fonctionnalité de ses systèmes d’exploitation.
« Les faits ne peuvent pas être tranchés par un coup de dés, déclare Vincent Berthier, responsable du bureau Technologie et journalisme de RSF. « RSF appelle Apple à agir de manière responsable en supprimant cette fonctionnalité.
« La production automatisée de fausses informations attribuées à un média porte un coup à la crédibilité de ce média et un danger pour le droit du public à une information fiable sur l’actualité », a ajouté Berthier.
On ne sait pas si et comment Apple envisage de résoudre le problème. La BBC a déposé sa propre plainte, mais Apple a refusé de commenter publiquement le radiodiffuseur britannique à ce sujet.
Selon la BBC, cela ne semble même pas être la première fois que les résumés d’IA d’Apple rapportent faussement des nouvelles. Le beeb a souligné un résumé d’Apple AI de novembre commun par un journaliste de ProPublica qui a attribué la nouvelle de l’arrestation du Premier ministre israélien Benjamin Netanyahu (ce qui n’a pas eu lieu) au New York Times, suggérant qu’Apple Intelligence pourrait être un lecteur erroné en série des gros titres quotidiens.
Les résultats de recherche de l’IA de Google ont également été trompés en faisant apparaître des liens frauduleux et ont également exhorté les utilisateurs à coller du fromage sur une pizza et à manger des pierres.
Berthier a déclaré : « La loi européenne sur l’IA – bien qu’elle soit la législation la plus avancée au monde dans ce domaine – n’a pas classé les IA génératrices d’informations comme des systèmes à haut risque, laissant ainsi un vide juridique critique. Cette lacune doit être comblée immédiatement.
Le registre a contacté Apple pour savoir ce qu’il pourrait faire pour résoudre le problème de son IA qui tire des conclusions hâtives sur l’actualité, et RSF pour voir s’il a eu des nouvelles d’Apple, mais nous n’avons pas eu de réponse non plus. ®