Tech

Test de l’iPhone 16 Pro et de l’iPhone 16 Pro Max d’Apple : des iPhones plus intelligents

La création de résumés semble être une chose que tout le monde veut faire avec l’IA, et Apple Intelligence est prêt à faire de même. Vous pouvez résumer vos e-mails, vos messages et même vos notifications d’applications tierces. Certaines de ces fonctions peuvent être pratiques, comme lorsque l’application Mail appelle un e-mail urgent dans son résumé, ce que j’aurais manqué si j’avais simplement jeté un œil à l’immense collection d’e-mails. Mais le plus souvent, je fais simplement glisser le résumé et je plonge dans toutes les notifications.

En parlant de cela, il existe une fonction de résumé intégrée à Safari, mais vous devez mettre la page Web en mode lecteur. C’est ce genre de choses qui rendent difficile trouver ces fonctionnalités intelligentes et rappelez-vous qu’elles existent. Au moins, j’ai pu résumer une histoire de 11 000 mots et j’en ai compris l’essentiel alors que je n’avais pas le temps de m’asseoir et de le lire. (Désolé.) Je vous pardonne si vous résumez cette critique.

Les fonctionnalités d’Apple Intelligence les plus utiles pour moi, journaliste qui participe à plusieurs briefings par mois, sont sans doute les nouveaux outils de transcription dans l’application Notes, l’application Mémos vocaux et même dans l’application Téléphone. Appuyez sur Enregistrer dans Mémos vocaux et Notes et les applications transcriront les conversations en temps réel ! Si vous êtes en communication téléphonique, appuyez sur le bouton d’enregistrement et une fois les deux parties notifiées, l’appel commencera à être enregistré et vous obtiendrez une transcription enregistrée dans votre application Notes.

Pour tout cela, beaucoup dépend de la qualité du microphone de la personne à l’autre bout du fil. Quoi qu’il en soit, c’est certainement mieux que pas de transcription du tout. C’est dommage qu’il n’y ait pas d’étiquettes pour les locuteurs, comme sur L’application Recorder de Google. Vous ne pouvez pas non plus rechercher ces enregistrements pour trouver une citation spécifique. (Techniquement, vous pouvez le faire si vous ajoutez la transcription à votre note dans l’application Notes, mais vous ne pouvez pas accéder directement à cette partie de l’enregistrement audio une fois que vous l’avez trouvée.)

L’application Photos bénéficie également de l’intelligence d’Apple, et la fonction Clean Up en est le point fort. Tout comme avec les téléphones Pixel de Google qui ont lancé Magic Eraser il y a plus de trois ans, vous pouvez désormais supprimer les objets indésirables en arrière-plan de vos photos iPhone. D’après mon expérience, cela fonctionne plutôt bien, même si je suis un peu surpris qu’Apple vous donne autant de liberté pour effacer rien. J’ai complètement effacé mon œil de l’existence d’un selfie. J’ai effacé tous mes doigts de ma main. (La fonctionnalité de Google ne vous permet pas d’effacer des parties du visage d’une personne.)

Ensuite, j’ai effacé ma tasse, qui était devant mon visage alors que j’allais prendre une gorgée, et Clean Up a essayé de générer le reste de mon visage qui était auparavant caché avec des résultats horribles. (Pour ce que ça vaut, j’ai essayé cela sur le Pixel 9 et les résultats étaient tout aussi mauvais, bien que Google a fait (Donnez-moi plus d’options.) Comme l’a dit mon collègue sur Slack : « Ils semblent tous les deux avoir été formés sur des images de Bugs Bunny. »

Source link