
La première version bêta destinée aux développeurs des premières fonctionnalités d’Apple Intelligence a été lancée cette semaine, et comprend quelques améliorations précoces de Siri, ainsi qu’une toute nouvelle interface extrêmement jolie. Bien que je sois au Royaume-Uni, j’ai pu utiliser cette approche pour y accéder.
Étant donné qu’Apple appellera toutes les nouvelles fonctionnalités « bêta » lors de leur lancement, ce que nous sommes actuellement en mesure de tester est en fait la toute première bêta d’un produit bêta. Les attentes doivent donc être définies en conséquence…
Ce que nous aurons à un moment donné – peut-être d’ici la fin de l’année – c’est un tout nouveau Siri, avec des capacités considérablement améliorées. Mais c’est encore loin.
La première version bêta destinée aux développeurs n’est qu’une première étape pour rendre Siri plus intelligent. Voici ce qui est officiellement inclus :
- Une nouvelle (et extrêmement jolie !) interface utilisateur
- La liberté de basculer entre la voix et le texte
- La capacité de gérer les questions d’assistance Apple
- Faire face aux faux pas verbaux
- Maintenir la compréhension contextuelle pour les requêtes de suivi
Prenant chacun à son tour…
Table des matières
La nouvelle interface utilisateur – jolie, mais déroutante
Tout d’abord, je suis absolument amour la nouvelle interface utilisateur. C’est honnêtement l’un des plus beaux exemples de conception de logiciel que j’ai vu depuis longtemps.
Si vous appuyez sur le bouton latéral et le maintenez enfoncé, l’animation commence même à partir de la position du bouton et se propage à partir de là. C’est magnifique.
Cependant… C’est aussi déroutant. Nous voyons une toute nouvelle animation pour ce qui est, pour l’instant, principalement l’ancien Siri. En effet, le changement d’interface utilisateur semble signaler un grand changement, mais n’en apporte qu’un petit. Il serait bien mieux, à mon avis, que la nouvelle interface utilisateur attende les capacités complètes du nouveau Siri.
Basculer entre la voix et le texte
Je travaille à domicile et je vis à Londres, où personne ne prêtera la moindre attention à ce que vous dites sur votre téléphone en public, donc pour ma part, je suis presque toujours heureux de formuler des demandes à Siri.
Néanmoins, je pense que c’est fantastique de donner le choix aux gens, et le geste de double-clic en bas de l’écran est un moyen vraiment simple d’y accéder. C’est un excellent exemple de conception d’interface utilisateur.
Gestion des questions d’assistance Apple
Pour l’instant, c’est la fonctionnalité la plus impressionnante. Je l’ai testée sur tout un tas de requêtes et elle a donné d’excellentes réponses pour chacune d’entre elles.
Par exemple:
Siri, comment ajouter une e-SIM sur mon iPhone ?
Siri a répondu avec un excellent résumé, qui serait parfaitement suffisant pour que tout le monde puisse le suivre :

Mais si vous avez besoin de plus d’informations, appuyez simplement n’importe où dans la réponse et le document d’assistance approprié s’ouvre.
C’est d’ailleurs une raison de plus pour qu’Apple s’en tienne à l’anglais américain pour le moment. Comme j’ai dû changer la région de mon iPhone pour les États-Unis et la langue pour l’anglais américain, le réglage est effectivement sur Cellular – mais pour un iPhone britannique, il s’agirait normalement de Mobile Data. Il y a donc beaucoup de choses à faire pour que Apple Intelligence fonctionne dans le monde entier.
Faire face aux faux pas verbaux
C’est également très impressionnant. J’ai essayé de changer d’avis sur ce que je demandais au milieu d’une requête, et Siri s’en charge sans cligner des yeux. Par exemple :
Quelle heure est-il à New York ? Non, à Chicago. Non, je veux dire à San Francisco ?
Siri a simplement levé les yeux au ciel, métaphoriquement, et m’a dit l’heure à San Francisco.
Maintenir la compréhension contextuelle
C’est là, malheureusement, que les choses se gâtent – et c’est principalement parce que Siri n’est pas fondamentalement plus intelligent, donc toutes les réponses du type « Voici ce que j’ai trouvé sur le Web » se produisent toujours. Par exemple :
Moi : Qu’est-ce qu’Apple Intelligence ?
Siri : Vous pouvez trouver des informations sur tous les produits Apple sur apple.com
Parfois, cela fonctionne bien. Par exemple, cette interaction :
Moi : Quelle heure est-il à Mumbai ?
Siri : Il est 18h37 à Mumbai, en Inde
Moi : Et quel temps fait-il là-bas ?
Siri : Il pleut actuellement et il fait 28 °C à Mumbai, en Inde
(Je dois noter qu’après avoir défini les États-Unis comme ma région, j’ai rétabli manuellement l’heure sur 24 heures et la température sur Celsius.)
Cependant, le contexte ne s’applique qu’à la session Siri en cours, c’est-à-dire tant que l’animation est à l’écran. Une fois ce délai écoulé, ce qui se produit après environ six secondes, l’application oublie le contexte. Il faut donc attendre 10 secondes, puis demander «Et quel temps fait-il là? » Je suis revenu à ma météo locale, malgré les indices verbaux soulignés indiquant que je fais toujours référence à Mumbai.
Cependant, pour la plupart des requêtes, Siri n’est pas plus intelligent. Par exemple, cette interaction :
Moi : Combien de temps me faudra-t-il pour arriver à la Tour de Londres ?
Siri : Lequel ?
Moi:
Siri :
Moi : Et quelles sont les horaires d’ouverture ?
Siri :

Alors oui, n’attendez pas trop !
Mais, comme je l’ai dit, il s’agit de la toute première version bêta d’un produit bêta, donc tout cela était prévisible. Ce qui sera intéressant à voir, c’est le rythme des améliorations et combien de temps exactement nous devrons attendre pour tous les nouvelles capacités de Siri débarquent.
Image : Collage 9to5Mac utilisant l’arrière-plan de Alexandre Gray sur Unsplash