Apple s'attaque à Google Lens & Maps Live View avec iOS 15

Aujourd’hui, les plus grandes offres de réalité augmentée de Google destinées aux consommateurs sont Lens et Live View dans Maps. Lors de la WWDC 2021, Apple a annoncé qu’il prévoyait de s’attaquer à ces deux fonctionnalités avec iOS 15 cet automne.

un indicateur apparaît en bas à droite pour lancer une analyse.

Cela contraste avec le viseur Lens accessible depuis l’application de recherche, l’assistant et l’écran d’accueil (à la fois en tant qu’icône d’application et dans la barre de recherche de Pixel Launcher), ainsi que depuis Google Camera et d’autres clients tiers. Sur les images que vous avez déjà capturées. alors qu’il est également disponible dans Google Images. Pour Google, il est logique de faire apparaître une recherche visuelle dans ses outils de recherche, mais l’approche semble un peu écrasante.

À un niveau élevé, les capacités iOS relèvent du parapluie « Intelligence ». Cependant, Apple met très clairement l’accent sur le « Live Text » sur la recherche visuelle  :

Disons que je viens de terminer une réunion avec l’équipe et que je souhaite capturer mes notes à partir du tableau blanc. Je peux maintenant pointer la caméra vers le tableau blanc et un indicateur apparaît ici en bas à droite. Lorsque j’appuie dessus, le texte saute tout simplement. Je peux utiliser mes gestes de sélection de texte normaux. Faites simplement glisser et copiez. Maintenant, je peux passer à Mail et les coller, puis les envoyer à Tim.

Le comportement par défaut d’Apple consiste à copier du texte. Cela a du sens car la reconnaissance optique de caractères (OCR) permet de gagner beaucoup de temps par rapport à la transcription manuelle de texte dans une image.

Pendant ce temps, « Rechercher » et « Traduire » sont plus secondaires et nécessitent une confirmation explicite pour afficher plutôt que toutes les informations étant passivement exposées à la fois. Apple effectue une recherche visuelle pour « objets et scènes reconnus ». Il peut reconnaître les animaux/races, les types de fleurs, l’art, les livres, la nature et les monuments.

La recherche visuelle est une fonctionnalité utile, mais elle est plus « amusante » que quelque chose que vous utiliserez tous les jours. Les priorités d’Apple reflètent très bien l’utilisation que les gens font de Google Lens aujourd’hui. Cela dit, la recherche visuelle est l’avenir. Bien qu’il soit peut-être trop tard pour qu’Apple crée son propre moteur de recherche Web, l’annonce d’aujourd’hui reflète à quel point elle souhaite vraiment posséder la recherche AR, de peur qu’elle ne dépende de Google lorsque le facteur de forme du verre AR émerge.

Une autre fonctionnalité qui excellera sur les appareils portables dans la navigation AR. Apple a montré sa capacité à tenir votre iPhone et à scanner les bâtiments de la région pour « générer une position très précise ». Apple Maps affiche ensuite des instructions détaillées, telles que de grandes flèches et des noms de rue.

Comme Live View, Apple se concentre d’abord sur les directions. Google Maps a déjà dépassé cela et lors de l’I/O 2021, il a annoncé son intention de vous permettre d’afficher Live View en dehors de la navigation pour analyser votre environnement et voir les détails du lieu.

Après le lancement d’iOS 15 cet automne, les utilitaires AR seront monnaie courante sur les deux plus grandes plates-formes mobiles. Ces capacités sont utiles sur les téléphones, mais elles seront vraiment utiles sur les lunettes. Il est clair qu’Apple et Google améliorent la précision de ces services avant qu’ils n’occupent le devant de la scène dans le prochain facteur de forme. Il faudra du temps pour y arriver, mais les bases sont activement posées et chacun pourra bientôt prévisualiser cet avenir.

FTC  : Nous utilisons des liens d’affiliation automatique qui génèrent des revenus. Plus.