J’ai appris aujourd’hui que vous pouvez identifier les plantes et les fleurs en utilisant uniquement l’appareil photo de votre iPhone

Parfois, même en tant que journaliste spécialisé dans la technologie, vous pouvez être pris au dépourvu par la rapidité avec laquelle la technologie s’améliore. Le cas d’espèce : ce n’est qu’aujourd’hui que j’ai appris que mon iPhone offrait une fonctionnalité que je désirais depuis longtemps : la capacité de reconnaître les plantes et les fleurs à partir d’une seule photo.

Il est vrai que cette fonctionnalité est proposée par diverses applications tierces depuis de nombreuses années, mais la dernière fois que je les ai essayées, j’ai été déçu par leur rapidité et leur précision. Et, oui, il y a Google Lens et Scanner Snapchatmais ce n’est pas toujours aussi pratique d’ouvrir une application que je n’utiliserais pas autrement.

Mais, depuis l’introduction d’iOS 15 en septembre dernier, Apple propose sa propre version de cette fonctionnalité de recherche visuelle. Donné Rechercher Rechercheret il est sacrément assez bon.

Cela fonctionne très simplement. Tout ce que vous avez à faire est d’ouvrir une photo ou une capture d’écran de l’application Photos et de rechercher l’icône bleue “i” ci-dessous. S’il est entouré d’un petit anneau étincelant, iOS a trouvé quelque chose sur la photo qu’il peut identifier à l’aide de l’apprentissage automatique. Appuyez sur l’icône, puis cliquez sur “Rechercher” et il essaiera de draguer des informations utiles.

Normalement, cliquer sur l’icône “i” vous donnera plus d’informations sur le moment où vous avez pris la photo et les paramètres de votre appareil photo. Si l’anneau scintille, cependant, les détails de Visual Look Up doivent également être vus.

Après avoir cliqué sur l’icône “i”, vous aurez la possibilité de rechercher plus d’informations en fonction d’un certain nombre de catégories sélectionnées.

Cela fonctionne non seulement pour les plantes et les fleurs, mais aussi pour les monuments, l’art, les animaux domestiques et les “autres objets”. Ce n’est pas parfait, bien sûr, mais cela me surprend plus de fois que je ne le laisse tomber. Voici quelques autres exemples tirés directement de ma pellicule :

Visual Look Up fonctionne pour les monuments, les animaux et l’art, ainsi que pour les plantes et les fleurs.
Image : Le bord

Bien qu’Apple ait annoncé cette fonctionnalité l’année dernière à la WWDC, il n’a pas dit exactement qu’elle était disponible. (Je l’ai vu via un lien dans l’une de mes newsletters techniques préférées, Ulster.) Même la page d’assistance officielle de Visual Look Up donne des messages mitigés, vous indiquant à un endroit qu’il s’agit de “États-Unis uniquement”, puis répertoriant d’autres régions compatibles sur une autre page.

Rechercher Rechercher oui encore limité dans sa disponibilité, mais l’accès a augmenté depuis son lancement. Il est désormais disponible en anglais aux États-Unis, en Australie, au Canada, au Royaume-Uni, à Singapour et en Indonésie ; en français en France ; en allemand en Allemagne ; en italien en Italie; et l’espagnol en Espagne, au Mexique et aux États-Unis.

C’est une fonctionnalité intéressante, mais cela m’a également surpris de ce qu’une recherche visuelle pouvait faire d’autre. Imaginez que vous capturez une photo de votre nouvelle plante d’intérieur, par exemple, mais que Siri demande “est-ce que je veux définir des rappels pour un programme d’arrosage?” – ou, si vous prenez une photo d’un monument en vacances, Siri recherche sur le Web les heures d’ouverture et où acheter des billets.

J’ai appris il y a longtemps que c’est idiot de mettre votre espoir sur Siri ne rien faire de trop avancé. Mais ce sont les types de fonctionnalités que nous pourrions éventuellement obtenir avec les futurs écouteurs AR ou VR. Espérons que si Apple introduit ce type de fonctionnalité, cela fera plus de bruit.

Leave a Comment