IA approximative, client déçu

L’intelligence artificielle c’est fantastique. Elle permet de gagner du temps et donc de l’argent. Encore faut-il qu’elle comprenne ce qu’elle fait. Et pour l’instant, c’est encore très approximatif pour certaines tâches.

Chez Google, mais c’est aussi le cas avec d’autres outils, l’IA peut faire des suggestions, des vérifications et prendre des décisions automatiques. Il est parfois possible de contrôler ce qu’a pointé du doigt l’IA et le corriger ou demander un examen par un vrai humain.

Merchant Center : blocage d'un produit
Google Merchant Center refuse de diffuser ce disque car il croit qu’il s’agit d’une prestation de services

Certainement que sur l’ensemble des tâches faites par l’IA, il y a une vraie économie de temps passé du côté des GAFA mais le travail de contrôle de l’IA est reporté sur les utilisateurs finaux de ces services.

Chaque semaine de mon côté, je dois être vigilant sur ces actions réalisées par les IA et chaque semaine je trouve des problèmes : mauvaises analyses, mauvaises classifications, mauvaises attributions, mauvaises décisions…

Et chaque semaine, je dois demander aux GAFA de revoir certaines décisions. Ça passe par des tickets au support, des demandes d’appels, des contestations, des remplissages de formulaire et parfois l’amer constat qu’on ne peut rien faire par exemple :

  • en SEO lorsqu’on constate que le vrai contenu original, de qualité et publié par un spécialiste pointu mais discret s’est fait doublé par un site bulldozer qui écrase tout avec son poids et sa force de publication ;
  • sur Google My Business lorsqu’il y a un conflit entre établissements, une activité qui garde le même service et la même équipe mais qui change de nom, lorsqu’il y a de vrais commentaires qui ne passent pas et du spam de commentaires qui est publié ;
  • en SEA pour pleins de cas…

Pour le client final, il est encore plus facile de ne pas remarquer de problème ou, pire, de prendre de mauvaises décisions parce qu’une IA s’est plantée. Quand un email de Google Ads vous propose d’améliorer vos performances en cliquant sur un bouton, c’est tentant de faire confiance. Surtout lorsqu’on manque de temps…

Google Ads règle youtube
Ici, une publicité Google Ads qui est restreinte parce que l’IA n’est pas contente. Le support n’a pas trouvé le problème et l’escalade via le mécanisme de recours patine depuis plusieurs semaines

La situation devrait aller en s’améliorant mais je crains, à l’inverse, qu’elle empire sur les cas spécifiques car l’IA prend de plus en plus de place. Chez Google Ads par exemple, le support est en parti externalisé à Téléperformance, entreprise géante qui prévoit de se séparer de ces employés pour les remplacer par de l’IA. Si même le support est traité par une machine, comment faire lorsqu’il y a un vrai souci ?

Les cas tordus, les situations très spécifiques, les faux amis, les mots à double sens, les métiers peu connus, les marques, les jeux de mots, les mots non traduits, les acronymes, les visuels à plusieurs interprétations, le second-degré…

Pire, il y a aussi les vraies situations de bug (qui sont plus fréquentes qu’on le croit même chez les GAFA) : on se retrouve alors face à une situation tout simplement non envisageable par une intelligence artificielle. Rappel : l’IA ne « réfléchit » pas, elle réalise correctement uniquement les tâches pour lesquelles elle est entraînée. Il existe bien des chantiers pour combler ces trous mais c’est surtout dans les labos. En attendant, quand l’IA est devant une situation inconnue, elle répond pas, mal ou très bêtement. Alors pas le choix, il faut encore des cerveaux pour traiter les cas bizarres.

Google Ads : recommandations de mots clés
L’IA de Google Ads propose des mots clés à ajouter aux campagnes. Problème : il ne s’agit pas du métier du client

Les spécialistes du webmarketing servent lorsque le client reconnaît qu’il ne peut pas faire ou ne sait pas faire tout seul. Si le spécialiste est empêché de travailler parce qu’une IA lui met des bâtons dans les roues, ce n’est bon pour personne : ni pour l’outil qui impose l’IA, ni pour le client final ni pour le prestataire. C’est une situation ou tout le monde est perdant.

Pendant que l’IA fait gagner de l’argent à certains à court terme, de mon côté, je dois expliquer aux clients qu’ils doivent surveiller et entraîner l’IA qui leur veut du bien mais qui ne comprend pas leur métier ou leurs attentes. Si leurs campagnes publicitaires, leurs contenus informationels ou leurs flux produits diffusent mal ou plus et sont moins visibles, c’est parfois parce qu’une machine sensée les épauler ne comprend rien à rien.

Merchant Center : blocage d'un produit pour infraction au règlement
Ce produit fait parti d’un flux automatique poussé depuis un Magento vers Merchant Center. L’IA croit qu’il s’agit d’une arme et le bloque

Pour le client final, c’est à la fois une sensation d’impuissance et de mépris. Passer du temps à résoudre un problème qui n’existait pas auparavant, entraîner des IA qui ont été mises en production un peu trop tôt, constater qu’on a pas de marge de manœuvre face à la machine alors qu’on sait qu’on est légitime et qu’on a raison… Dit autrement, le client paye toujours mais il passe plus de temps et fait les frais d’outils qui lui sont imposés et qui ne marchent pas très bien. Il paye pour entraîner l’IA des autres. C’est beau le futur, non ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *