Google Search AI hallucinations push Google to hire “AI Answers Quality” engineers

2 minute de lecture

Mis à jour :

Google Renforce la Fiabilité des Réponses IA de sa Recherche

Google recrute des ingénieurs spécialisés dans la qualité des réponses IA pour améliorer les résultats de sa fonction “AI Overviews” dans la recherche. Cette initiative intervient alors que la plateforme est confrontée à des “hallucinations” de l’IA, générant des informations erronées ou contradictoires.

Points Clés :

  • Problème d’Hallucinations IA : Les “AI Overviews” de Google Search peuvent inventer des informations ou fournir des réponses incohérentes selon la formulation de la requête.
  • Recrutement Spécifique : Une nouvelle offre d’emploi révèle la création du poste “AI Answers Quality” pour résoudre ces problèmes.
  • Amélioration de l’Expérience Utilisateur : Google cherche à réinventer sa recherche en garantissant une expérience utile et fiable, même avec l’intégration croissante de l’IA.
  • Intégration Renforcée : Google pousse de plus en plus les utilisateurs vers le “AI Mode” et les réponses générées par IA, y compris dans son flux Discover, où il réécrit même des titres d’actualités.
  • Exemples Concrets : Des cas où les valeurs de startups variaient considérablement entre deux requêtes similaires, ou des informations médicales trompeuses ont été rapportées.
  • Confiance des Utilisateurs : Une préoccupation majeure réside dans le fait que les utilisateurs ont tendance à croire aveuglément les informations fournies par Google.

Vulnérabilités :

Bien que l’article ne mentionne pas de CVE spécifiques, il met en évidence une vulnérabilité intrinsèque aux modèles d’IA actuels : la génération d’informations inexactes ou fabriquées (hallucinations). Cela pose un risque de désinformation pour les utilisateurs, notamment dans des domaines sensibles comme la santé ou les données financières.

Recommandations :

  • Développement d’Outils de Vérification : Le recrutement d’ingénieurs dédiés à la qualité des réponses IA suggère une volonté d’implémenter des mécanismes de validation et de correction des sorties de l’IA.
  • Amélioration des Sources : L’article mentionne que les sources citées par l’IA ne contenaient pas toujours les informations attribuées, indiquant un besoin d’améliorer la pertinence et l’exactitude de la liaison entre les réponses et les références.
  • Prudence des Utilisateurs : Bien que non explicitement formulée comme une recommandation de Google, la nécessité pour les utilisateurs de vérifier les informations fournies par l’IA, surtout lorsqu’elles proviennent de sources non vérifiées ou de domaines critiques, est implicite.

Source