L'IA Gemini de Google critiquée pour des erreurs historiques, le PDG promet des changements
Gemini est l'IA développée par Google pour concurrencer GPT-4, mais la société a été prise de court par le partenariat entre Microsoft et OpenAI. Les erreurs commises par Gemini ont suscité des critiques de la part de certains utilisateurs et de personnalités publiques, notamment Elon Musk, qui a accusé Google d'insuffler des biais dans la plupart de ses produits.
Voici quelques exemples d'erreurs commises par Gemini :
- Des soldats allemands de la Seconde Guerre mondiale ont été représentés comme étant noirs, ce qui est historiquement inexact.
- Des Pères fondateurs amérindiens ont été représentés dans des images, ce qui est également inexact.
- Des images de personnes portant des vêtements modernes ont été générées dans des contextes historiques inappropriés.
- Des stéréotypes raciaux et sexistes ont été perpétués dans certaines images générées par Gemini.
Sundar Pichai a reconnu que ces erreurs étaient inacceptables et qu'elles résultaient d'un mauvais paramétrage du modèle dans le but d'éviter les biais raciaux et sexistes. Il a souligné l'importance pour Google de fournir des informations utiles, précises et impartiales dans tous ses produits, y compris les produits d'IA émergents.
Le PDG de Google a donc demandé à ses équipes de mettre en place des changements structurels, des lignes directrices actualisées et des processus de lancement améliorés pour éviter de telles erreurs à l'avenir. La controverse entourant Gemini a mis en lumière la rapidité avec laquelle Google a développé son produit pour concurrencer GPT-4, ce qui pourrait avoir conduit à ces erreurs.
Gemini devrait reprendre la génération d'images dans les prochaines semaines, selon la société. Cette affaire souligne l'importance pour les entreprises technologiques de veiller à la précision et à l'impartialité de leurs produits d'IA, afin de maintenir la confiance des utilisateurs.