LES ACTIONS DE GOOGLE PERDENT 100 MILLIARDS DE DOLLARS APRES QUE LE NOUVEAU CHATBOT BASE SUR L’INTELLIGENCE  ARTIFICIELLE  DONNE UNE REPONSE INCORRECTE DANS LA DEMO

après que le nouveau chatbot IA donne une réponse incorrecte dans

Les actions d'Alphabet, la société mère de Google, ont chuté de 7,7 % mercredi, ce qui lui a fait perdre 100 milliards de dollars de sa valeur marchande après que son nouveau chatbot IA ait donné une réponse inexacte à une question lors d'une démonstration publique cette semaine.

Le nouvel outil de chatbot IA de Google, connu sous le nom de Bard, n'a pas encore été rendu public mais a fait l'objet d'un battage médiatique important - du moins jusqu'à la démo désastreuse que la société a publiée sur Twitter cette semaine.

Dans la démo, un utilisateur pose à Bard la question : "De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ?"

L'outil AI donne ensuite à l'utilisateur une réponse qui contient plusieurs puces sur le télescope. L'un d'eux affirme : "JWST a pris les toutes premières photos d'une planète en dehors de notre propre système solaire."

Cependant, la NASA rapporte que la première image d'une planète au-delà de notre propre système solaire, connue sous le nom d'exoplanète, n'a pas été prise par le télescope spatial James Webb. Au lieu de cela, elle a été prise par le Very Large Telescope de l'Observatoire européen austral en 2004.

Cet embarras très public met en évidence la lutte de Google pour suivre la technologie d'IA ChatGPT qui attire beaucoup d'attention positive pour ses rivaux. ChatGPT peut être utilisé pour créer des réponses aux questions que les gens recherchent généralement en utilisant Google, ainsi que des essais et même des paroles de chansons. Il connaît une soudaine montée en popularité qui aurait incité la direction de Google à publier sa propre version dès que possible.

L'événement de Google a eu lieu juste un jour après que Microsoft a annoncé qu'il alimenterait son moteur de recherche Bing avec une interprétation plus avancée de l'intelligence artificielle utilisée par ChatGPT.

L'INTELLIGENCE  ARTIFICIELLE  EST SUJETTE AUX ERREURS

Certains observateurs pensent que l'IA conversationnelle marquera un changement radical dans la façon dont les gens recherchent en ligne, mais le fiasco de Bard pourrait porter un coup dur à la réputation du moteur de recherche de Google après avoir fourni des informations peu fiables.

Bard, tout comme ChatGPT, est construit sur un grand modèle de langage. Cela signifie qu'il a été formé à l'aide d'énormes quantités de données en ligne pour l'aider à proposer des réponses convaincantes et réalistes aux invites de l'utilisateur. Bien que bon nombre de ces outils fournissent des réponses qui semblent raisonnablement naturelles et conversationnelles, ils ont également le pouvoir de diffuser des informations inexactes.

Pour l'instant, Google essaie de limiter les dégâts, affirmant que l'incident les aidera à améliorer le projet. Dans un communiqué, un porte-parole de Google a déclaré : « Cela souligne l'importance d'un processus de test rigoureux, quelque chose que nous lançons cette semaine avec notre programme Trusted Tester.

"Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard atteignent un niveau élevé de qualité, de sécurité et d'ancrage dans les informations du monde réel."

Bien que l'identification incorrecte du nom d'un satellite qui a pris une photo spécifique puisse sembler inoffensive à première vue, que se passe-t-il lorsque Google's Bard donne aux gens des informations inexactes sur des questions telles que les premiers secours ou fournit des instructions incorrectes sur la réalisation de projets d'amélioration de l'habitat qui peuvent mettre les individus dans danger?

Le problème est que bon nombre des réponses fournies par ces chatbots semblent si convaincantes qu'il est difficile pour les gens de dire quand elles sont inexactes. L'attrait de ces recherches basées sur l'IA est leur capacité à fournir des résultats aux requêtes en langage clair au lieu de présenter une liste de liens, aidant ainsi à connecter les gens avec des réponses plus rapidement.

Cependant, en plus des préoccupations concernant la précision, ces systèmes sont critiqués pour leur vulnérabilité aux biais inhérents à leurs algorithmes qui peuvent fausser leurs résultats. Lorsqu'il est utilisé à grande échelle, le potentiel de propagation de fausses informations est stupéfiant. Le site d'actualités technologiques CNET a récemment dû retirer 77 articles qu'il avait écrits à l'aide d'un outil d'intelligence artificielle qui présentaient des inexactitudes factuelles majeures et du plagiat. Les chatbots IA sont conçus pour inventer essentiellement des choses pour combler les lacunes, et s'ils sont largement adoptés, il pourrait bientôt être plus difficile que jamais de distinguer les faits de la fiction en ligne.