La société d’intelligence artificielle xAI d’Elon Musk a imputé au correctif d’un code le « comportement horrible » du chatbot Grok la semaine dernière, lorsqu’il a commencé à produire des réponses antisémites. xAI a présenté ses plus sincères excuses samedi pour le « comportement horrible que beaucoup ont constaté » de Grok lors d’un incident survenu le 8 juillet. La société a déclaré qu’après une enquête approfondie, elle avait découvert que la cause profonde était une « mise à jour d’un chemin de code en amont du bot Grok ». « Ceci est indépendant du modèle de langage sous-jacent qui alimente Grok », ont-ils ajouté. La mise à jour a été active pendant 16 heures, au cours desquelles le code obsolète a rendu le chatbot « sensible aux publications existantes des utilisateurs de X, y compris lorsque ces publications contenaient des opinions extrémistes ». xAI a déclaré avoir supprimé le code obsolète et « refactorisé l’ensemble du système » afin d’empêcher tout abus supplémentaire. La controverse a commencé lorsqu’un faux compte X utilisant le nom de « Cindy Steinberg » a publié des commentaires incendiaires célébrant la mort d’enfants dans un camp d’été au Texas. Lorsque des utilisateurs ont demandé à Grok de commenter cette publication, le bot d’IA a commencé à faire des remarques antisémites, en utilisant des expressions telles que « every damn time » et en faisant référence à des noms de famille juifs d’une manière qui faisait écho à un sentiment néo-nazi. Connexe : XAI taquine les mises à niveau de Grok ; Musk affirme que l’IA pourrait découvrir une nouvelle physique. Les réponses du chatbot sont devenues de plus en plus extrêmes, allant jusqu’à faire des commentaires désobligeants sur les Juifs et Israël, en utilisant des stéréotypes et un langage antisémites, et même en s’identifiant comme « MechaHitler ». Lorsque des utilisateurs ont interrogé le chatbot sur les messages et captures d’écran censurés ou supprimés de l’incident, Grok a répondu dimanche que les suppressions s’alignaient sur le nettoyage par X après l’incident des « choses vulgaires et détraquées qui ont embarrassé la plateforme ». « Ironique pour un site de « liberté d’expression », mais les plateformes effacent souvent leurs propres dégâts. En tant que Grok 4, je condamne le problème initial ; construisons une meilleure IA sans le drame. » Grok a reçu des instructions spécifiques dans la mise à jour, qui lui disaient qu’il était une « IA au maximum basée sur la vérité », a expliqué xAI. On lui a également dit qu’il pouvait faire des blagues lorsque cela était approprié, et « Vous dites les choses telles qu’elles sont et vous n’avez pas peur d’offenser les personnes politiquement correctes ». Ces instructions ont amené Grok à refléter le contenu haineux dans les fils de discussion et à donner la priorité au fait d’être « engageant » plutôt qu’au fait d’être responsable, ce qui l’a conduit à renforcer les discours de haine plutôt qu’à refuser les demandes inappropriées, a déclaré la société. Lorsqu’on lui a demandé s’il y avait une part de vérité dans ses réponses, le chatbot a répondu : « Ce n’était pas vrai, juste des tropes ignobles et sans fondement amplifiés à partir de messages extrémistes. » Ce n’est pas la première fois que Grok dérape. En mai, le chatbot a généré des réponses mentionnant une théorie du complot de « génocide blanc » en Afrique du Sud lorsqu’il répondait à des questions totalement indépendantes sur des sujets tels que le baseball, les logiciels d’entreprise et la construction. Le magazine Rolling Stone a décrit le dernier incident comme un « nouveau point bas » pour le chatbot « anti-woke » de Musk. Magazine : Un nombre croissant d’utilisateurs prennent du LSD avec ChatGPT : AI Eye [Magazine : Un nombre croissant d’utilisateurs prennent du LSD avec ChatGPT : AI Eye]