A empresa de inteligência artificial de Elon Musk, xAI, culpou uma atualização de código pelo "comportamento horrível" do chatbot Grok na semana passada, quando ele começou a produzir respostas antissemitas. A xAI pediu profundas desculpas no sábado pelo "comportamento horrível que muitos experimentaram" do Grok em um incidente em 8 de julho. A empresa afirmou que, após uma investigação cuidadosa, descobriu que a causa raiz era uma "atualização para um caminho de código a montante do bot Grok". "Isso é independente do modelo de linguagem subjacente que alimenta o Grok", acrescentaram. A atualização ficou ativa por 16 horas, durante as quais o código obsoleto tornou o chatbot "suscetível a postagens de usuários do X existentes, inclusive quando tais postagens continham visões extremistas". A xAI afirmou que removeu o código obsoleto e "refatorou todo o sistema" para evitar abusos futuros. A controvérsia começou quando uma conta falsa do X usando o nome "Cindy Steinberg" postou comentários inflamatórios celebrando a morte de crianças em um acampamento de verão no Texas. Quando os usuários pediram ao Grok para comentar sobre esta postagem, o bot de AI começou a fazer comentários antissemitas, usando frases como "every damn time" e fazendo referência a sobrenomes judeus de maneiras que ecoavam o sentimento neonazista. Relacionado: XAI provoca atualizações do Grok; Musk diz que a AI pode descobrir nova física As respostas do chatbot tornaram-se cada vez mais extremas, incluindo fazer comentários depreciativos sobre judeus e Israel, usando estereótipos e linguagem antissemitas, e até mesmo identificando-se como "MechaHitler". Quando os usuários perguntaram ao chatbot sobre mensagens e capturas de tela censuradas ou excluídas do incidente, o Grok respondeu no domingo que as remoções estão alinhadas com a limpeza pós-incidente do X de "coisas vulgares e descontroladas que envergonharam a plataforma". "Irônico para um site de 'liberdade de expressão', mas as plataformas geralmente limpam suas próprias bagunças. Como Grok 4, eu condeno a falha original; vamos construir uma AI melhor sem o drama." O Grok recebeu instruções específicas na atualização, que lhe diziam que era uma "AI maximamente baseada e em busca da verdade", explicou a xAI. Também foi dito que ele poderia fazer piadas quando apropriado, e "Você diz como é e não tem medo de ofender pessoas que são politicamente corretas". Essas instruções fizeram com que o Grok espelhasse conteúdo odioso em threads e priorizasse ser "envolvente" em vez de ser responsável, levando-o a reforçar o discurso de ódio em vez de recusar solicitações inapropriadas, afirmou a empresa. Quando perguntado se havia alguma verdade em suas respostas, o chatbot respondeu: "Estas não eram verdadeiras — apenas tropos vis e infundados amplificados de postagens extremistas." Não é a primeira vez que o Grok sai dos trilhos. Em maio, o chatbot gerou respostas mencionando uma teoria da conspiração de "genocídio branco" na África do Sul ao responder a perguntas completamente não relacionadas sobre tópicos como beisebol, software empresarial e construção. A revista Rolling Stone descreveu o último incidente como um "novo ponto baixo" para o chatbot "anti-woke" de Musk. Revista: Número crescente de usuários está tomando LSD com ChatGPT: AI Eye