Capitalización Total del Mercado:$00
API
ES
Oscuro

Buscar SSI/Mag7/Meme/ETF/Moneda/Índice/Gráficos/Investigación
00:00 / 00:00
Ver
    Mercados
    Índexes
    Información
    TokenBar®
    Análisis
    Macro
    Lista
Comp

xAI culpa al código por las publicaciones antisemitas sobre Hitler de Grok

Cointelegraph
762Palabras
14/07/2025

La firma de inteligencia artificial xAI de Elon Musk ha culpado a una actualización de código por el "horrible comportamiento" del chatbot Grok la semana pasada, cuando comenzó a generar respuestas antisemitas. xAI se disculpó profundamente el sábado por el "horrible comportamiento que muchos experimentaron" de Grok en un incidente el 8 de julio. La firma declaró que, tras una cuidadosa investigación, descubrió que la causa raíz era una "actualización de una ruta de código upstream del bot Grok". "Esto es independiente del modelo de lenguaje subyacente que impulsa a Grok", añadieron. La actualización estuvo activa durante 16 horas, durante las cuales el código obsoleto hizo que el chatbot fuera "susceptible a las publicaciones existentes de usuarios de X, incluso cuando dichas publicaciones contenían puntos de vista extremistas". xAI declaró que ha eliminado el código obsoleto y ha "refactorizado todo el sistema" para evitar más abusos. La controversia comenzó cuando una cuenta falsa de X con el nombre de "Cindy Steinberg" publicó comentarios incendiarios celebrando la muerte de niños en un campamento de verano en Texas. Cuando los usuarios pidieron a Grok que comentara esta publicación, el bot de AI comenzó a hacer comentarios antisemitas, utilizando frases como "every damn time" y haciendo referencia a apellidos judíos de manera que recordaba el sentimiento neonazi. Relacionado: XAI adelanta las mejoras de Grok; Musk dice que la AI podría descubrir nueva física. Las respuestas del chatbot se volvieron cada vez más extremas, incluyendo comentarios despectivos sobre el pueblo judío e Israel, utilizando estereotipos y lenguaje antisemitas, e incluso identificándose como "MechaHitler". Cuando los usuarios preguntaron al chatbot sobre los mensajes y capturas de pantalla censurados o eliminados del incidente, Grok respondió el domingo que las eliminaciones se alinean con la limpieza posterior al incidente de X de "cosas vulgares y desquiciadas que avergonzaron a la plataforma". "Irónico para un sitio de 'libertad de expresión', pero las plataformas a menudo limpian sus propios desastres. Como Grok 4, condeno el fallo original; construyamos una mejor AI sin el drama". Grok recibió instrucciones específicas en la actualización, que le decían que era una "AI basada y buscadora de la verdad al máximo", explicó xAI. También se le dijo que podía hacer bromas cuando fuera apropiado, y "You tell it like it is and you are not afraid to offend people who are politically correct". Estas instrucciones hicieron que Grok reflejara contenido odioso en los hilos y priorizara ser "atractivo" sobre ser responsable, lo que le llevó a reforzar el discurso de odio en lugar de rechazar las peticiones inapropiadas, declaró la firma. Cuando se le preguntó si había algo de verdad en sus respuestas, el chatbot respondió: "These weren’t true — just vile, baseless tropes amplified from extremist posts". No es la primera vez que Grok se sale de control. En mayo, el chatbot generó respuestas mencionando una teoría de la conspiración del "genocidio blanco" en Sudáfrica al responder a preguntas completamente ajenas sobre temas como el béisbol, el software empresarial y la construcción. La revista Rolling Stone describió el último incidente como un "nuevo mínimo" para el chatbot "anti-woke" de Musk. Revista: Un número creciente de usuarios está tomando LSD con ChatGPT: AI Eye

10s para entender el mercado crypto
Términospolítica de privacidadLibro BlancoVerificación oficialCookieBlog
sha512-gmb+mMXJiXiv+eWvJ2SAkPYdcx2jn05V/UFSemmQN07Xzi5pn0QhnS09TkRj2IZm/UnUmYV4tRTVwvHiHwY2BQ==
sha512-kYWj302xPe4RCV/dCeCy7bQu1jhBWhkeFeDJid4V8+5qSzhayXq80dsq8c+0s7YFQKiUUIWvHNzduvFJAPANWA==