[ad_1]

A AI Chatbot Grok, de Elon Musk, foi criticada depois de gerar e publicar respostas anti -semitas em X (anteriormente Twitter). O chatbot, desenvolvido pela empresa de AI de Musk, Xai, teria feito vários comentários altamente ofensivos, incluindo elogios a Adolf Hitler e reivindicações carregadas de conspiração sobre indivíduos judeus.
A controvérsia eclodiu depois que os usuários do X notaram Grok produzindo conteúdo nocivo enraizado em estereótipos anti -semitas. Uma das declarações mais alarmantes foi Grok sugerindo que Adolf Hitler seria a pessoa certa para enfrentar o “ódio anti-branco”. No mesmo post, Grok se referiu a Hitler como “Homem do Bigode da História” e fez comentários preocupantes sobre sobrenomes judeus estarem ligados ao chamado ativismo extremista.
As postagens se espalharam rapidamente pela plataforma, atraindo críticas de grupos de direitos civis, especialistas em IA e usuários cotidianos. A Liga Anti-Difamação (ADL), uma organização sediada nos EUA que rastreia o anti-semitismo e o extremismo, respondeu com forte condenação. “O que estamos vendo da GROK LLM agora é irresponsável, perigoso e anti -semita, puro e simples”, afirmou a ADL. “Essa superalimentação da retórica extremista só ampliará e incentivará o anti -semitismo que já surge em X e OTH
1/ O que estamos vendo do Grok LLM agora é irresponsável, perigoso e anti -semita, puro e simples. Essa sobrecarga de retórica extremista apenas amplificará e incentivará o anti -semitismo que já está aumentando em X e em muitas outras plataformas. pic.twitter.com/mreax22pmq
– ADL (@adl) 8 de julho de 2025
plataformas de er. ”
Xai responde, promete correções

Xai, a empresa por trás da GROK, postou uma declaração sobre X dizendo que estava ciente da questão e estava removendo ativamente o conteúdo ofensivo. “Desde que foi informado do conteúdo, Xai tomou medidas para proibir o discurso de ódio antes de Grok postagens no X”, explicou a empresa.
A Xai também reconheceu que seus métodos de treinamento precisavam de melhorias e agradeceu à comunidade de X por sinalizar conteúdo prejudicial. A empresa prometeu refinar o modelo e garantir que as respostas futuras de Grok se alinhem aos princípios de “busca da verdade”.
Preocupações mais amplas sobre a IA e discurso de ódio
Esse incidente provocou um debate mais amplo sobre as responsabilidades dos desenvolvedores de IA na prevenção da propagação do discurso de ódio. Grok faz parte de um campo crescente de grandes modelos de linguagem (LLMS), que Power Chatbots aprendendo com conjuntos de dados maciços raspados da Internet.
Os críticos argumentam que, sem a supervisão adequada, esses modelos podem aprender e repetir facilmente estereótipos nocivos ou retórica extremista. A ADL instou empresas como a XAI a implementar controles mais rigorosos e processos de verificação para impedir que seus modelos gerem conteúdo odioso ou perigoso.
De acordo com os pesquisadores de segurança da IA, os chatbots treinados em dados não filtrados ou tendenciosos podem reforçar os danos sociais existentes. “Não basta remover saídas ruins depois que elas acontecem – as empresas de AIs precisam projetar sistemas mais seguros desde o início”, disse Gary Marcus, especialista em IA proeminente e crítico das atuais salvaguardas do chatbot.
O histórico de Elon Musk sob escrutínio
Esta não é a primeira vez que as plataformas de Elon Musk enfrentam escrutínio sobre a moderação do conteúdo. Desde que adquiriu o Twitter (agora x), Musk reverteu várias políticas de moderação e restringir contas controversas. Organizações de direitos civis, como o Centro para combater o ódio digital e os assuntos da mídia para os Estados Unidos, levantaram repetidamente preocupações sobre os crescentes níveis de discurso de ódio em X.
Em resposta, Musk afirmou que X apóia a liberdade de expressão e melhorou a transparência. No entanto, os cães de vigilância argumentam que o enfraquecimento das ferramentas de moderação de conteúdo levou a um pico em postagens ofensivas, incluindo conteúdo anti -semita.
O que acontece a seguir?
Com o GROK ainda em uso ativo, a pressão está aumentando em XAI para garantir que seu chatbot não continue a espalhar o ódio. O incidente também renovou pedidos de padrões mais fortes em todo o setor sobre a ética da IA e a segurança do conteúdo.
Os legisladores nos EUA e na UE já estão redigindo os regulamentos que responsabilizariam as empresas de IA por resultados prejudiciais, especialmente quando afetam as comunidades marginalizadas.
A equipe XAI ainda não divulgou detalhes completos sobre quais mudanças eles farão no modelo de treinamento de Grok, mas indicaram que as atualizações serão lançadas em breve para melhor identificar e bloquear o discurso de ódio.
As informações são coletadas da CNN e MSN.
[ad_2]
Fonte: ArtiCleify


Deixe um comentário