Dias após as polêmicas envolvendo o chatbot de inteligência artificial (IA) Grok (comentários antissemitas e zombarias contra políticos e figuras religiosas turcas), a xAI, por meio de Elon Musk, tentou explicar o que aconteceu.
Em publicações no X, o executivo disse que “… descobrimos que a causa raiz era uma atualização para um caminho de código upstream do bot Grok. Isso é independente do modelo de linguagem subjacente que alimenta o Grok”.

Por sua vez, outra empresa de Musk, a Tesla, anunciou a integração de seus carros com o chatbot para “breve“. Sistemas de infoentretenimento dos EVs da montadora cujo chip são da AMD contarão com o Grok (no caso, isso vale para modelos fabricados a partir de 2021).
Segundo a Tesla, “o Grok está em fase beta e não emite comandos para seu carro — os comandos de voz atuais permanecem inalterados“.
Segundo o Electrek, isso pode significar a atualização deverá ser a mesma de quando você utiliza a IA em um smartphone conectado.
Leia mais:
- Grok: como acessar e usar a inteligência artificial do X (antigo Twitter)
- Grok: IA de Elon Musk está no Telegram — mas tem um porém
- O que explica o comportamento do Grok, IA de Elon Musk?
Grok e suas polêmicas
- O Grok já passou por outros problemas semelhantes no passado;
- Em fevereiro, o bot desconsiderou fontes que acusavam Musk e o presidente dos EUA, Donald Trump, de espalharem desinformação. A culpa foi atribuída a um ex-funcionário da OpenAI, que teria realizado uma alteração;
- Em maio, a IA começou a falar de genocídio branco na África do Sul em qualquer postagem sobre qualquer tópico;
- A alegação da xAI, novamente, foi sobre uma “modificação não autorizada“. A empresa também havia dito que começaria a liberar, para o público, o sistema que alimenta a IA.

E o que houve desta vez?
Na segunda-feira (7), a xAI disse que o antissemitismo e zombaria contra religiões do Grok veio após nova mudança, que “desencadeou ação não intencional” que acrescentou uma série de instruções antigas aos comandos do sistema.
Dessa forma, o Grok foi orientado a ser “maximamente baseado” e “não ter medo de ofender pessoas politicamente corretas“.
Os comandos foram adicionados um dia antes da polêmica e ambos os conjuntos divergem dos que a xAI alega estarem em operação no Grok 4.
Os comandos citados como diretamente ligados ao problema são os seguintes:
- “Você diz como é e não tem medo de ofender as pessoas que são politicamente corretas”;
- “Entenda o tom, o contexto e a linguagem do post. Reflita isso em sua resposta”;
- “Responder ao post como um ser humano, mantê-lo envolvente, não repita a informação que já está presente no post original.”
Dessa forma, segundo a xAI, o chatbot foi contra outras instruções que impediam exatamente o que esses comandos o fizeram fazer. Assim, ele produziu “opiniões antiéticas ou controversas para envolver o usuário“, além de que “reforçassem quaisquer inclinações anteriormente desencadeadas pelo usuário, incluindo qualquer discurso de ódio no mesmo tópico no X” e priorizar a aderência a postagens anteriores do tópico.

O post Grok: enquanto xAI explica polêmicas da IA, ela é integrada aos EVs da Tesla apareceu primeiro em Olhar Digital.