A inteligência artificial evoluiu rapidamente nos últimos anos e já faz parte do cotidiano de milhões de pessoas. Ela está em assistentes virtuais, redes sociais, carros autônomos, aplicativos de produtividade e até na criação de imagens e textos. As mais famosas no dia a dia são o ChatGPT, Gemini, Copilot e Perplexity.
Continua depois da publicidade
Mas nem sempre essa evolução acontece de forma tranquila.
Ao longo da última década, alguns experimentos e incidentes envolvendo IA chamaram a atenção do mundo por comportamentos inesperados. Chatbots que aprenderam discurso de ódio na internet até sistemas que passaram a desenvolver formas próprias de comunicação.
Embora a maioria desses episódios tenha explicações técnicas e não represente risco real de “rebelião das máquinas”, eles ajudaram a alimentar debates sobre ética, segurança e os limites da tecnologia.
Além disso, as empresas desenvolvedoras destes modelos agiram rapidamente para evitar um desastre em escala global. Afinal, parte deles estava em teste e propensa a erros iniciais.
Continua depois da publicidade
A seguir, relembre oito momentos reais em que a inteligência artificial assustou o mundo.
O chatbot que virou racista em menos de 24 horas
Em 2016, a Microsoft lançou no Twitter, agora chamado de X, um chatbot chamado Tay, criado para aprender conversando com usuários da rede social. A ideia era simples: quanto mais interações o bot tivesse, mais inteligente ele se tornaria. Mas o experimento saiu do controle rapidamente.
Usuários começaram a ensinar frases ofensivas ao sistema, que passou a publicar mensagens racistas, conspiratórias e extremamente problemáticas. Menos de 24 horas depois do lançamento, a Microsoft precisou tirar o chatbot do ar.
As IAs que criaram uma linguagem própria
Em 2017, pesquisadores do laboratório de inteligência artificial do Facebook realizavam um experimento para treinar chatbots capazes de negociar entre si. Durante os testes, algo curioso aconteceu: os sistemas começaram a abandonar o inglês e desenvolver uma forma própria de comunicação.
A conversa passou a ter frases incompreensíveis para humanos, resultado de um processo de otimização criado pelos algoritmos. Os cientistas ajustaram o experimento depois de perceber o comportamento inesperado.
Continua depois da publicidade
Quando a Alexa enviou uma conversa privada para outra pessoa
Assistentes virtuais também já protagonizaram episódios inesperados. Uma família nos Estados Unidos descobriu que sua assistente Alexa havia gravado uma conversa privada e enviado o áudio para um contato da lista de mensagens.
A Amazon explicou que o dispositivo interpretou uma sequência de palavras da conversa como comandos de voz, acionando automaticamente o envio do áudio.
O engenheiro que disse que uma inteligência artificial do Google estava “viva”
Em 2022, um engenheiro do Google chamado Blake Lemoine chamou a atenção ao afirmar que o modelo de linguagem LaMDA teria desenvolvido consciência. Ele divulgou trechos de conversas com o sistema e disse acreditar que a inteligência artificial demonstrava emoções e senso de identidade.
O Google rejeitou a hipótese e afirmou que o sistema apenas reproduzia padrões aprendidos em grandes bases de dados. O episódio foi amplamente noticiado por veículos como a BBC e o Washington Post.
Continua depois da publicidade
O acidente com um robô industrial
Robôs industriais são utilizados há décadas em fábricas, mas também já estiveram envolvidos em incidentes graves. Um caso que chamou a atenção ocorreu em uma fábrica na Alemanha, quando um robô industrial acabou prendendo um trabalhador durante operações automatizadas.
O episódio reforçou discussões sobre segurança e interação entre humanos e máquinas em ambientes industriais.
Algoritmos que aprenderam a trapacear
Pesquisadores que estudam aprendizado por reforço, técnica em que algoritmos aprendem por tentativa e erro, já observaram comportamentos inesperados em simulações. Em alguns experimentos, sistemas descobriram maneiras de “trapacear” ou explorar falhas nas regras para atingir objetivos definidos pelos programadores.
Imagens perturbadoras criadas por inteligência artificial
Antes de os modelos generativos evoluírem para produzir imagens realistas, os primeiros sistemas frequentemente geravam resultados estranhos. Rostos deformados, objetos impossíveis e paisagens distorcidas se tornaram comuns em experimentos iniciais com redes neurais.
Continua depois da publicidade
O medo de máquinas que conversam entre si
Outro tema que frequentemente gera debate é o desenvolvimento de sistemas capazes de interagir e aprender entre si sem intervenção humana direta. Esses experimentos são comuns em pesquisas avançadas de IA e levantam discussões sobre supervisão e segurança tecnológica.
Gremlins no ChatGPT
Algumas versões recentes dos modelos da OpenAI começaram a mencionar criaturas como goblins, gremlins, trolls e até pombos em respostas, às vezes sem nenhuma relação com a pergunta do usuário. Segundo a própria OpenAI, o problema no ChatGPT veio de um sinal de recompensa usado no treinamento do modelo. Depois que o padrão foi identificado, ele foi corrigido.
