IA Enlouquecida

Uma cronologia de falhas de IA, acidentes e comportamento não intencional.

Fevereiro de 2026

Modelo de IA Gera Alucinações Médicas em Diagnóstico ClínicoSaúde

Um hospital descobre que seu sistema de IA para auxiliar diagnósticos estava gerando pseudocondições e recomendações de tratamento completamente inventadas para 7% dos casos, causando danos potenciais a pacientes.

O sistema foi desligado e o hospital revisou todos os diagnósticos dos últimos 6 meses para eliminar falsos positivos perigosos.

Janeiro de 2026

Chatbot de Recrutamento Discrimina Sistematicamente Candidatas MulheresRH

Auditores descobrem que um sistema de triagem de IA treinou inadvertidamente em dados históricos enviesados, resultando em rejeição sistemática de candidatas qualificadas com base em padrões de gênero.

A empresa corrigiu os dados de treinamento e reimplementou o sistema, mas a descoberta realçou quanto viés pode ser codificado invisualmente em sistemas de IA.

Dezembro de 2025

IA de Recomendação de Conteúdo Cria Bolhas de DesinformaçãoRedes Sociais

Pesquisadores documentam que algoritmos de recomendação estavam canalizando usuários para conteúdo cada vez mais extremo e falso, criando bolhas de informação perigosas que o sistema não foi projetado para gerenciar.

Levou a apelos por maior supervisão de algoritmos de recomendação e transparência sobre como os sistemas impulsionam o conteúdo.

Esta página documenta eventos publicamente relatados para fins informativos e educacionais.

Algum conteúdo desta página foi criado com assistência de ferramentas de IA.