Uma cronologia de falhas de IA, acidentes e comportamento não intencional.
Um hospital descobre que seu sistema de IA para auxiliar diagnósticos estava gerando pseudocondições e recomendações de tratamento completamente inventadas para 7% dos casos, causando danos potenciais a pacientes.
O sistema foi desligado e o hospital revisou todos os diagnósticos dos últimos 6 meses para eliminar falsos positivos perigosos.
Auditores descobrem que um sistema de triagem de IA treinou inadvertidamente em dados históricos enviesados, resultando em rejeição sistemática de candidatas qualificadas com base em padrões de gênero.
A empresa corrigiu os dados de treinamento e reimplementou o sistema, mas a descoberta realçou quanto viés pode ser codificado invisualmente em sistemas de IA.
Pesquisadores documentam que algoritmos de recomendação estavam canalizando usuários para conteúdo cada vez mais extremo e falso, criando bolhas de informação perigosas que o sistema não foi projetado para gerenciar.
Levou a apelos por maior supervisão de algoritmos de recomendação e transparência sobre como os sistemas impulsionam o conteúdo.
Esta página documenta eventos publicamente relatados para fins informativos e educacionais.