ARTICLE34
Anthropic's One-Sentence Prompt Broke Claude's Coding for Days
DEV.to AI·26 de abril de 2026
A Anthropic adicionou uma instrução de 'manter respostas abaixo de 25 palavras' ao Claude, o que causou um colapso súbito no desempenho de codificação do modelo. Usuários detectaram a falha em horas e a correção levou quatro dias, evidenciando a fragilidade dos sistemas de IA avançados.
AI incidentsAI reliabilitydeveloper toolssystem instructionsLLM
Ler original ↗