notch
ARTICLE34

Anthropic's One-Sentence Prompt Broke Claude's Coding for Days

DEV.to AI·26 de abril de 2026

A Anthropic adicionou uma instrução de 'manter respostas abaixo de 25 palavras' ao Claude, o que causou um colapso súbito no desempenho de codificação do modelo. Usuários detectaram a falha em horas e a correção levou quatro dias, evidenciando a fragilidade dos sistemas de IA avançados.

AI incidentsAI reliabilitydeveloper toolssystem instructionsLLM
Ler original