Même les modèles de LLM les plus avancés, les LRM (Large Reasoning Models), restent, pour l’instant, des simulateurs de raisonnement. Une étude récente (The Illusion of Thinking, Apple, 2025) montre qu’ils s’effondrent dès que la tâche devient trop complexe. On peut y voir un exercice de communication défensive de la part d’Apple pour masquer ses […]
Article réservé à nos abonnés.