Kevin Aubrée

Blog / · 5 min de lecture

Arrêtez de toujours prendre Opus. Haiku suffit 70% du temps.

A/B test sur un mois : quand Haiku 4.5 fait aussi bien qu'Opus 4.7, et coûte 25x moins cher. Tableau de décision par type de tâche et retour d'expérience concret.

Arrêtez de toujours prendre Opus. Haiku suffit 70% du temps.

Je vois beaucoup de devs qui envoient systématiquement tout sur Claude Opus 4.7. “C’est le plus gros modèle, c’est le meilleur.” Sauf que sur 70% de leurs tâches, Haiku 4.5 ferait la même chose pour 25 fois moins cher.

J’ai passé un mois à mesurer ça proprement. Voilà les résultats.

Le setup

Pendant 4 semaines, j’ai systématiquement lancé mes tâches en parallèle sur les trois modèles Claude actuels :

  • Haiku 4.5 (sorti octobre 2025) — petit modèle, rapide, pas cher
  • Sonnet 4.6 — équilibré, usage général
  • Opus 4.7 — gros modèle, raisonnement profond

Les tâches sont issues de mon usage quotidien réel, classées en 8 catégories. J’ai comparé les outputs qualitativement et noté les trois modèles sur chaque tâche. Petit rappel des prix approximatifs au moment où j’écris (en USD/million tokens) :

ModèleInputOutput
Haiku 4.50,80 $4 $
Sonnet 4.63 $15 $
Opus 4.715 $75 $

Opus coûte 19x plus cher que Haiku en input, 19x en output. Si Haiku fait la même chose, la question se pose sérieusement.

Les résultats par catégorie

Tâches où Haiku suffit (70% de mon volume)

Classification et tagging. Trier des documents, labeller des emails, catégoriser des leads. Haiku fait ça aussi bien qu’Opus sur 500 items testés (précision Haiku 97,8% vs Opus 98,2% — écart non significatif).

Extraction de données structurées. Parser du JSON dans du texte, extraire des entités, formater. Haiku est excellent, surtout si le schéma de sortie est bien défini.

Summarisation courte. Résumer un article, un email, une page de doc en 3 bullet points. Haiku donne des résumés plus secs, parfois meilleurs que Opus qui a tendance à broder.

Traductions simples (FR ↔ EN sur du contenu technique non littéraire). Qualité équivalente, Haiku 20x plus rapide.

Simple code modifications. Renommer une variable dans un fichier, ajouter un type, reformater un bout de code. Haiku s’en sort très bien si le scope est bien cadré.

Tâches où Sonnet est le sweet spot (25% de mon volume)

Review de code de complexité moyenne. Haiku rate des subtilités, Opus overkill. Sonnet 4.6 est le bon niveau — il voit les bugs sans sur-interpréter.

Rédaction d’articles techniques (comme celui-ci). Sonnet a le bon mix de structure et de ton. Opus est trop “sage”, Haiku trop “plat”.

Refactoring de fonctions. Quand la logique demande de comprendre l’intent puis de restructurer. Sonnet gère, Haiku se plante sur les edge cases.

Débug quand on a un stacktrace clair. Sonnet trouve la cause en 2 tours, Opus en trouve aussi mais met 3x plus de temps et coûte 5x plus cher.

Tâches où Opus gagne (5% de mon volume)

Architecture system-level. Concevoir une structure de microservices, choisir entre CQRS et event sourcing pour un use case précis. Opus voit les trade-offs que Sonnet rate.

Debug multi-couches (front → back → DB → cache). Quand la bug se propage dans un système, Opus tient mieux la mémoire du contexte global.

Math / raisonnement abstrait (rare dans mon usage, mais quand ça arrive, Opus est le seul à tenir).

Refactoring large scope (plus de 10 fichiers impactés). Opus maintient mieux la cohérence sur l’ensemble.

Le tableau de décision

J’ai consolidé ça dans un arbre simple que je suis désormais :

Tâche à faire → poser 3 questions :

1. Est-ce qu'il y a un schéma de sortie clair ?
   (classification, extraction, format précis)
   → OUI : Haiku

2. Est-ce qu'il faut du jugement sur du contenu nuancé ?
   (review, rédaction, refactoring moyen)
   → OUI : Sonnet

3. Est-ce qu'il faut du raisonnement système ou multi-couches ?
   (architecture, debug complexe, gros refacto)
   → OUI : Opus

Si tu hésites entre deux, prends le plus petit.
Tu peux toujours re-runner sur le plus gros si le résultat ne convient pas.

Ce que j’ai économisé

Avant ce mois de test, 80% de mon usage API passait par Opus “par défaut”. Après, mon mix est 60% Haiku, 30% Sonnet, 10% Opus.

Impact sur ma facture : -62% à volume de requêtes constant.

Impact sur la qualité perçue : neutre. Je n’ai pas ressenti de dégradation sur mes cas d’usage. Les quelques fois où j’ai été déçu par Haiku, j’ai re-runné sur Sonnet, c’était bon. Deux fois je suis monté jusqu’à Opus.

L’argument du “tant qu’à faire”

Le contre-argument classique : “pourquoi se compliquer, Opus marche partout, je paye 200 €/mois, je peux absorber”.

Deux réponses :

1. Le temps. Haiku est ~5x plus rapide en latence qu’Opus. Sur des tâches interactives (REPL, petit agent), ça change l’expérience. Attendre 8 secondes une classification, c’est ridicule.

2. L’échelle. Si tu construis un produit qui utilise Claude à volume, le ratio de coût est structurant. Tu ne peux pas vendre un SaaS à 19 €/mois qui passe chaque requête par Opus à 0,30 € le call. La marge n’est pas là.

À retenir

Haiku 4.5 est sous-estimé. Il a passé un palier de qualité fin 2025 qu’on néglige parce qu’on associe “petit modèle” à “modèle bête”.

Opus n’est pas “le meilleur pour tout”. C’est le meilleur quand tu as besoin de ce pour quoi il est conçu : raisonnement lourd, contexte étendu, cohérence longue.

Le réflexe “big model by default” est mauvais. Il coûte cher sans améliorer les résultats sur une majorité de tâches. Prends l’habitude de démarrer petit et de monter seulement si le résultat ne passe pas.

Si tu utilises Claude sérieusement, consacre une journée à faire ce même benchmark sur tes propres cas d’usage. Tu vas probablement diviser ta facture par 2 ou 3, sans perdre en qualité. C’est le meilleur ROI possible en une journée de travail.

Kevin Aubrée

Continuer la lecture

Retour au blog