👋 Hello à toi, c’est Yassine au clavier !
Aujourd’hui, on parle d’un lancement qui devait être historique… et qui a viré au chaos en moins de 24 h : ChatGPT 5. OpenAI vient de vivre l'une des semaines les plus chaotiques de son histoire. Le lancement tant attendu de GPT-5 s'est transformé en véritable cauchemar PR, avec une communauté d'utilisateurs en colère et une équipe forcée de faire marche arrière en moins de 24h. Que s'est-il passé exactement ? Un mélange explosif de problèmes techniques, de mauvaises décisions produit, et d'un manque flagrant de compréhension de ce que les utilisateurs valorisent vraiment.
Je parlerai aussi d’un nouveau bond technologique : Meta vient de dévoiler TRIBE (Trimodal Brain Encoder), un modèle qui prédit comment ton cerveau réagit quand tu regardes un film, en combinant vidéo + audio + texte. Et les résultats sont assez dingues.
Rappel : tu peux aussi lire mes précédentes newsletters
Au sommaire de cette édition :
Le drame GPT-5 expliqué ou comment OpenAI a (presque) tout raté
Tuto : Comment retrouver les anciens modèles ChatGPT
Le nouveau modèle de META : TRIBE
Le drame GPT-5 expliqué ou comment OpenAI a (presque) tout raté
Contexte
Jeudi dernier, OpenAI lance GPT-5. Sam Altman le présente comme “le modèle d’IA le plus puissant jamais créé”.
GPT-5 remplace l’ancienne jungle de modèles (4o, o3…) par une architecture unifiée et simple :
gpt-5-main : rapide, efficace, successeur de 4o.
gpt-5-thinking : raisonnement profond, successeur des o3.
Routeur temps réel : décide quand activer le mode “thinking” ou rester sur “main”. Et s’il est sur main il peut lui même choisir entre gpt-5-mini gpt-5-nano et s’il est sur thinking ajuster lui même le reasoning effort (low, medium, high), la verbosité. ⚠️ Le fonctionnement exacte de ce routeur n’est pas totalement transparent de la part d’OpenAI et c’est ce que je leur repproche le plus. Le mieux que j’ai pu obtenir c’est ce schéma :
Ce qui a mis le feu 🔥
Les premiers testeurs adorent. Tout va bien.
Puis l’accès s’ouvre aux 700 millions d’utilisateurs… et là, c’est le drame.
Disparition surprise de GPT-4o : Le modèle préféré de beaucoup, retiré sans prévenir.
Switch automatique défaillant : Le routeur censé choisir le meilleur modèle “plante” ou utilise des réglages “low-cost”, donnant l’impression que GPT-5 est moins bon que GPT-4o.
Des limites de taux ridicules : Les utilisateurs se sont retrouvés bloqués après quelques prompts
Personnalité plus neutre : Les fans de 4o, attachés à son côté chaleureux, se sentent trahis. GPT-5 semblait manquer de personnalité comparé à 4o.
Le "crime graphique" : Une présentation statistique trompeuse pendant le livestream
Sur Reddit et X, c’est un tsunami :
“Bait-and-switch”, “Je résilie mon abonnement après 2 ans”, “OpenAI a tué mon compagnon numérique”…
La volte-face express
En moins de 24 h, Altman cède :
✅ GPT-4o revient… mais uniquement pour les abonnés Plus (donc 2–3 % des utilisateurs).
✅ Promesse d’améliorer GPT-5 pour le rendre plus “chaleureux” et personnalisable.
✅ Doublement des limites d’usage pour les abonnés payants.
✅ Promesse d'une meilleure transparence
Mon analyse
Je vois deux lectures possibles :
2 simples erreurs : OpenAI a sous-estimé l’attachement émotionnel à un modèle et a introduit à sélecteur de modèles défaillant.
Un move calculé : Retirer 4o pour pousser les gratuits vers l’abonnement, avant une IPO et introduire un selecteur de modèles pour faire des économies massives en routant vers les modèles les moins chers.
Les leçons à en tirer :
en IA, la personnalité compte presque autant que la performance. OpenAI s'est comporté comme une entreprise d'ingénieurs obsédés par les benchmarks, alors que leurs utilisateurs cherchaient une expérience humaine.
la transition doit être progressive, ne jamais retirer brutalement un produit que vos utilisateurs adorent
on entre dans une nouvelle ère : celle des modèles spécialisés plutôt qu'un modèle unique pour tout faire. Les utilisateurs veulent de la personnalisation, des expériences sur mesure.
Pour nous, entrepreneurs dans l'IA, c'est une leçon précieuse : ne sous-estimez jamais l'aspect émotionnel de vos produits d'IA. La personnalité de vos modèles peut être votre plus grand atout ou votre pire ennemi.
Ce que GPT-5 apporte vraiment
sous le capot : GPT-5 est en réalité plusieurs modèles et ce qui n’est pas clair c’est lequel il utilise pour vous répondre…
côté benchmarks : Il est numéro 1 sur plusieurs d’entre eux.
Raisonnement : plus précis, hallucinations réduites (~45 % de moins que 4o).
Coding : 74,9 % sur SWE-bench Verified (top du marché), sens du design UI salué par Vercel.
Santé : 46,2 % sur HealthBench (vs 0 % pour 4o), rôle de “thought partner” pour comprendre un diagnostic.
Créativité : meilleure gestion de contraintes complexes (poésie, humour, formats courts).
Long contexte : jusqu’à 272k tokens input, 128k output en API.
Intégrations productivité : Gmail, Google Calendar, planification intelligente.
Agents : démo de création d’apps ou dashboards complets en quelques minutes.
Sécurité : système multi-couches, honnêteté accrue sur les limites du modèle.
🤔 Mon avis
Côté produit : GPT-5 incarne la vision “équipe d’IA spécialisées” plutôt que “un seul cerveau géant”. GPT-5 n’est pas un seul gros modèle qui fait tout, mais un système composé de plusieurs IA différentes, chacune optimisée pour un type de tâche précis. Les utilisateurs “grand public” n’ont pas à réflechir à quel modèle utilisé en fonction de chaque question, c’est le rôle du routeur.
Côté business : impossible de ne pas voir l’intérêt de convertir des utilisateurs gratuits en payants, surtout avant une IPO.
Côté usage : la personnalité est un facteur clé. Touche à ça sans prévenir, et tu déclenches une révolte.
Côté tech : si le routeur fonctionne vraiment, c’est l’UX la plus fluide jamais proposée par OpenAI.
Et après ?
Les réactions vont probablement s’apaiser, comme souvent surtout s’ils améliorent drastiquement leur routeur.
L’usage du mode raisonnement a déjà explosé (x6 pour les gratuits, x3 pour les payants).
Si OpenAI réussit à livrer une vraie personnalisation, ça pourrait être le début d’une IA sur-mesure par utilisateur.
Sinon… les concurrents (Claude, Gemini…) sont prêts à récupérer les déçus.
Tuto : Comment retrouver les anciens modèles ChatGPT
Depuis l’arrivée de GPT-5, beaucoup veulent réactiver GPT-4o ou d’autres modèles plus anciens. Voici comment faire :
1️⃣ Ouvre ChatGPT et connecte-toi à ton compte.
2️⃣ Clique sur ton profil (en bas à gauche) → Paramètres.
3️⃣ Active l’option "Afficher les anciens modèles".
4️⃣ En haut de la fenêtre de chat, clique sur le sélecteur de modèle (là où tu vois “ChatGPT-5”).
5️⃣ Dans la liste, sélectionne Legacy Models.
6️⃣ Dans le menu déroulant, choisis l’ancien modèle que tu veux : GPT-4o, o3 ou encore plus anciens.
✅ Et voilà, tu peux à nouveau travailler avec tes modèles préférés.
Le nouveau modèle de META : TRIBE
Meta vient de dévoiler TRIBE (Trimodal Brain Encoder), un modèle qui prédit comment ton cerveau réagit quand tu regardes un film, en combinant vidéo + audio + texte. On est encore loin de “lire dans les pensées” au sens science-fiction mais les résultats sont assez dingues.
C’est un réseau de 1 milliard de paramètres qui devine l’activité cérébrale (via fMRI) pendant qu’on regarde un film, sans avoir à te passer au scanner IRM à chaque fois.
TRIBE a décroché la 1ère place au concours Algonauts 2025 avec 30% de précision en plus par rapport aux modèles qui n’utilisent qu’une seule modalité (image ou son).
Pourquoi c’est important ?
Jusqu’ici, la plupart des approches se concentraient sur une seule modalité (par ex. la vision). TRIBE, lui, traite en parallèle les images, le son et les dialogues. Résultat : il prédit plus de 50% des schémas d’activité cérébrale dans environ 1 000 régions du cerveau – y compris celles qui intègrent plusieurs sens et le langage.
Et surtout : il fonctionne aussi bien sur un individu précis que sur des données moyennes de groupe.
Comment ça marche ?
Extraction des features :
Vidéo 🎥 → modèle visuel pré-entraîné
Audio 🎧 → modèle audio pré-entraîné
Texte 💬 → modèle NLP pré-entraîné
Alignement temporel : on synchronise toutes les données au même pas de temps.
Concaténation des 3 flux.
Passage dans un transformer brain encoder qui apprend à prédire, voxel par voxel, l’activation du cerveau.
Entraînement sur ~80 heures de données fMRI + films.
🤔 Mon avis :
TRIBE, c’est un vrai pas vers des IA qui comprennent l’expérience multisensorielle humaine. Ce type de modèle pourrait révolutionner la recherche en neuro, l’adaptation de contenus immersifs, et pourquoi pas le suivi cognitif en santé.
Aller plus loin : https://www.arxiv.org/abs/2507.22229
Comme d’habitude, un simple 💙 LIKE de ta part m’aide à continuer à créer du contenu de qualité pour toi. Alors, clique sur le petit coeur juste en dessous de ce mail 👇 et montre-moi ton soutien !