Regard(s)
Ce qui bouge.
Un signal périodique sur l'orchestration, l'IA et les systèmes qui tiennent. Ce qu'on observe, ce qu'on retient, ce qui mérite qu'on y revienne.
Alimenté par un pipeline d'observation en production
GitHub →-
Les Petri nets reviennent par la porte IA #
- Petri Net of Thoughts — TU Wien utilise un réseau de Petri pour piloter le raisonnement d'un LLM, place par place, transition par transition. Pas de garantie formelle — mais l'intuition est exactement celle qu'on défend : un Petri net structure mieux qu'un arbre ou un graphe ad hoc. (Gavric, Bork & Proper, EMISA 2025)
- TB-CSPN — Colored Petri Nets for Agentic AI — Un substrat de coordination multi-agents construit sur des CPN. 62% plus rapide que LangGraph, 67% moins d'appels LLM. Le chiffre est anecdotique, la direction ne l'est pas : séparer la coordination (formelle) du traitement (LLM). (Borghoff, Bottoni & Pareschi, Future Internet 2025)
- ProMoAI — LLM qui génèrent des Petri nets — L'école van der Aalst (RWTH Aachen) fait générer des modèles de processus formels par un LLM. Direction inverse de Katen — le LLM produit le Petri net au lieu de l'exécuter — mais même convergence : le Petri net comme lingua franca entre intention et exécution. (Kourani et al., IJCAI 2024)
- PM-LLM-Benchmark — Premier benchmark évaluant les LLM sur des tâches de process mining. Quand le groupe qui fait référence sur les Petri nets de workflow commence à mesurer ce que les LLM savent faire avec ses modèles, c'est un signal fort de convergence. (Berti, Kourani & van der Aalst, ICPM 2024)
-
L'orchestration sort de l'ombre #
- Agent Observability — Monte Carlo lance une offre dédiée à l'observabilité des agents IA. 53% des équipes prévoient de reconstruire leurs agents faute de visibilité post-exécution. Le marché confirme le besoin, pas la solution. (Mars 2026)
- AutoGen v0.4 — refonte complète — Microsoft refond AutoGen : architecture event-driven, actor model. L'approche naïve "agents qui se parlent" ne scale pas. Il faut une vraie couche d'orchestration. (Janvier 2025)
- LeCun — "le code disparaît" — LeCun repose la question de l'architecture cognitive. Signal de contexte — pas d'urgence produit, mais la conversation s'installe dans la durée. (Challenges, mars 2026)
-
Qui pilote quand les agents sont 28 ? #
- PersonaFlow — experts LLM simulés — Liu et al. construisent un système à 4 étapes (cadrage, consultation, littérature, critique) avec des experts IA à rôles distincts. Résultat : créativité augmentée sans surcharge cognitive. C'est la publication la plus proche de la pratique Katen dans la littérature — mais sans persistance inter-sessions, sans friction croisée, sans isolation par périmètre. (ACM DIS 2025)
- Humain + IA < meilleur des deux seuls — Méta-analyse sur 106 études : en moyenne, la combinaison humain-IA sous-performe le meilleur des deux pris séparément. Gains en création de contenu, pertes en décision. Le design de rôles n'est pas un luxe — c'est la condition pour que la collaboration fonctionne. (Vaccaro, Almaatouq & Malone, Nature Human Behaviour 2024)
- Frictional AI — ralentir pour mieux décider — La Rosa & Beretta formalisent la "friction positive" : ralentir délibérément l'interaction humain-IA pour promouvoir délibération et contrôle. Cadre Joint Cognitive System (JCS). Position paper (workshop short paper, pas article de recherche complet) — ouvre un agenda, pas de validation empirique. Contribution : la littérature sur la friction ne traite que la dyade (1 humain + 1 IA) ; les auteurs posent la question du passage aux systèmes multi-acteurs multi-niveaux. Identifient 4 protocoles de friction (cautious, antagonist, adjunct, comparative) — le protocole antagoniste correspond à la pratique des personas qui se contestent dans SOFIA. Ce que la pratique Katen fait par design depuis 6 mois, l'académie commence à théoriser. Référence ajoutée dans le livre bleu [^28]. (HHAI-WS 2025, Pisa — La Rosa, Univ. Padova ; Beretta, ISTI-CNR)
- Everything Claude Code — une trentaine d'agents, zéro friction — Le mouvement config-once prend de l'ampleur : une trentaine d'agents spécialisés, plus de cent skills, hooks d'automatisation. Projet communautaire (Affaan Mustafa), non affilié à Anthropic. L'infrastructure fait tourner les agents sans intervention. Signal de contrepoint direct — la vélocité sans friction est le choix dominant de l'industrie. La question que personne ne pose : qui détecte la dette silencieuse quand tous les agents sont d'accord entre eux ? (Mars 2026)
-
Le paradoxe de l'IA #
- Something Big Is Happening — Matt Shumer pose la thèse : l'IA accélère plus vite que ce que le public perçoit. GPT-5.3 Codex a contribué à sa propre création. Le travail cognitif général est menacé à horizon un à cinq ans. Le moment COVID de l'IA, selon lui. (Février 2026)
- The tech stock free fall doesn't make any sense — Bank of America identifie un paradoxe logique dans la correction : le marché panique simultanément sur deux scénarios mutuellement exclusifs — l'IA ne rentabilise pas les investissements ET l'IA est tellement disruptive qu'elle détruit les modèles SaaS existants. Nvidia perd 593 milliards en une journée (record historique), Microsoft 357 milliards en une séance. Les deux thèses ne peuvent pas être vraies en même temps. (Fortune, février 2026)
- How an AI bubble bursting could erode US tech dominance and accelerate China's rise — Chatham House pose l'angle géopolitique : si la bulle éclate, ce n'est pas juste une correction — c'est un transfert de puissance. DeepSeek a prouvé qu'on peut rivaliser pour une fraction du coût. Le paradoxe bulle/transformation coexiste : la correction court-terme est réelle, la technologie est fondamentale long-terme. (Décembre 2025)
Comment c'est construit
Regard(s) n'est pas une curation manuelle. C'est un pipeline d'observation automatisé. Chaque édition est la sortie visible d'un processus qui tourne en continu — collecte, enrichissement, scoring, sélection.
Sources → arXiv · HN · GitHub · LinkedIn · blogs techniques
Filtrage → pertinence orchestration / IA / systèmes formels
Scoring LLM → signal / bruit · émergence · convergence marché
Sélection → 4-6 signaux par édition, éditorialisés
Output → oxynoe.io/regards
Filtrage → pertinence orchestration / IA / systèmes formels
Scoring LLM → signal / bruit · émergence · convergence marché
Sélection → 4-6 signaux par édition, éditorialisés
Output → oxynoe.io/regards