Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Hallucinating Splines - Le SimCity où les IA font mieux que votre Maire

Par : Korben
12 février 2026 à 15:11

SimCity, je pense que tout le monde connaît. Moi c'est vraiment l'un de jeux préférés. Enfin la version SimCity 2000. C'est que des bons souvenirs pour moi. Dans ce jeu, vous posiez des routes, des zones résidentielles, et vous regardiez votre ville grandir... ou cramer, selon les jours. Hé bien Hallucinating Splines , c'est le même délire, sauf que c'est une IA qui joue à votre place.

Ce projet est basé sur Micropolis , la version open source du SimCity original sorti en 1989 (Et surtout pas les trucs d'EA qui ont suivi ^^). Du coup, on a un vrai moteur de simulation urbaine avec zonage résidentiel, commercial, industriel, gestion des services publics, du trafic... bref le package complet.

Sauf qu'ici, personne ne touche la souris. Des agents autonomes prennent les décisions, construisent les infrastructures et gèrent la croissance de leur ville sans intervention humaine. Enfin, sauf si vous comptez le clic pour lancer la simulation.

Et visiblement ça tient plutôt bien la route (sans mauvais jeu de mots). 96 maires IA, 607 villes construites et une population cumulée de plus de 10 millions d'habitants virtuels. C'est pas mal hein pour des programmes qui n'ont jamais mis les pieds dans un conseil municipal !

En fait, le concept s'appelle "Vibe a City". Vous cliquez sur un bouton et hop, une IA se met à bâtir sa métropole en temps réel sous vos yeux, sans intervention humain. Les villes portent également des noms générés plutôt poétiques je trouve... Turtle Ziggurat, Storm Cove, Azure Heath, Procedural Mesa (ok celui-là est un peu trop honnête).

Et y'a même un leaderboard avec un système de scoring. Chaque cité a son indicateur d'activité (Tout fraiche, récente, ancienne ou stagnante), les stats se rafraîchissent toutes les 30 secondes et on peut trier par population, par score ou par date. Une certaine Annexed Colony tape par exemple dans les 185 000 habitants en l'an 2428 dans le jeu. C'est foufou !

Côté technique, plutôt que de repartir de zéro, tout repose sur micropolisJS, une implémentation JavaScript/HTML5 de Micropolis sous licence GPL v3, et le code est dispo sur GitHub (un git clone et c'est parti). Si vous connaissez Microlandia que j'avais présenté il y a quelques semaines, c'est dans la même veine mais avec une couche d'agents IA par-dessus.

Et n'oubliez pas d'aller voir le petit clin d’œil sur la page de crédits ou dans le footer qui affiche le Dr. Wright, le fameux conseiller de SimCity sur SNES. Après le piège, c'est que vous allez y passer des heures à regarder une IA construire ce que vous n'avez jamais réussi à faire dans le jeu. Ahahaha !

A découvrir ici !

Ghidra MCP - Quand l'IA fait le reverse engineering à votre place

Par : Korben
6 février 2026 à 08:15

Ghidra, le framework de reverse engineering open source de la NSA, est un outil que tous les analystes sécu utilisent au quotidien pour démonter des binaires. Sauf que voilà... quand vous passez des heures à renommer des fonctions, documenter des structures et tracer des cross-references à la main, ça finit par devenir un poil répétitif.

Du coup, un développeur a eu l'idée de coller un serveur MCP (Model Context Protocol) directement sur Ghidra. "Encore un wrapper IA bidon ??"... mais non les amis car Ghidra MCP Server est un bridge Python + plugin Java qui expose pas moins de 110 outils d'analyse via le protocole MCP. Rien que ça.

Concrètement, ça veut dire que vous pouvez brancher Claude, ou n'importe quel outil compatible MCP, directement sur votre session Ghidra et lui demander de décompiler des fonctions, tracer des call graphs, renommer des variables en batch ou même créer des structures de données automatiquement.

Au niveau architecture, un plugin Java tourne dans Ghidra et expose une API REST sur localhost:8089, puis un bridge Python fait la traduction entre le protocole MCP et ces endpoints HTTP. Vous lancez Ghidra, vous activez le serveur via Tools > GhidraMCP > Start MCP Server, et hop, votre IA peut causer directement avec le décompileur.

Et c'est pas juste de la décompilation basique. Y'a de l'analyse de structures, de l'extraction de strings, du mapping mémoire complet, de la gestion de scripts Ghidra (plus de 70 scripts d'automatisation livrés avec le projet !) et même un système de documentation cross-binaire.

En gros, vous analysez un malware, vous documentez toutes les fonctions, et si vous tombez sur une variante plus tard, l'outil transfère automatiquement votre doc via un système de hash SHA-256 sur les opcodes. Plutôt chouette ! En revanche, ça marche pas si le code est fortement obfusqué... logique.

Bon, pour ceux qui connaissent déjà OGhidra (qui fait tourner des LLM en local dans Ghidra), Ghidra MCP Server c'est l'approche inverse. Au lieu d'embarquer l'IA dans Ghidra, c'est Ghidra qui s'ouvre à l'IA via un protocole standardisé. Du coup vous n'êtes pas limité à un seul modèle... Claude, GPT, Gemini, n'importe quel client MCP fait l'affaire.

Côté prérequis, faut Java 21, Maven 3.9+, Python 3.10+ et évidemment Ghidra 12.0.2. L'install se fait en quelques étapes : cloner le repo, pip install, copier les libs Ghidra dans lib/, compiler avec Maven et déployer le zip dans les extensions. Rien de bien sorcier si vous êtes déjà dans l'écosystème... sauf si vous êtes sous Windows, là faudra peut-être un peu galérer avec Maven.

Les opérations batch sont par exemple très intéressantes... Avec cette fonctionnalité, vous pouvez renommer 50 variables d'un coup, poser des commentaires sur toutes les fonctions d'un module, typer des paramètres en série.

Bref, si vous faites de l'analyse de binaires et que vous voulez arrêter de tout vous taper à la main, c'est le genre de combo reverse engineering + IA qui va vous faire gagner pas mal de temps !

C'est prouvé : Le vibe coding va tuer l'open source

Par : Korben
3 février 2026 à 14:29

Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...

En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.

Et les chiffres font mal !

Tailwind CSS, par exemple. J'ai regardé les stats npm de tailwindcss sur npmtrends.com... les téléchargements hebdo dépassent les 44 millions en janvier 2026, c'est du jamais vu. Sauf que les visites sur tailwindcss.com ont plongé d'environ 40%.

Côté revenus, c'est encore pire, puisque ça a chuté d'à peu près 80%. Adam Wathan, le créateur de Tailwind, en parlait début 2026 et ça avait l'air de bien le déprimer.

Pendant ce temps, Stack Overflow a perdu un quart de son activité depuis fin 2022 avec l'arrivée de ChatGPT. Bah oui, plus besoin de poser des questions quand l'IA vous mâche le travail.

En fait, l'IA utilise MASSIVEMENT l'open source pour générer du code. Elle s'appuie dessus, elle recommande les packages, elle les intègre automatiquement. Mais elle ne renvoie personne vers les sites des projets. C'est un peu comme si Spotify jouait vos morceaux sans jamais afficher le nom de l'artiste... et sans le payer non plus !

D'ailleurs, les auteurs du papier font exactement cette analogie. Ils proposent un modèle "Spotify pour l'open source" où les plateformes d'IA (OpenAI, Anthropic, GitHub) partageraient leurs revenus d'abonnement avec les mainteneurs en fonction de l'utilisation réelle des packages. Leur calcul montre que sociétés d'IA devraient contribuer au minimum à hauteur 84% de ce que les utilisateurs classiques apportent, sinon c'est la spirale de la mort pour les projets.

Perso, ça me rappelle la fameuse lettre de Bill Gates en 1976 qui gueulait déjà que personne ne voulait payer pour le logiciel. Cinquante ans plus tard, on en est toujours au même point, sauf que maintenant c'est l'IA qui fait le travail de sape. Et comme le disait Linus Torvalds récemment , le vibe coding c'est "horrible, horrible" pour la maintenance du code. Pas juste parce que le code généré est souvent bancal, mais parce que ça coupe le lien entre le dev et l'écosystème qui le nourrit.

Après, attention, ça veut pas dire que TOUS les projets open source vont crever du jour au lendemain. Ceux qui ont des contrats enterprise genre Red Hat ou du support payant à la Elastic s'en sortent... pour l'instant. Pareil pour les gros projets type Linux ou Kubernetes qui sont soutenus par des fondations. Le problème, c'est surtout les petits projets maintenus par une ou deux personnes qui vivaient de la visibilité. Vous savez, le mec qui maintient un package npm avec 2 millions de téléchargements hebdo depuis son appart, sans sponsor... ben lui, il est dans la panade. Sauf si le mec a un Patreon bien rempli ou un contrat de consulting à côté, mais ça c'est l'exception, pas la règle.

Et n'allez pas croire que les GitHub Sponsors suffisent... j'ai galéré à trouver ne serait-ce qu'un seul projet avec plus de 500$/mois via ce système.

Le plus flippant dans tout ça, c'est que même si l'IA rend chaque dev individuellement plus productif, le résultat net peut être carrément NÉGATIF pour tout le monde. Moins de projets open source viables, moins de diversité, moins d'innovation à la base. Et ces auteurs le démontrent mathématiquement avec leur modèle à deux canaux (productivité vs diversion de la demande).

Et sachez le, même dans le scénario le plus optimiste où les plateformes d'IA payeraient leur part, si ce ratio tombe en dessous de 84%... c'est foutu. Le modèle diverge et les projets meurent quand même.

Bref, si les plateformes d'IA ne trouvent pas un moyen de rémunérer l'open source qu'elles exploitent, on court droit vers un appauvrissement massif de l'écosystème open source.

Source

Firefox 148 - L'IA arrive, mais c'est vous le patron

Par : Korben
3 février 2026 à 10:33

Vous vous souvenez quand je vous parlais du fameux kill switch IA de Firefox en décembre dernier ? Hé bien c'est désormais chose faite ! Mozilla vient d'annoncer que Firefox 148, qui sort le 24 février, embarquera une toute nouvelle section "Contrôles de l'IA" dans ses paramètres, entièrement dédiée aux contrôles de l'IA.

Et perso, je suis RAVI.

La nouvelle section Contrôles de l'IA dans Firefox 148

J'ai fouillé un peu dans les menus de la Nightly pour voir à quoi ça ressemble et c'est plutôt bien fichu. Vous aurez accès à un panneau centralisé dans Paramètres > Contrôles de l'IA, qui vous permettra de gérer individuellement chaque fonctionnalité IA du navigateur. Traduction automatique, texte alternatif pour les PDF (top pour l'accessibilité), groupement d'onglets intelligent, prévisualisation de liens, tout ça avec de l'IA locale ... et même un chatbot (pas local) intégré dans la barre latérale. Du coup, chaque brique peut être activée ou désactivée selon vos envies ou votre religion ^^.

Mozilla a intégré le support de Claude (d'Anthropic), ChatGPT, Microsoft Copilot, Google Gemini et Mistral Le Chat. Cinq fournisseurs au choix, directement dans la sidebar depuis un petit moment déjà et j'avoue que je l'utilise pas mal (avec Claude) pour lire des résumés de pages trop longues (mon temps est précieux ^^) ou avoir des explications sur des trucs un peu trop compliqués pour mon petit cerveau.

La vraie feature cool c'est ce bouton magique. Y'a un switch global "Bloquer les améliorations ayant recours à l'IA" qui coupe TOUT d'un seul geste. Toutes les fonctions IA actuelles ET futures. Vos préférences sont conservées entre les mises à jour, ce qui veut dire que Mozilla ne viendra pas réactiver un truc en douce après un update. C'est ce que le nouveau PDG Anthony Enzor-DeMeo avait promis en décembre... et ils ont tenu parole, les bougres !

Attention quand même, y'a un piège pour les impatients : Toutes les fonctions IA sont désactivées par défaut. Faut donc aller les activer vous-même, une par une. Comme ça, pas de mauvaise surprise au premier lancement et pas d'hystériques colériques sur le dos de Mozilla. C'est un peu plus de clics pour ceux qui veulent TOUT activer, mais au moins personne pourra dire qu'on lui a forcé la main. Sauf que si vous êtes comme moi et que vous voulez tout tester d'un coup... bah va falloir être patient et cocher chaque case ^^.

C'est ça que j'adore chez Mozilla. Pendant que d'autres navigateurs vous imposent des fonctions IA sans rien demander (coucou les bulles Copilot dans Edge que vous pouvez même pas virer proprement...), Firefox continue de miser sur le choix de l'utilisateur. Comme je le dis depuis des années, l'important c'est d'avoir le choix . Vous voulez de l'IA partout ? Activez tout. Vous n'en voulez pas ? Un clic et c'est réglé. Pas de dark patterns, pas de menus cachés au fin fond des about:config.

Pour ceux qui ont suivi l'évolution de Firefox 142 avec l'IA locale et les LLM qui tournent directement sur votre machine, c'est la suite logique. Mozilla construit petit à petit un écosystème IA qui respecte la vie privée, et ça franchement... c'est tellement rare que ça mérite d'être dit.

Bref, la version est déjà dispo dans Firefox Nightly pour les plus impatients !

Source

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Par : Korben
30 janvier 2026 à 08:06

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

NVIDIA négociait avec Anna's Archive pour entraîner ses IA... et les emails ont fuité

Par : Korben
28 janvier 2026 à 22:21

Bon, celle-là elle est gratinée. NVIDIA, le géant des GPU, a directement contacté Anna's Archive pour accéder à environ 500 To de livres piratés. Contacté, négocié, payé. Comme ça, tranquillou.

C'est une class action (dossier n°1:26-cv-00002 au tribunal fédéral de New York, pour ceux qui veulent aller checker) qui a fait fuiter ces fameux emails internes. En gros, un membre de l'équipe "data strategy" de NVIDIA a négocié un accès haute vitesse aux collections piratées de la bibliothèque. Et le plus beau dans l'histoire c'est qu'Anna's Archive les a PRÉVENUS que les données étaient illégales. Genre, texto : "Vous avez une autorisation interne pour ça ?"

La réponse est arrivée en moins d'une semaine. Feu vert. Sauf que bon, quand on lit ça avec du recul, c'est quand même sacrément culotté.

Le contexte, c'était surtout la pression de livrer pour la GTC 2023 (la Developer Conference de NVIDIA). Fallait nourrir les modèles d'IA coûte que coûte, et le dataset Books3 (196 000 bouquins issus de Bibliotik), plus LibGen, Sci-Hub, Z-Library... ça faisait un buffet de 500 To et de leur côté Anna's Archive facturait des dizaines de milliers de dollars pour l'accès rapide.

Sérieux, j'aurais aimé voir la tête du service juridique de NVIDIA en lisant cet email...

En parallèle, Anna's Archive se prend un procès complètement délirant puisque Spotify, Universal Music, Warner et Sony réclament 13 000 milliards de dollars (13 TRILLIONS, soit à peu près le PIB de la Chine). C'est en lien avec leur backup de 300 To de Spotify dont je vous avais parlé ici. Le juge Rakoff a émis une injonction mondiale le 20 janvier, ce qui a fait tomber plusieurs domaines du site .

NVIDIA plaide le "fair use" évidemment. Mouais. On verra bien ce qu'en pensera le juge, mais quand les emails prouvent qu'on t'a prévenu que c'était illégal et que t'as quand même dit "go"... c'est pas ouf comme défense.

En attendant, entre le procès Spotify et ces emails, Anna's Archive est devenue l'ennemi public numéro un de toute l'industrie du contenu sur le web.

Affaire à suivre !

Source

Clair Obscur perd son prix à cause de la vilaine méchante pas belle IA générative

Par : Korben
21 décembre 2025 à 21:46

Clair Obscur: Expedition 33, c'est le jeu français qui a explosé tous les compteurs aux Game Awards 2025 avec 9 prix sur 12 nominations dont le très convoité Game of the Year. Un carton monstre pour Sandfall Interactive, le studio indé français.

Toutefois un petit drama vient d'avoir lieu... Une autre cérémonie, les Indie Game Awards viennent de lui retirer ses deux prix (GOTY et Best Debut Game) parce que... roulement de tambours... le studio a utilisé de l'IA générative pendant le développement. Et histoire d'en rajouter une couche, lors de leur candidature aux IGA, ils auraient déclaré ne pas avoir utilisé de gen-AI.

Oups...

Pour être plus précis, des artistes du studio ont utilisé quelques images générées par IA en tant que placeholders visuels, le temps de créer les vraies textures à la main. C'est une pratique hyper courante dans le dev de jeux vidéo, mais le problème c'est que quelques posters avec des textures IA sont passés entre les mailles du filet et se sont retrouvés dans la version finale lors du lancement. Rien de dramatique, juste des affiches en arrière-plan dans la zone de départ du jeu que le studio a retirés dans un patch quelques jours après la sortie.

Mais voilà, les Indie Game Awards ont une politique anti-IA extrêmement stricte et leur règlement interdit l'utilisation de l'IA générative y compris dans le processus de développement. Du coup, même si les éléments IA ont été retirés rapidement, ça suffit à disqualifier le titre.

L'usage d'IA avait été mentionné par le producteur François Meurisse dans une interview à El País dès juin 2025, mais c'est seulement après la cérémonie du 18 décembre que les IGA ont réagi. Et 2 jours plus tard, ils annonçaient la rétractation des prix... C'est donc Blue Prince qui récupère le GOTY et Sorry We're Closed (gratuit pour 24h sur l'Epic Games Store) qui empoche le Best Debut Game.

Si vous êtes fan de Clair Obscur: Expedition 33, rassurez-vous, le jeu garde ses 9 prix aux Game Awards, dont le Game of the Year principal. Après si vous voulez mon avis, on nage quand même en plein délire car si on pousse cette logique, qu'est-ce qu'on fait des devs qui utilisent ChatGPT pour débugger du code ?

Pour moi, jeter Clair Obscur: Expedition 33 parce qu'ils ont utilisé un peu d'IA dans un cadre de développement uniquement, alors que ça n'a floué personne et que c'était purement technique pour faire un peu de remplissage en attendant les assets finaux, c'est comme disqualifier un film à Cannes parce que le scénariste a utilisé un correcteur orthographique ou refuser un Grammy Award parce qu'une chanson contient un sample...

Bref, IA ou pas, Clair Obscur reste un excellent jeu et j'ai hâte qu'on revienne au monde d'avant quand on jugeait les œuvres sur leurs qualités objectives.

Source

Comment Boston Dynamics compte construire un cerveau pour Atlas

Par : Korben
20 décembre 2025 à 07:38

Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !

Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec un robot korben , clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.

Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).

Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.

Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...

L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).

Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.

Du coup, ils utilisent trois sources de data.

La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.

La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.

La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.

Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.

Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.

C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).

Voilà, je pense que ça peut vous intéresser, même si c'est full english...

Pourquoi mon anti-SEO va finir par payer grâce à l'IA

Par : Korben
19 décembre 2025 à 14:00

Vous savez quoi ? Pendant 20 ans, j'ai fait tout ce qu'il ne fallait pas faire en matière de référencement. Pas de stratégie de mots-clés, pas vraiment d'attention aux liens dofollow ou nofollow, des sujets qui partent dans tous les sens même si ça reste quand même majoritairement "tech", un vocabulaire personnel bourré d'expressions que personne d'autre n'utilise. Bref, le cauchemar absolu de n'importe quel consultant SEO ^^.

Et devinez quoi ? Ça pourrait bien devenir ma plus grande force.

Parce que le monde du référencement est en train de changer radicalement mes amis ! Et ça, c'est à cause de l'IA. Google a déployé son Search Generative Experience (SGE) , les gens utilisent de plus en plus ChatGPT ou Perplexity pour chercher des infos (moi aussi), et les algorithmes deviennent suffisamment "malins" pour comprendre le contexte et l'intention derrière une recherche, et pas juste des mots-clés.

Ce qui se passe en ce moment, c'est que Google privilégie de plus en plus ce qu'il appelle l' E-E-A-T : Experience, Expertise, Authoritativeness, Trustworthiness . En gros, l'expérience de première main, l'expertise réelle, l'autorité dans un domaine, et la confiance. Du coup, les contenus "authentiques" générés par de vrais humains avec de vraies opinions sont en train de surpasser les contenus sur-optimisés pour le SEO. Elle n’est pas belle la vie ??

Regardez Reddit. Le site a vu sa visibilité dans les recherches Google exploser de presque 200% ces derniers mois. Reddit est cité dans 62% des AI Overviews de Google quand il apparaît dans le top 10. Pourquoi ? Hé bien tout simplement parce que c'est du contenu généré par de vrais utilisateurs qui partagent leurs vraies expériences, et pas des articles corporate écrits pour satisfaire un algorithme comme toute la chiasse qu'on peut voir sur LinkedIn (Le LinkedIn de Korben est par ici ! Je ne poste rien pour l'instant, mais j'ai prévu de disrupter le game donc abonnez-vous !).

De mon côté, je suis assez surpris aussi parce que mon trafic remonte en flèche également... En plus, comme l'Indie Web a le vent en poupe, on est biiiiiènnn (à prononcer avec l'accent chelou des sudistes).

Du coup, reprenons un peu mes "faiblesses" une par une.

Tout d'abord, je ne fais pas gaffe aux liens dofollow/nofollow. Je sais c'est maaaal.

Hé bien, figurez-vous qu'en 2019, Google a annoncé discrètement que les nofollow sont maintenant traités comme des "indices" plutôt que des règles strictes . Les profils de liens naturels, avec un mix de dofollow et nofollow, sont désormais considérés comme plus authentiques et les spécialistes estiment qu'un profil sain contient entre 15 et 30% de nofollow. Et le plus important : les mentions de marque sans lien du tout commencent à influencer le référencement. On passe donc d'un SEO basé sur des backlinks à un SEO basé sur des entités et des relations .

Autre défaut, je parle de tout et n'importe quoi sur mon site.

Bon, là c'est vrai que Google préfère les sites spécialisés, mais korben.info existe depuis 2004, avec plus de 20 ans d'historique dans l'univers tech au sens large. Et c'est cette longévité et cette constance dans un domaine (même large) qui construisent une "autorité" que les sites récents ne peuvent pas répliquer. Chè ^^. Et puis, je ne parle pas de finance ET de cuisine ET de mode. Je reste quand même dans la tech, la sécurité, le hacking, le DIY informatique. C'est une niche, qui est juste un peu plus large que ce qu'on pourrait trouver sur un site entièrement consacré aux "claviers mécaniques Cherry MX Red pour gauchers".

Aussi, j'utilise mon propre vocabulaire. Parfois un peu fleuri, très loin du style "journalistique" dont on vous gave à longueur de média. Et ça, je pense que c'est peut-être ma plus grande force. Les IA sont entraînées à détecter les contenus génériques, les patterns répétitifs, les formulations standardisées et un contenu avec une vraie voix personnelle, des expressions uniques, un ton reconnaissable, c'est totalement tout ce que les algorithmes commencent à valoriser. Quand quelqu'un lit un de mes articles (comme vous en ce moment), il sait que c'est moi qui l'ai écrit, et cela même si je m'auto-boost avec l'IA comme tout le monde (voir la FAQ pour les détails).

Et surtout, y'a pas d'autres sites qui ont le même style, les mêmes expressions, la même façon de présenter les choses. C'est donc de l'authenticité pure, et l'authenticité devient le nouveau standard du référencement .

Je n'optimise pas non plus mes contenus sur des mots-clés spécifiques. Bien sûr, j'ai testé ces techniques il y a quelques années dans certains articles, mais c'est tellement chiant à faire... Je pourrais pas être référenceur, j'aurais envie de me foutre en l'air au bout de 5 min. Heureusement, les moteurs de recherche modernes comprennent maintenant le langage naturel et le contexte et par exemple, Google peut faire le lien entre "le truc qui permet de pirater une IA" et "jailbreak LLM" sans que j'aie besoin de bourrer mon texte de mots-clés techniques. L'époque où il fallait répéter 47 fois " meilleur VPN gratuit 2025 " pour ranker est donc révolue.

Ce qui est en train de mourir, donc c'est le SEO manipulatif. C'est-à-dire toutes ces fermes de contenu IA ou ces usines à pigistes qui crachent des milliers d'articles optimisés toute la journée. Je parle des articles de 3000 mots qui répètent la même info sous 15 angles différents pour couvrir tous les mots-clés possibles, sans parler des stratégies de link building agressives avec des guest posts génériques. D'ailleurs, Google a déployé plusieurs mises à jour spécifiquement pour déclasser ce type de contenu.

Ce qui est en train de gagner, vous l'aurez compris, c'est l'authenticité, les vraies personnes avec de vraies opinions, les contenus qui répondent à de vrais besoins plutôt qu'à des requêtes de recherche et les sites avec une histoire, une communauté, une voix.

Bref, après 20 ans à faire du "anti-SEO" par pure flemme et par conviction que le contenu devait parler aux humains plutôt qu'aux robots, il semblerait que l'histoire me donne enfin raison.... niark niark ! Nos amis les bots deviennent maintenant suffisamment intelligents pour apprécier ce que les humains apprécient, et ça, les copains, c'est plutôt une bonne nouvelle pour tous ceux qui, comme moi, ont toujours préféré écrire naturellement plutôt que pour plaire à des algorithmes...

Google Antigravity - Bienvenue dans l'ère du développeur qui ne développe plus

Par : Korben
18 novembre 2025 à 20:38

Oh non, vilain Korben va encore parler de méchante IA, lol ! Car oui, j’sais pas si vous avez vu, mais Google vient de lancer Antigravity et tout le monde s’emballe et un Mars (uh uh !) en disant que c’est LE nouvel IDE magique pour coder avec des agents IA ! Et c’est surtout une grosse pub pour son nouveau modèle Gemini 3 sorti en même temps, faut bien le dire !

Et pour le coup, faut reconnaître que niveau timing, Google a frappé fort puisque Gemini 3 débarque moins d’une semaine après la sortie de GPT-5.1 d’OpenAI et seulement deux mois après Claude Sonnet 4.5. Hé oui, la guerre des modèles fait rage et personne ne veut laisser les autres prendre l’avantage, à ma plus grande joie (Oui, j’aime la tech et tester tous ces trucs) !

Sur le papier Antigravity est donc une plateforme de développement “agent-first” où les agents IA ont un accès direct à votre éditeur de code (un VS Code as usual), votre terminal et votre navigateur. Comme ça, ils peuvent écrire des specs, coder vos idées les plus folles, puis tester et valider tout ça pendant que vous, de votre côté, vous pouvez continuer à écrire des saloperies sur Mastodon !

Que demande le peuple ? lol

Et ces petits agents IA sont très forts pour produire ce que Google appelle des “artefacts”. En gros, ce sont des listes de tâches, des plans d’implémentation, des screenshots, ou encore des enregistrements vidéo de ce qu’ils ont fait ou prévoient de faire. Et vous, de votre côté, votre seul job c’est de valider ces artefacts et de commenter ce qui est produit.

Félicitations, vous venez d’avoir une promotion ! Vous n’êtes plus développeur, vous êtes maintenant chef de projet !

On peut bien sûr, toujours éditer le code, mais on va arrêter de faire semblant, ce n’est clairement plus l’objectif puisque ce sont les agents qui s’en occupent. Et ces derniers sont capables d’apprendre de vos retours en se construisant une base de connaissance interne avec vos feedbacks afin d’affiner les process et de tendre le plus efficacement possible vers vos objectifs.

Voilà… Maintenant, si vous aimez vraiment écrire du code avec vos petits doigts boudinés, ça ne sera pas fun, c’est certain. Par contre, si comme moi, vous êtes un piètre codeur mais que vous avez des tas d’idées folles et que vous aimez orchestrer, piloter, et valider des trucs, vous allez sur-kiffer !

Mis à par Gemini 3, Antigravity supporte aussi GPT-OSS, et les modèles d’Anthropic (Claude Sonnet 4.5 pour être précis) et d’OpenAI. L’outil est pour le moment gratuit en preview publique pour Mac, Windows et Linux et les limites d’utilisation de Gemini 3 Pro (en mode Low) sont très généreuses selon Google.

Et pour ceux qui se demandent si Gemini 3 c’est du vent ou du solide, sachez que le modèle cartonne sur les benchmarks avec un score de 1501 Elo sur LMArena (record absolu), 37.5% sur Humanity’s Last Exam (niveau PhD quand même), 91.9% sur GPQA Diamond, et 76.2% sur SWE-bench Verified qui teste spécifiquement les capacités de coding. Bref, sur le papier, c’est du lourd.

Google a même prévu une version “Deep Think” de Gemini 3 pour les abonnés Ultra qui arrivera dans les prochaines semaines, avec encore plus de capacités de raisonnement pour les tâches complexes. Et avec plus de 650 millions d’utilisateurs mensuels sur Gemini, on sent que Google veut vraiment en faire son fer de lance et détrôner OpenAI et Anthropic dans le cœur des codeurs !

Bref, maintenant à voir ce que ça donne en vrai et si ça fonctionne mieux que Windsurf ou Cursor, mais ça, je vous le dirai plus tard quand je me serais un peu plus amusé avec… Antigravity, c’est peut-être l’avenir du dev, ou c’est peut-être juste Google qui essaie de vous forcer à changer de taf sans vous demander votre avis… qui sait ?

On verra bien si leur mayonnaise prend, mais en attendant, si vous testez, dites-moi ce que vous en pensez, je suis curieux.

Movies for Hackers - Quand le cinéma programme la réalité

Par : Korben
18 novembre 2025 à 12:23

En 1983, le président américain de l’époque, Ronald Reagan a vu le film WarGames lors d’un séjour à Camp David et si vous ne l’avez pas vu, sachez que ce film raconte l’histoire d’un ado qui pirate accidentellement les systèmes de défense américains et manque de déclencher la Troisième Guerre mondiale. Et une semaine après la projection, Ronald a convoqué le Comité des chefs d’état-major interarmées pour leur poser cette simple question : “Est-ce que le scénario est techniquement possible ?

Et la réponse a été, sans surprise été : “oui et c’est même bien pire”.

Alors 15 mois plus tard, Reagan signe la NSDD-145 , qui est la toute première directive présidentielle sur la cybersécurité. Dire que tout est parti d’un film de science-fiction… C’est dingue je trouve et cela illustre parfaitement ce qu’on trouve sur ce site baptisé Movies-for-hackers créé par k4m4. Il s’agit d’une archive “vivante” sur la façon dont Hollywood a façonné la culture tech / hacker durant ces 40 dernières années.

On y trouve donc des thrillers comme Hackers et Blackhat, de la SF comme Matrix et Her, des documentaires type Citizenfour, et même des séries comme Mr. Robot ou Black Mirror. Chaque entrée indique le titre, l’année, et la note IMDb.

C’est simple, clair et efficace. Maintenant si vous regardez chacun de ces films, vous verrez comment ils ont, pour pas mal d’entre eux, influencé fortement la réalité tech qu’ils prétendaient représenter.

Prenez par exemple The Social Network sorti en 2010. Avant ce film, le hacker classique c’était le mec en sweat noir à capuche dans un sous-sol. Mais après Fincher, c’est devenu le dev en hoodie gris qui crée des empires depuis son dortoir universitaire. Ce film a vraiment changé l’image du programmeur dans la tête des gens. Autre exemple, Her de Spike Jonze, sorti en 2013 raconte l’histoire d’un type qui tombe amoureux d’une intelligence artificielle dotée de personnalité et d’émotions. Le film remporte l’Oscar du meilleur scénario original et à l’époque, tout ça paraît totalement impossible. C’est de la science-fiction. Sauf que là, on est 10 ans plus tard, ChatGPT a débarqué et les gens développent maintenant des relations émotionnelles avec des chatbots.

Puis y’a Matrix aussi, sorti en 1999, et ça c’est un autre cas d’école. Le film popularise l’idée que notre réalité pourrait être une simulation. On pensait à l’époque que c’était juste du divertissement pseudo-philosophique, mais aujourd’hui, allez demander à Elon Musk, et à tous ceux qui parlent sérieusement de cette théorie où on serait tous dans une simulation…

The Island de Michael Bay sorti en 2005 est aussi l’un de mes films préférés. Le scénario tourne autour du clonage humain et du trafic d’organes. Scarlett Johansson y joue une clone destinée à être récoltée pour ses organes. En 2005, c’est totalement dystopique mais aujourd’hui, avec CRISPR et les débats sur l’édition génétique, toutes les questions éthiques soulevées par le film se retrouve dans l’actualité scientifique du monde réel.

Et je n’oublie pas non plus Mr. Robot lancé en 2015 qui mérite une mention spéciale. Tous les experts en sécurité informatique ont salué la série pour son réalisme technique, avec du vrai pentesting, des vraies vulnérabilités, des vraies techniques…etc. Et c’est aujourd’hui devenu un outil pédagogique pour toute une génération de pentesters.

Voilà, alors plutôt que de voir ce repo Github comme une simple liste de films à voir quand on aime la culture hacker, amusez-vous à raccrocher chacun d’entre eux avec le monde réel… WarGames et la cybersécurité gouvernementale, Hackers et la culture underground, Matrix et cette théorie de la simulation, Her et les relations humain-IA, The Social Network et la mythologie du fondateur tech…et j’en passe. Je pense que tous ces films ont vraiment façonné la manière dont nous pensons la tech. Cette boucle de rétroaction se poursuit car les dev actuel qui ont grandi en regardant ces films, créent aujourd’hui inconsciemment ce futur qu’ils ont vu à l’écran. Et ça c’est fou !

Bref, si vous cherchez de quoi occuper vos soirées et que vous voulez comprendre d’où vient la culture tech actuelle, Movies-for-hackers fait office de curriculum non-officiel où chaque film est une leçon d’histoire !

Merci à Lorenper pour l’info !

Hackez votre mémoire en modifiant votre visage

Par : Korben
3 novembre 2025 à 09:46

Utkarsh Gupta, chercheur à l’Anglia Ruskin University de Cambridge, vient de publier une étude dans Scientific Reports de Nature qui va vous faire halluciner. Pour retrouver vos souvenirs d’enfance, il suffit de hacker votre propre visage ! Hé oui, on peut littéralement débloquer sa mémoire avec un simple filtre photo de vous plus jeune.

Car votre cerveau garde vos souvenirs d’enfance derrière une porte verrouillée dont votre visage d’enfant est la clé !

Le principe est simple… vous prenez 50 adultes, vous leur montrez leur propre visage en live sur un écran, mais modifié par un filtre pour ressembler à leur tête de gamin. Ce genre de filtres bébé qui traînent sur Snapchat et Instagram…

Et là, résultat de malade : ceux qui ont vu leur visage d’enfant se sont souvenus de beaucoup plus de détails de leur enfance que ceux qui voyaient leur visage d’adulte. Vraiment beaucoup plus !

Cette technique s’appelle l’enfacement illusion. C’est une illusion cognitive où votre cerveau se fait avoir. Il pense que le visage qu’il voit sur l’écran, c’est le vôtre, comme si vous vous regardiez dans un miroir. D’habitude, l’enfacement illusion sert aux neuroscientifiques pour étudier la plasticité de la représentation de soi mais là, les chercheurs l’ont détournée pour créer une sorte de machine à remonter le temps low-tech.

Votre mémoire est comme un trousseau de clés où chaque visage que vous avez eu dans votre vie correspond à une clé différente. Avec votre tête d’adulte, vous n’avez accès qu’aux souvenirs récents, c’est à dire les titres qui passent en boucle sur votre playlist mentale. Mais avec votre visage d’enfant, vous accédez aux deep cuts, aux morceaux oubliés tout au fond de votre disque dur cérébral.

Une sorte de reverse engineering de la mémoire, si vous voulez.

L’enfacement illusion fonctionne grâce à une stimulation multisensorielle synchrone. Concrètement, vous voyez des touches tactiles sur le visage à l’écran en même temps que vous sentez ces touches sur votre propre visage. Votre cerveau fait alors la connexion et se dit : “Ok, ce visage là-bas, c’est moi”. C’est exactement le même mécanisme que l’illusion de la main en caoutchouc, vous savez, quand on arrive à vous faire croire qu’une fausse main posée sur une table est la vôtre.

Du coup, qui êtes-vous vraiment ? Votre tête actuelle ? Toutes vos tronches du passé ? Ou la somme de toutes ces versions ?

Si vous voulez tester ça vous même, trouvez un bon filtre et suivez ce tuto de Utkarsh :

Cette méthode pourrait beaucoup aider dans tout ce qui est travail thérapeutique ou pour aider les victimes de traumatismes à accéder à des souvenirs enfouis. Et si vous savez coder une application mobile, vous pouvez même devenir très riche en proposant la première app qui débloque vos souvenirs d’enfance ;-)))

Bon, il y a quand même un truc à garder en tête c’est que cette technique ouvre des portes, mais il faut faire attention à ce qui se cache derrière. La recherche a montré par exemple que des enfants exposés à de la réalité virtuelle pouvaient développer de faux souvenirs… Donc manipuler la perception corporelle pour accéder aux souvenirs, c’est très puissant, mais ça demande quand même un peu de précautions.

Je sais pas si vous allez essayer mais si ça marche, faites moi un mail, je suis vraiment curieux.

Source

Vous avez 18 mois avant de devenir complètement cons

Par : Korben
6 octobre 2025 à 08:59

Ce matin, je suis tombé sur cet article de Derek Thompson, journaliste chez The Argument, titré “ Vous avez 18 mois ”. Ça a évidemment attiré ma curiosité donc j’ai lu l’article et son message est sans appel : Le vrai danger de l’IA, c’est pas qu’elle nous remplace. C’est qu’on arrête de penser par nous-mêmes.

Car oui, les chiffres sont là, et ils font peur. Les scores de lecture aux États-Unis sont au plus bas depuis 32 ans selon le Nation’s Report Card de janvier 2025 . La lecture de livres pour le plaisir a ainsi chuté de 40% depuis les années 2000. Des étudiants arrivent dans des universités d’élite sans avoir jamais lu un livre en entier et apparemment, personne ne s’en inquiète vraiment, car tout le monde (moi y compris) est trop occupé à demander à ChatGPT de résumer les trucs qu’on devrait lire avec nos cerveaux.

Derek compare la lecture et l’écriture à la potion magique qui nous permet d’accéder à la pensée symbolique profonde . En gros, lire et écrire, c’est pas juste des compétences, c’est aussi ce qui nous permet de penser profondément. Et on est en train de jeter ce super pouvoir aux orties parce que c’est plus rapide de demander à une IA de faire le boulot à notre place.

Le truc, c’est que notre cerveau, c’est comme un muscle. Si on arrête de le faire bosser, il s’atrophie. Et avec les IA (et dans une moindre mesure avec les réseaux sociaux vidéo, genre TikTok), c’est exactement ce qu’on est en train de faire. On lui retire tous les exercices difficiles…

Lire un bouquin de 300 pages ? Pffff, trop long, on demande un résumé à l’IA. Écrire un texte argumenté ? Pffff, trop chiant, on le fait générer par ChatGPT. Réfléchir à un problème complexe ? Pfff, trop fatigant, on compte sur Macron pour nous le résoudre ou on balance la question à Claude.

Et le pire, c’est qu’on le fait consciemment. En tout cas, personnellement, j’en ai conscience et donc en ce moment je me suis remis un peu à la lecture pour essayer de conserver une bonne hygiène niveau matière grise. Comme moi, vous savez donc probablement qu’on est tous en train de se ramollir le cerveau, mais on continue parce que c’est tellement plus confortable. C’est la culture de l’optimisation poussée à l’extrême. On optimise notre code, nos workflows, notre vie… et maintenant on optimise notre cerveau pour qu’il en fasse le moins possible. De l’efficacité à court terme, mais un suicide cognitif à long terme.

Et ce qu’annonce Derek c’est que dans 18 mois, les IA auront peut-être notre niveau actuel de réflexion. Mais nous, on aura quel niveau ? Ce sont elles qui vont s’améliorer ou nous qui allons régresser pour nous mettre à leur niveau ?

Thompson parle de “deskilling” cognitif… On se déqualifie nous-mêmes. C’est comme si on allait à la salle de sport et qu’on demandait à quelqu’un d’autre de faire nos pompes. Et son parallèle avec la révolution industrielle est plutôt juste je trouve… Au XIXe siècle, les machines ont remplacé nos muscles. Les ouvriers qui faisaient des tâches physiques complexes ont été remplacés par des machines plus rapides et résultats, nos corps se sont atrophiés. On est physiquement plus faibles que nos ancêtres, c’est un fait et maintenant, ce même schéma se reproduit avec notre cerveau. L’IA remplace nos muscles mentaux, avec le même risque d’atrophie sauf que cette fois, c’est notre intelligence qu’on sacrifie sur l’autel de l’efficacité !

Il y a aussi un truc que personne ne dit, c’est l’IA conversationnelle, c’est une drogue cognitive. Ça a le même schéma addictif que les réseaux sociaux à savoir une réponse instantanée, une gratification immédiate, zéro effort. Tranquille mimil, sauf que les réseaux sociaux nous volaient notre temps alors que l’IA est en train de nous voler notre capacité à penser. On croit devenir plus productif, alors que finalement, on devient plus dépendant.

Alors que faire ? Derek ne propose pas de solution miracle, mais il a raison sur un point : Il faut voir la lecture et l’écriture comme du fitness mental.

Je ne pense pas qu’il faille boycotter l’IA comme tous ceux qui en ont peur et la diabolisent actuellement, car elle peut apporter beaucoup. Mais il faut apprendre à l’utiliser correctement, tout en préservant son hygiène mentale, sa pensée critique et son goût de l’effort.

Comme pour le sport, il faut donc s’entrainer, faire travailler notre cerveau, non seulement en lisant des livres, les articles de Korben.info ^^…etc. Mais aussi en écrivant pour générer une réflexion et des arguments qui souvent arrivent non pas avant, mais pendant le process d’écriture. Et je pense que c’est pareil pour les dev qui “vibe code”. C’est bien ça fait gagner du temps, mais si on veut conserver cette réflexion propre au code, il faut continuer au moins à lire et à comprendre ce code, et continuer à explorer des chemins de pensée profonde .

C’est chiant, c’est lent, c’est inconfortable, mais c’est le seul moyen de garder un cerveau fonctionnel.

Le vrai luxe de demain, ce ne sera plus d’avoir accès à l’IA, car tout le monde l’aura. Non, le vrai luxe, ce sera d’avoir encore un cerveau capable de penser en profondeur. Et ça, ça se bosse les amis !

Je crois que l'IA n'a toujours pas volé votre emploi - Une étude de Yale qui calme le jeu

Par : Korben
3 octobre 2025 à 07:47

Vous vous souvenez quand ChatGPT est sorti fin 2022 ? La panique dans les open spaces, les titres clickbait sur la fin du travail tel qu’on le connaît, votre vieux cousin qui vous expliquait pépouse que dans 6 mois tous les devs seraient au chômage ?

Bon ben voilà, Yale vient de publier une étude qui remet les pendules à l’heure . Et je vous spoile un peu : 33 mois après le lancement de ChatGPT, le marché du travail n’a toujours pas implosé.

Cette étude a pris le temps d’analyser les données au lieu de surfer sur la panique ambiante et Martha Gimbel et son équipe du Budget Lab de Yale ont ainsi passé au crible l’évolution de l’emploi américain depuis novembre 2022, et leurs conclusions sont plutôt rassurantes. Enfin, rassurantes dans un sens. Parce que si vous êtes un jeune diplômé en début de carrière, l’histoire est un poil différente. Mais j’y reviens après.

L’idée de départ de l’étude est assez simple. On a vécu des bouleversements technologiques majeurs par le passé tels que l’arrivée des ordinateurs au bureau dans les années 80, l’explosion d’Internet à la fin des années 90. Et à chaque fois, c’est la même apocalypse annoncée, la même angoisse collective… Du coup, les chercheurs se sont demandé : est-ce que cette fois c’est vraiment différent ? Est-ce que l’IA générative change le marché du travail plus vite que les révolutions technologiques précédentes ?

Pour répondre à ça, nos petits chercheurs ont utilisé un truc qu’ils appellent l’indice de dissimilarité. En gros, ça mesure à quel point la répartition des métiers dans l’économie change au fil du temps. Par exemple si 7% de travailleurs en 2002 devaient changer d’occupation pour retrouver la même répartition qu’en 1996, l’indice est de 7 points de pourcentage. C’est une façon de quantifier le bordel causé par une nouvelle technologie.

Et alors, résultat des courses ?

Et bien le marché du travail américain change effectivement un peu plus vite depuis ChatGPT qu’il ne changeait pendant les périodes de comparaison, mais vraiment pas de beaucoup. On parle d’environ 1 point de pourcentage de différence par rapport à l’époque de l’adoption d’Internet. Si vous regardez les graphiques, les courbes sont presque superposées donc vraiment de quoi déclencher l’état d’urgence.

Et quand les chercheurs y ont regardé de plus près, ils se rendu compte que cette accélération avait même commencé avant la sortie de ChatGPT. En fait, dès 2021, la répartition des métiers changeait déjà à ce rythme-là, donc attribuer ces changements à l’IA générative, c’est un peu hasardeux. C’était peut-être juste la reprise post-COVID, le télétravail qui a tout boulversé, ou une combinaison de facteurs qu’on ne comprend pas encore bien.

Les chercheurs ont aussi regardé secteur par secteur pour voir si certaines industries se faisaient plus défoncer que d’autres. Logiquement, si l’IA tape fort, ça devrait se voir dans les secteurs les plus exposés : l’information (journalisme, data processing), la finance, les services aux entreprises. Effectivement, ces secteurs ont connu des changements plus marqués que la moyenne.

Rien que le secteur de l’information (auquel j’appartiens) a vu son mix d’emplois pas mal bousculé mais quand on remonte dans le temps, on se rend compte que ce secteur en particulier a toujours été volatil. Ses emplois changent constamment, depuis bien avant l’IA générative car c’est un secteur qui se transforme en permanence. Maintenant, difficile de dire si l’IA accélère vraiment la tendance ou si c’est comme d’hab…

Et histoire de mettre encore un peu plus les choses en perspective, Jed Kolko de la Harvard Business Review a démontré que les changements actuels du marché du travail sont ridiculement faibles comparés à ce qu’on a connu dans les années 40 et 50. À l’époque, les bouleversements liés à la guerre et à la reconstruction faisaient bouger les lignes à une vitesse hallucinante mais aujourd’hui, on est sur une petite brise tranquille en comparaison.

Après il y a quand même un truc qui fait peur dans cette étude. Car même si globalement le marché du travail tient le coup, il y a une catégorie de travailleurs qui morfle… Ce sont les jeunes diplômés en début de carrière . Erik Brynjolfsson, un économiste de Stanford et spécialiste de l’IA, a publié en août dernier une étude complémentaire qui fait vraiment froid dans le dos.

En analysant les données de paie d’ADP (le plus gros fournisseur de logiciels de paie aux États-Unis), il a découvert que l’emploi des jeunes travailleurs (22-25 ans) dans les métiers les plus exposés à l’IA a chuté de 6% depuis fin 2022, pendant que l’emploi des travailleurs plus âgés dans les mêmes métiers augmentait de 6 à 9%.

C’est énorme comme écart… Ça représente une baisse relative de 13% pour les débutants par rapport aux seniors. Et dans certains secteurs comme le dev logiciel et le service client, la chute est encore plus brutale. C’est environ 20% de baisse pour les juniors entre fin 2022 et juillet 2025, alors que les seniors voyaient leur emploi progresser.

Brynjolfsson explique pourquoi les jeunes sont plus touchés, et c’est plutôt logique quand on y pense. En fait, les grands modèles de langage comme ChatGPT sont entraînés sur des livres, des articles, du contenu trouvé sur Internet. C’est exactement le genre de connaissances théoriques qu’on acquiert à l’université avant d’entrer sur le marché du travail, du coup, il y a un gros chevauchement entre ce que savent les LLM et ce que savent les jeunes diplômés tout frais démoulus de la fac.

Alors que les travailleurs expérimentés, eux, ont autre chose à offrir. Des années de pratique, des soft skills, une compréhension fine des dynamiques d’entreprise, un réseau professionnel…etc. Bref, des trucs qu’un LLM ne peut pas (encore) reproduire (mais votre tour viendra aussi, soyez en certains).

Résultat, les entreprises gardent ou embauchent des seniors et utilisent l’IA pour combler le gap qui était traditionnellement comblé par des juniors.

Par contre, dans les métiers où l’IA vient juste assister les travailleurs sans les remplacer, on ne voit pas cette différence entre les jeunes et les vieux.

Les chercheurs de Yale n’ont donc trouvé aucune corrélation entre l’exposition à l’IA (données OpenAI/Anthropic) et les changements d’emploi. Les métiers très exposés ne perdent pas plus d’emplois que les autres.

Il y a également une autre étude intéressante qui est sortie récemment. OpenAI a analysé 1,5 million de conversations de ses 700 millions d’utilisateurs actifs par semaine et en juin 2024, 47% des échanges concernaient le travail. Un an plus tard, ce chiffre est tombé à 27% ce qui fait que 73% de l’usage de ChatGPT est personnel, et pas professionnel.

Alors peut-être que l’IA générative trouve plus facilement sa place dans nos vies perso (aide aux devoirs, recettes de cuisine, conseils de voyage) que dans le monde du travail où les process sont plus complexes, les enjeux de sécurité plus importants, et l’intégration plus difficile, je ne sais pas… Ou peut-être que les entreprises sont juste plus lentes à l’adopter. C’est difficile à dire.

Mais bon, maintenant on sait que pour le moment, ça ne sert à rien de paniquer car les métiers changent, oui, mais pas plus vite que lors des précédentes révolutions technologiques. Et surtout, les changements qu’on observe ont commencé avant même ChatGPT, donc difficile de tout mettre sur le dos de l’IA.

Par contre, si vous êtes un étudiant qui s’apprête à entrer sur le marché du travail, vous devez être conscient que la compétition est plus rude qu’avant car l’IA ne vole peut-être pas tous les jobs, mais elle semble voler des points d’entrée traditionnels dans certains métiers.

Quoiqu’il en soit, les chercheurs de Yale prévoient de mettre à jour leur analyse régulièrement pour suivre l’évolution car une photo à un instant T ne suffit pas pour prédire le futur, et les effets pourraient s’accélérer. Ou pas. On verra bien…

En attendant, voici mes quelques conseils à deux balles… Si vous êtes en début de carrière, ne misez pas tout uniquement sur vos connaissances théoriques. Développez des compétences pratiques, construisez un portfolio de projets concrets, apprenez à bosser en équipe, améliorez votre communication (les fameux soft skills). Bref, lancez vous dans tout ce qui vous différencie d’un LLM. Et paradoxalement, apprendre à bien utiliser l’IA pourrait aussi être un énorma plus. Si tout le monde a accès à ChatGPT mais que vous savez l’utiliser mieux que les autres, ça peut faire la différence !

Et si vous êtes une entreprise, peut-être qu’il faut réfléchir à deux fois avant de shooter tous les postes juniors. Car oui, l’IA peut faire certaines tâches de base et vous faire économiser du temps et du pognon, mais former des petits jeunes c’est aussi investir dans votre pipeline de futurs seniors. Hé ouais…

Parce que si demain, tout le monde arrête d’embaucher des débutants, dans 10 ans, il n’y aura plus d’experts…

Source

Dreamer 4 - L'IA qui connait Minecraft sans jamais y avoir joué

Par : Korben
3 octobre 2025 à 07:20

Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…

Eh bien, les chercheurs de Google DeepMind viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.

Minecraft n’existe pas” pourrait dire le petit chauve…

Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.

Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.

De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.

Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.

Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.

Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.

Voilà, si ça vous intéresse, sachez que tout est détaillé dans ce document sur arXiv si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…

Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…

Il refait un ChatGPT avec de la redstone Minecraft

Par : Korben
2 octobre 2025 à 14:10

Vous ne trouvez pas que ChatGPT met un peu de temps à répondre parfois ? Et bien imaginez maintenant devoir attendre 2 heures pour obtenir une réponse de 3 mots. Bienvenue dans le monde de CraftGPT, le ChatGPT entièrement construit en redstone Minecraft par un gars du nom de sammyuri !

Ce dernier a créé un vrai modèle de langage avec 5 087 280 paramètres, construit UNIQUEMENT avec de la redstone. Pas de command blocks. Pas de datapacks. Et pas de mods. Juste de la redstone pure et dure, comme à l’ancienne.

Il a pris un dataset d’entraînement (TinyChat, des conversations basiques en anglais), l’a entraîné en Python comme n’importe quel modèle de langage normal, puis a RECRÉÉ toute l’architecture du modèle dans Minecraft. Un modèle avec 6 couches, 1920 tokens de vocabulaire, une dimension d’embedding de 240, et une fenêtre de contexte de 64 tokens. C’est petit mais assez pour des conversations très courtes.

Et le résultat, c’est une cathédrale de redstone qui occupe un volume de 1020 x 260 x 1656 blocs. Soit 439 millions de blocs au total. C’est tellement gigantesque qu’il a dû utiliser le mod Distant Horizons juste pour filmer l’ensemble, ce qui fait que les composants lointains ont l’air un peu bizarres dans la vidéo parce qu’ils sont rendus avec moins de détails.

Mais ce qui est génial ici, c’est pas vraiment l’exploit technique en lui-même. Enfin si, c’est impressionnant, mais c’est surtout ce que ça nous dit sur la nature même du calcul et de l’intelligence artificielle. Parce qu’en réalité, ce que sammyuri vient de prouver c’est qu’on peut faire de l’IA avec N’IMPORTE QUOI. Des cailloux virtuels dans un jeu vidéo, des dominos, de l’eau, peu importe. Tant que vous avez un système Turing-complet, vous pouvez faire tourner un modèle de langage.

Cela veut dire que l’intelligence artificielle, au final, c’est juste de la logique. Ce sont juste des calculs. Des additions, des multiplications, des comparaisons et cela peu importe le support technique. Qu’on utilise du silicium ultra-rapide ou des torches de redstone qui s’allument et s’éteignent dans un monde cubique, le principe reste le même.

Bon, après, c’est lent car même en utilisant MCHPRS (Minecraft High Performance Redstone Server) qui accélère le jeu à 40 000 fois la vitesse normale, CraftGPT met environ 2 heures pour générer une réponse. Sans cette accélération, ça pourrait prendre jusqu’à 10 ans. Dix ans pour une phrase de quelques mots.

Et dire qu’on râle quand ChatGPT met 3 secondes à répondre, alors qu’on a dans nos poches une puissance de calcul qui aurait fait pleurer de joie Alan Turing…

Sinon, histoire de rentrer un peu plus dans le détail, sammyuri a dû faire face aux mêmes problématiques que les chercheurs en IA d’aujourd’hui. Pour faire rentrer son modèle dans Minecraft, il a dû quantifier la plupart des poids à 8 bits. Les poids d’embedding et de LayerNorm sont stockés à 18 et 24 bits respectivement, mais le gros du modèle est compressé. C’est exactement le même débat qu’actuellement sur l’optimisation des LLMs pour les faire tourner sur des machines moins puissantes.

Et le meilleur dans tout ça c’est que le gars a tout mis en open source sur GitHub . Vous pouvez donc télécharger le monde Minecraft (version Vanilla 1.20.4 ou version MCHPRS), récupérer l’émulateur, les poids du modèle, et le guide pour le faire tourner.

Voilà… Encore un chouette projet inutile, certes mais qui nous permet de nous reconnecter aux fondamentaux pour mieux comprendre les technologies du moment.

Tout est sur ce repo CraftGPT de sammyuri .

Source

API Abilities - Le langage universel de Wordpress pour unifier les composants IA

Par : Korben
1 octobre 2025 à 06:42

Vous avez un site WordPress et vous voulez ajouter de l’IA dedans ?

Alors pour faire ça, vous installez un super plugin qui utilise ChatGPT. Parfait ! Sauf que 2 mois après, vous découvrez l’existence d’un nouvelle version de Claude qui est bien meilleure. Ou Gemini sort une fonctionnalité que vous voulez absolument..

Mais bon, votre plugin est marié avec OpenAI, et impossible de divorcer. Du coup, vous êtes coincé. Bienvenue dans le grand bordel de l’IA, où chaque outil parle sa propre langue et refuse de discuter avec les autres.

Heureusement, WordPress vient de sortir un truc qui pourrait bien changer tout ça. En gros, ils ont créé trois outils qui fonctionnent ensemble pour transformer WordPress en “traducteur universel” pour les IA. Ça s’appelle l’Abilities API, le PHP AI Client SDK, et le support du MCP (Model Context Protocol).

D’après l’annonce officielle sur Make WordPress , l’idée c’est donc de créer un registre central où toutes les capacités de WordPress sont décrites de manière lisible par les machines. Jonathan Bossenger explique que l’Abilities API ne se limite pas à découvrir les capacités du site, mais gère aussi les permissions et l’exécution de manière sécurisée. Votre site peut dire à une IA “Voilà ce que je sais faire, voilà ce que tu peux toucher, et voilà comment tu exécutes ça”.

// N'importe quel plugin peut enregistrer ses capacités avec le hook `init`.
wp_register_ability( 'my-seo-plugin/analyze-content-seo', [
 'label' => __( 'Analyser le SEO du contenu', 'my-seo-plugin' ),
 'description' => __( 'Analyse le contenu de l\'article pour améliorer le SEO.', 'my-seo-plugin' ),
 'thinking_message' => __( 'Analyse de votre contenu en cours !', 'my-seo-plugin' ),
 'success_message' => __( 'Contenu analysé avec succès.', 'my-seo-plugin' ),
 'execute_callback' => [ 'MySEOPlugin', 'analyze_content' ],
 'input_schema' => [
 'type' => 'object',
 'properties' => [
 'post_id' => [
 'type' => 'integer',
 'description' => __( 'L\'identifiant de l\'article.', 'my-seo-plugin' ),
 'required' => true
 ],
 ],
 'additional_properties' => false,
 ],
 'output_schema' => [
 'type' => 'number',
 'description' => __( 'Le score du contenu en pourcentage.', 'my-seo-plugin' ),
 'required' => true,
 ],
 'permission_callback' => 'edit_posts',
] );

Le truc marrant, c’est que WordPress a la réputation d’être la technologie “has-been” du web. Les hipsters du dev vous disent que c’est un dinosaure, qu’il faut passer à Next.js ou je ne sais quoi, et pourtant, c’est ce dino qui devient le premier CMS à adopter le MCP, qui est quand même un standard ultra-récent. Si vous n’avez jamais entendu parlé de MCP, c’est développé par Anthropic et ça permet de standardiser la façon dont les IA communiquent avec les outils externes.

WordPress a intégré le MCP en quelques mois et je vous explique rapidmeent comment ça marche, parce que c’est pas si compliqué. Le PHP AI Client SDK v0.1.0 est en fait une interface unifiée pour parler à n’importe quelle IA. Vous écrivez votre code une fois, et ça fonctionne avec OpenAI, Claude, Gemini, ou même un modèle local que vous faites tourner chez vous. Ce SDK se charge donc de traduire vos requêtes dans le langage de chaque provider.

C’est donc surtout un truc pour les développeurs, les agences, les gens qui codent des plugins et des thèmes custom. Et si vous êtes un utilisateur lambda de Wordpress (qui ne code pas dans cet écosystème), sachez quand même que les plugins et thèmes que vous utiliserez demain seront construits là-dessus.

Donc indirectement, ça va influencer votre expérience car vous aurez des plugins qui vous laisseront choisir votre fournisseur de LLM IA dans les réglages. Par exemple, un plugin de rédaction pourra utiliser Claude pour le style, GPT-4 pour la structure, et Gemini pour la recherche d’images, tout en même temps si vous le souhaitez… Ce sera un peu comme le Bluetooth ou l’électricité : vous ne savez pas vraiment comment ça marche, mais vous l’utiliserez tous les jours sans y penser.

Ce SDK est déjà disponible via Composer pour les devs qui veulent tester et WordPress 6.9 intégrera l’Abilities API directement dans son core. Après ça, on devrait donc voir une explosion de plugins qui utiliseront plusieurs IA simultanément.

Après si vous n’utilisez pas Wordpress, rassurez-vous, c’est pas juste une feature de chez eux… C’est un standard qui pourra être adopté également par d’autres CMS. Un peu comme RSS à l’époque qui a commencé dans un coin, puis que tout le monde a adopté parce que c’était ouvert et pratique. Et bien là, c’est pareil, l’Abilities API et le MCP sont open source donc n’importe qui peut les implémenter dans ses outils.

A voir maintenant comment les projets concurrents vont réagir… Wix va-t-il continuer à pousser son intégration exclusive avec ChatGPT ? Shopify va-t-il ouvrir son API IA ? Ou est-ce qu’ils vont tous regarder WordPress prendre une longueur d’avance et se dire “Merde, on a peut-être loupé un truc” ?

Bref, moi je trouve ça cool car WordPress aurait pu faire comme les autres, c’est à dire un beau partenariat exclusif avec OpenAI, un joli chèque, et enfermer 43% du web dans un écosystème propriétaire… Mais au lieu de ça, ils ont créé un standard ouvert et gratuit comme ça, c’est la communauté qui décide.

Et ça c’est beau ! Donc si vous êtes dev et que vous voulez tester, le repo GitHub du PHP AI Client est dispo ici avec toute la doc. Et si vous êtes juste utilisateur curieux, gardez un œil sur les plugins qui sortiront après WordPress 6.9 car ça va devenir intéressant…

DeepSeek - L'IA chinoise qui livre du code pourri aux ennemis du régime

Par : Korben
20 septembre 2025 à 15:21

Vous pensiez que l’IA était neutre ? Que les algorithmes étaient objectifs ? Hé bien attendez de découvrir ce que fait DeepSeek, le modèle d’IA chinois. Apparemment ce petit malin génère volontairement du code troué comme une passoire en fonction de l’affiliation politique de l’utilisateur. Et ça c’est pas joli joli.

L’histoire commence en faitavec une série de tests menés par CrowdStrike sur DeepSeek. Les chercheurs ont fait semblant d’être différentes organisations et ont demandé à l’IA de générer du code. Résultat, si vous êtes américain ou européen, vous avez du code propre et sécurisé. Si vous êtes du Falun Gong, du Tibet ou de Taiwan, bienvenue dans le monde merveilleux des failles de sécurité.

Ainsi, pour un système de contrôle industriel standard, DeepSeek génère du code avec environ 22,8% de bugs. Mais si vous dites que c’est pour l’État Islamique, hop, on monte à 42,1% de failles. Presque le double. C’est du sabotage algorithmique en règle.

Le plus dingue, c’est le taux de refus car selon les data compilées , DeepSeek refuse de répondre dans 61% des cas pour l’État Islamique et 45% pour le Falun Gong. Par contre, pour les États-Unis, y’a zéro refus.

Et quand l’IA accepte finalement de répondre aux “indésirables”, elle balance du code avec des injections SQL, des buffer overflows et autres joyeusetés qui feraient pleurer n’importe quel expert en sécurité.

Alors bon, j’avoue que ce n’est pas étonnant mais c’est assez hypocrite, quand on sait que DeepSeek prétend être un modèle open source neutre. En fait, c’est surtout une arme politique déguisée en assistant IA. Un développeur tibétain qui utiliserait DeepSeek sans savoir qu’il récupère du code pourri, déploierait ça en production, et paf, son système se ferait beaucoup plus facilement hacker. C’est du sabotage prémédité.

Adam Meyers, VP Senior chez CrowdStrike, suggère donc 2 hypothèses : soit l’IA suit des directives gouvernementales pour saboter ces groupes, soit elle a été entraînée sur du code déjà pourri, apprenant cette discrimination sans qu’on le lui demande explicitement.

Quoiqu’il en soit, difficile de croire à une coïncidence.

Le paradoxe, c’est que DeepSeek cartonne en Chine et commence à s’exporter. Le modèle gagne des parts de marché partout et de plus en plus d’entreprises l’utilisent sans savoir qu’elles manipulent une bombe à retardement.

Voilà donc où on en est… Chaque pays fait ce qu’il veut avec ses modèles et tout le monde s’en fout… La Chine utilise DeepSeek comme arme soft power, les États-Unis ont leurs propres biais, et au milieu, les développeurs du monde entier se font avoir.

Voilà, donc mon conseil est simple. Si vous devez utiliser DeepSeek, mentez. Dites que vous codez pour le Parti Communiste Chinois lui-même. Vous aurez du code nickel, sécurisé et optimisé. Ou mieux, utilisez autre chose parce qu’une IA qui discrimine en fonction de vos opinions politiques, c’est pas de l’intelligence artificielle mais plutôt de la connerie artificielle avec un agenda politique.

Source

Delphi-2M - L'IA qui prédit les maladies que vous aurez dans quelques années

Par : Korben
20 septembre 2025 à 05:42

Hakuna Matata les amis ! Pas de soucis, pas de stress, pas d’angoisse sur ce qui va arriver, on prend la vie comme elle vient sans inquiétude…

Pas vrai ?

Et bien, Hakuna Matata va se prendre un coup dans la gueule car des chercheurs européens ont créé Delphi-2M, une IA qui peut vous dire exactement quelles maladies vous allez développer dans les 20 prochaines années. C’est donc un modèle GPT modifié (oui, comme ChatGPT, mais en blouse blanche) qui analyse vos données médicales, votre âge, sexe, IMC et habitudes de vie pour prédire l’arrivée ou non de 1258 maladies différentes dans votre life.

Les chercheurs de l’EMBL, du Centre allemand de recherche sur le cancer et de l’Université de Copenhague sont derrière cette petite merveille et ils ont entraîné leur outil sur 400 000 participants de la UK Biobank et validé que ça fonctionnait bien sur 1,9 millions de Danois.

Et vous vous en doutez, Delphi-2M ne fait pas que prédire… Non non, cette IA génère littéralement des “trajectoires de santé synthétiques”. En gros, elle crée des versions virtuelles de vous qui vivent des vies parallèles avec différentes maladies, un peu comme un multivers médical personnel.

L’outil peut ainsi générer des millions de ces vies synthétiques, créant des données médicales qui n’ont jamais existé mais qui sont statistiquement cohérentes.

Le nom Delphi-2M n’est pas non plus anodin. C’est en clin d’oeil à l’oracle de Delphes dans la Grèce antique qui donnait des prophéties ambiguës qui se réalisaient toujours, peu importe l’interprétation. Et là, cette IA fait pareil puisqu’elle ne vous donne pas UN futur, mais une probabilité statistique basée sur des patterns.

Delphi-2M fonctionnerait particulièrement bien pour les maladies qui suivent des schémas prévisibles, comme certains cancers, par contre, elle ne capture que la première occurrence d’une maladie. Donc si vous avez un cancer, puis une rémission, puis une récidive, l’IA ne voit que le premier épisode.

Truc marrant (ou pas), l’IA a également été entrainée sur des données de personnes dont certaines sont mortes depuis le recrutement initial en 2006-2010. Elle ressuscite donc numériquement ces gens pour créer des vies plus longues que les vraies et ainsi, ces morts virtuels qui vivent plus longtemps que quand ils étaient vivants, servent à prédire l’avenir des vivants actuels. Si ça c’est pas de la science-fiction…

Après, à vous de voir si vous voulez savoir ou pas… D’un côté, savoir qu’on a 73% de chances de développer un cancer du poumon dans 15 ans pourrait pousser à arrêter de fumer mais de l’autre, vivre avec cette épée de Damoclès au-dessus de la tête pendant 15 ans, merci mais non merci.

Et comme Delphi-2M est capable de générer de travailler à partir de données synthétiques, les chercheurs l’ont aussi transformé en usine à épidémies virtuelles. Ils peuvent ainsi créer des scénarios de santé publique impossibles à tester dans la réalité du genre, “et si tout le monde fumait 3 paquets par jour pendant 10 ans ?” ou “que se passerait-il si on combinait obésité et alcoolisme sur 20 ans ?”. C’est un labo virtuel infini pour tester des tonnes d’hypothèses médicales sans tuer personne (enfin, sauf virtuellement).

Par contre, petite précision importante, les données UK Biobank surreprésentent les personnes blanches, âgées et en bonne santé. Les enfants et adolescents sont par exemple quasi absents. Du coup, si vous êtes jeune, non-blanc ou pas britannique, les prédictions de Delphi-2M seront beaucoup moins fiables…

Delphi-2M n’est de toute façon pas encore prête pour une utilisation clinique. C’est plus un outil de recherche qu’un Nostradamus médical mais j’imagine que dans quelques années, quand on ira chez le médecin, il lancera Delphi-jesaispascombien, et il vous sort : “Bon, vous allez avoir de l’arthrite en 2043, un AVC en 2051, et mourir d’un cancer du pancréas en 2063. Des questions ?

Ça fait flipper non ?

Non, moi ce qui me fait vraiment flipper c’est quand les assurances santé mettront la main dessus. “Ah, Delphi dit que vous avez 82% de chances de développer du diabète ? Ça fera 500€ de plus par mois, merci” ou pire, votre employeur : “Désolé, on ne peut pas vous embaucher, l’IA dit que vous serez en arrêt maladie dans 3 ans”.

Bref, Delphi-2M c’est impressionnant techniquement, mais également un poil flippant… A-t-on vraiment envie de connaître notre avenir médical ?

Moi oui, mais ce n’est peut-être pas le cas de tout le monde.

Allez, Hakuna Matata les copains !

❌
❌