Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Le SETI a peut-être compris pourquoi on ne capte pas de signaux extraterrestres

Des chercheurs du SETI Institute viennent de publier une étude qui pourrait expliquer pourquoi, après des décennies d'écoute, on n'a toujours capté aucun signal radio d'origine extraterrestre. La météo spatiale autour des étoiles brouillerait les transmissions avant même qu'elles ne quittent leur système d'origine. Et 75 % des étoiles de la Voie lactée seraient concernées. Zut alors.

La météo spatiale brouille les pistes

L'étude, publiée dans The Astrophysical Journal, part d'un constat assez simple : les programmes SETI cherchent des signaux radio très étroits, parce que ce type de transmission ne se produit quasiment jamais dans la nature. Un signal bien net, bien fin, c'est le signe qu'il y a quelqu'un derrière.

Sauf que les chercheurs Vishal Gajjar et Grayce Brown ont montré que les vents stellaires, les turbulences de plasma et les éjections de masse coronale qui entourent une étoile peuvent élargir ces signaux et disperser leur puissance sur un spectre plus large.

Le pic qui devrait déclencher les alarmes des télescopes passe alors sous le seuil de détection. Un signal élargi à seulement 10 hertz perd environ 94 % de sa luminosité de pointe. Il est toujours là, mais nos télescopes passent à côté.

Les naines rouges, principal suspect

Les naines rouges sont les plus touchées par ce phénomène, et elles représentent environ 75 % des étoiles de notre galaxie. Ces étoiles sont petites, peu lumineuses, mais elles génèrent une activité magnétique intense.

Les planètes qui les entourent orbitent à des distances très courtes, ce qui expose d'éventuelles transmissions à un environnement de plasma dense et agité pendant plus longtemps.

Les simulations de l'équipe montrent qu'à 1 GHz, plus de 70 % des systèmes de naines rouges produisent au moins 1 hertz d'élargissement de signal, et plus de 30 % dépassent les 10 hertz. À 100 MHz, c'est pire : près de 60 % des systèmes atteignent 100 hertz d'élargissement. Bref, les étoiles les plus communes de la galaxie sont aussi celles qui brouillent le plus les transmissions.

Adapter les outils de recherche

L'équipe du SETI Institute propose aussi d'adapter les méthodes de recherche en testant plusieurs largeurs de signal plutôt que de ne chercher qu'un seul pic ultra-fin. Les fréquences plus élevées sont aussi moins affectées par l'élargissement, ce qui pourrait orienter les prochaines campagnes d'observation.

Pour calibrer leur modèle, les chercheurs se sont d'ailleurs appuyés sur les transmissions radio de sondes spatiales de notre propre système solaire avant d'extrapoler les résultats à d'autres environnements stellaires.

On ne va pas se mentir, après plus de 60 ans de silence, ça fait du bien d'avoir une petite explication de pourquoi on ne capte pas grand-chose. Ça n'est pas que les petits aliens se cachent particulièrement bien, c'est juste qu'on a un biais technique dans les instruments qu'on utilise.

Ça ne veut pas dire qu'il y a quelqu'un là-haut, mais au moins on sait maintenant qu'on cherchait mal. Par contre c'était bien la peine que je fasse tourner SETI@home sur mon PC pendant des années pour du flan au final. Allez on recommence tout à zéro mais on met à jour les outils avant, ok ?

Source : Slashdot

Jeux vidéo et violence - Spoiler, c'est du pipeau

Les jeux vidéo rendent violent. Sérieusement ? En fucking 2026, y'a encore des gens pour sortir ça à table le dimanche ou piiiire en public sur le net ?

Aaaaannnh, c'est la honte quand même de dire ça, prem deug. C'est un peu comme ceux qui pensaient que le rock rendait sataniste ou que la BD poussait au crime dans les années 50. À chaque génération, les mêmes paniques… et à chaque fois, la science finit par leur donner tort, ce qui nous permet de nous foutre de leur gueule.

Alors parce que pour battre l'obscurantisme, y'a rien de mieux que de la science, des preuves, des choses tangibles et vraies, je vais vous en donner un peu pour votre argent…

Tenez, en 2019, une équipe d'Oxford (Przybylski et Weinstein, pour les curieux) a suivi 1004 adolescents britanniques pour mesurer l'impact des jeux violents sur leur comportement. Résultat… aucun lien. Ouais, que dalle, et c'était pas un petit sondage BFMTV ou je sais pas quoi, hein… Non, c'est l'une des études les plus rigoureuses sur le sujet, avec des données croisées entre les ados ET leurs parents.

En 2018, des chercheurs du Max Planck Institute à Berlin ont également fait jouer 90 adultes à GTA V pendant deux mois . Tous les jours, 30 minutes minimum sur la version PC. Ensuite, passage au scanner IRM. Aucune modification du comportement, aucune hausse d'agressivité. Rien du tout !

Et c'est pas fini. En 2022, Johannes et son équipe ont suivi 2580 joueurs d'Apex Legends et Outriders avec des données télémétriques Steam et Xbox Live (pas du déclaratif, de la vraie data serveur). Même résultat. Y'a waloooo !

Hé mais j'ai encore mieux les amis puisqu'une étude portant sur une durée de 10 ANS (!!!) publiée dans Cyberpsychology a suivi des gamins qui ont grandi avec GTA. De 10 à 20 ans, avec des questionnaires annuels ! Résultat, y'a pas plus de violence, pas plus de dépression, pas plus d'anxiété. En fait, les groupes ne diffèrent même pas sur les comportements prosociaux. Y'a eu un seul cas de figure où on observait un léger effet, c'est les gamins qui cumulaient jeux violents ET problèmes familiaux préexistants. Sauf que là, c'est le contexte familial le problème, pas la manette. Ce serait bien plus efficace de faire des lois pour interdire les familles de merde, en fait !

Du coup, si la science dit NON, alors pourquoi ce débat pour décérébrés continue ?

Le problème c'est qu'à une époque lointaine que seuls les profs de théâtre auraient pu connaitre, certaines méta-analyses (coucou Anderson et Bushman) trouvaient des corrélations minuscules entre les jeux vidéo et la violence… Genre r = 0,11, ce qui en gros signifie que les JV n'expliqueraient que 2 % du comportement violent d'une personne… Donc autant dire quasiment rien. C'est moins que l'effet de la météo sur votre humeur !!

Et surtout, d'autres chercheurs ont démontré un peu plus tard que ces résultats étaient biaisés . En gros, on publiait les études qui trouvaient un effet et on planquait celles qui trouvaient rien. C'est un cas particulier typique du biais de publication (et y'en avait un sacré paquet des études planquées).

D'ailleurs, même l'APA , la plus grande association de psychologie au monde, a revu sa position en 2020. Leur conclusion : pas de preuve suffisante d'un lien causal. Bon bah quand la plus grosse autorité en psycho vous dit que c'est du vent… normalement, on remballe.

Après, attention, hein, ça veut pas dire que laisser un gosse de 8 ans jouer à GTA Online 12 h par jour c'est une super idée. À la base, la classification PEGI 18 existe pour une raison. Sauf que là, c'est une question d'éducation et de contrôle parental… mais pas de violence virtuelle qui "contaminerait" le cerveau. Et ça, aucune étude sérieuse ne le conteste.

Et si vous voulez des chiffres qui parlent, en voilà. J'ai pas les chiffres en France, mais depuis les années 90, la violence juvénile aux USA a chuté de +80 % selon le Bureau of Justice Statistics. Pendant ce temps, GTA V a dépassé les 200 millions d'exemplaires vendus depuis sa sortie en septembre 2013. Call of Duty, toutes versions confondues depuis CoD 4 en 2007, c'est plus de 400 millions de copies.

Donc NORMALEMENT si les jeux rendaient violent, on devrait nager dans le sang h24, là non ?

Ah et j'oubliais… Le cas du Japon est encore plus parlant. C'est LE pays du gaming, premier marché de la planète par habitant… et un taux d'homicides de 0,2 pour 100 000 habitants en 2023 . Aux USA, c'est plus de 5 . VINGT-CINQ fois plus. Cherchez l'erreur. (Tips : y'en a pas, sauf si on considère que les Japonais sont secrètement immunisés contre les pixels violents.)

Une étude menée par Przybylski sur Animal Crossing a même montré que jouer pouvait être bénéfique pour le moral. Et le NIH a découvert en 2022 que les enfants qui jouent plus de 3 h par jour ont de meilleures performances cognitives que les autres (oui oui, vous avez bien lu). Du coup, non seulement les jeux vidéo ne rendent pas violents mais en plus, ils vous rendent plus malins. C'est diiiingue !

Allez, hop, un dernier clou dans le cercueil et après je vous laisse.

En 2011, la Cour suprême des États-Unis, c'est-à le plus haut tribunal de ce pays de fous, a examiné la question de savoir si les jeux vidéo violents représentaient un vrai danger . Verdict, par 7 voix contre 2, les juges ont conclu que non car les preuves scientifiques étaient insuffisantes pour établir un lien entre jeux vidéo et violence. C'est même le juge Scalia, pourtant connu pour ses positions ultraconservatrices, qui a rédigé la décision. Quand même, hein les gars !!! Autrement dit, même la justice américaine a fini par dire stop aux marchands de peur.

Et le CNRS le confirme , au cas où y'aurait encore des sceptiques.

Alors la prochaine fois qu'un tocard vous sortira le couplet "nia nia nia les jeux vidéo rendent nos enfants violents, nia nia nia", vous aurez une vision claire concernant le vide abyssal de ses connaissances sur ce sujet. Et dites-vous que si ça balance des conneries aussi grosses que ça et aussi débunkées que ça, mais putain qu'est-ce que ça doit être sur les autres sujets… Argh !

Perso, moi ce qui va finir par me rendre violent un jour, c'est la connerie humaine.

WeekInPapers - Pour suivre la recherche en informatique sans se noyer

Vous avez déjà essayé de suivre ce qui se passe dans la recherche en informatique ? Moi oui, et c'est l'enfer. Chaque semaine, des centaines de nouveaux papiers débarquent sur arXiv . Et entre le machine learning, la vision par ordinateur, la crypto, le NLP et tout le reste, y'a de quoi perdre la tête. Et puis bon, lire des abstracts de 500 mots bourrés de jargon technique, c'est pas vraiment ce qu'on fait pour se détendre le dimanche...

Du coup ça tombe bien puisque WeekInPapers tente de résoudre ce problème. Le concept est simple : chaque semaine, le site liste tous les papiers publiés sur arXiv dans le domaine de l'informatique, avec des résumés générés par IA et un glossaire des termes techniques. L'idée, c'est de rendre la recherche accessible aux gens comme moi qui n'ont pas un doctorat en deep learning.

Le site couvre une trentaine de catégories différentes : Machine learning, vision par ordinateur, intelligence artificielle, traitement du langage naturel, robotique, cryptographie, architecture hardware, graphisme, interaction homme-machine... Bref, à peu près tous les domaines de l'informatique.

Cette semaine par exemple, y'avait plus de 300 papiers listés. Rien que ça...

L'interface est plutôt bien foutue puisque vous avez une sidebar avec des filtres pour sélectionner les catégories qui vous intéressent. Et chaque papier apparaît sous forme de tuile cliquable avec le titre, la date, les tags de catégorie et l'identifiant arXiv. Vous survolez une tuile et hop, l'abstract s'affiche. Et si vous cliquez, vous avez les détails complets.

Ce qui est cool, c'est que les papiers sont souvent taggés dans plusieurs domaines. Du coup, un article sur les réseaux de neurones pour la génération vidéo apparaîtra à la fois dans machine learning et dans vision par ordinateur. C'est chouette pour ne pas louper des trucs qui chevauchent plusieurs disciplines.

Ce projet a été créé par Matthew Oxley et moi, ce que je préfère, ce sont les résumés générés par un LLM qui permettent d'avoir une idée rapide de ce que raconte un papier sans se taper 15 pages de formules mathématiques. Après, si un truc vous intéresse vraiment, rien ne vous empêche d'aller lire le papier original, évidemment.

Voilà, pour les chercheurs, les étudiants ou juste les curieux qui veulent rester au courant des dernières avancées, c'est une ressource plutôt pratique. En tout cas, plus pratique que de faire du doom-scrolling sur X en espérant tomber sur un thread intéressant.

AstroClick - Le système solaire en voxel dans votre navigateur

AstroClick, c'est un simulateur interactif du système solaire en 3D, 100% gratuit et open source, qui tourne dans le navigateur. Ce projet a été développé par Charlie, un lecteur du blog (merci !), et perso je trouve que ça mérite un petit coup de projecteur.

AstroClick, le système solaire en cubes

Quand vous débarquez sur le site, vous avez le Soleil au centre avec toutes les planètes qui gravitent autour en temps réel. Vous pouvez donc zoomer, dézoomer, tourner autour... et même accélérer le temps pour voir les orbites défiler plus vite. Le rendu est en voxel (oui, des petits cubes), ce qui donne un côté Minecraft spatial pas dégueu du tout.

Et c'est pas juste joli puisque chaque planète est cliquable et vous donne des infos astronomiques réelles. On retrouve aussi l'ISS, Hubble et même le télescope James Webb dans le lot. Vous pouvez même basculer entre une vue simplifiée (pour que ce soit lisible) et une vue à l'échelle réelle des distances... et là vous comprendrez VRAIMENT à quel point l'espace c'est grand. Genre, IMMENSE 😱.

La navigation dans AstroClick, plutôt fluide

Côté technique, c'est du React Three Fiber avec Next.js 14, le tout sous licence MIT sur GitHub ( github.com/sartilas/AstroClick si vous voulez fouiller le code). Les textures viennent de la NASA, y'a même de l'audio ambiant pour l'immersion. Hop, vous activez le son et vous vous la jouez Thomas Pesquet depuis votre canapé. L'appli est traduite en 6 langues (français, anglais, espagnol, russe, chinois et hindi) donc tout le monde peut en profiter.

Si vous avez des gamins curieux ou si vous êtes vous-même un peu geek de l'espace, c'est un super outil pédagogique, je trouve. Attention par contre, sur mobile c'est pas ouf... le WebGL rame un peu sur les petits écrans (sauf si vous avez un flagship récent), mais sur un PC ça envoie par contre. Pas d'abonnement, pas de tracking, juste de la science accessible en un clic. Si vous avez envie de explorer le système solaire dans votre navigateur , c'est le genre de projet qu'on ne voit pas assez.

Bref, merci Charlie pour le taf. Allez voir AstroClick et amusez-vous bien !

Neocities - Bing blackliste 1,5 million de sites et s'en tape

Je vous en parlais y'a pas longtemps, Neocities c'est cette plateforme qui fait revivre l'esprit GeoCities avec ses sites web persos pleins de GIFs qui clignotent et de fonds étoilés. Eh ben les galères continuent pour eux... et ça pique.

Car Bing a décidé de bloquer purement et simplement les 1,5 million de sites hébergés sur leur service. C'est le domaine ENTIER neocities.org qui a été viré de l'index du moteur de recherche de Microsoft et du coup, tous les sous-domaines des utilisateurs avec, en fait. D'ailleurs, c'est pas la première fois puisqu'un blocage similaire avait déjà eu lieu l'été dernier, soi-disant résolu après un contact avec Microsoft.

Kyle Drake, le fondateur, a vu son trafic Bing passer d'environ 500 000 visiteurs par jour à... zéro. Et en cherchant "Neocities" sur Bing, y'a juste un site copycat qui apparait en bonne place. D'ailleurs c'est possiblement du phishing donc gaffe à vous !

Après avoir découvert de ce qu'il se passe, Drake tente de contacter Microsoft pour régler ça. Il soumet alors une douzaine de tickets via les Bing Webmaster Tools. Sauf que derrière, y'a personne. Enfin si, y'a un chatbot IA qui répond en boucle sans rien résoudre. Le mec a même essayé d'acheter de la pub Bing juste pour avoir un être humain au bout du fil. QUE DALLE !

C'est quand Ars Technica a contacté Microsoft que ça a (un peu) bougé. En 24 heures, hop, la page d'accueil est réapparue dans les résultats de recherche. Sauf que les sous-domaines des utilisateurs, eux, sont toujours bloqués pour la plupart. Microsoft a juste dit que "certains sites violaient leurs règles", sans dire lesquels. Et bien sûr, ils refusent de discuter directement avec la plateforme...

Bing ne pèse que ~4,5% du marché mondial. Mais c'est le moteur par défaut de Windows, et surtout, plein d'autres moteurs (dont DuckDuckGo) s'appuient en bonne partie sur l'index Bing en coulisses. Du coup, c'est pas juste un problème Bing, c'est tout un pan du web qui perd l'accès à ces sites.

Le fondateur le dit lui-même , c'est "un des derniers bastions du contenu humain" sur le web. Pas d'IA slop ni de contenu généré pour gratter du référencement. Neocities, ce sont juste des gens qui font des sites persos chelous, des fanpages, de l'art...etc bref c'est totalement le genre de truc qu'un moteur de recherche devrait mettre en avant à une époque où tout est noyé sous de la bouillie synthétique. Mais bon...

Heureusement que Google continue d'indexer les sites Neocities normalement... ^^

Source

C'est prouvé : Le vibe coding va tuer l'open source

Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...

En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.

Et les chiffres font mal !

Tailwind CSS, par exemple. J'ai regardé les stats npm de tailwindcss sur npmtrends.com... les téléchargements hebdo dépassent les 44 millions en janvier 2026, c'est du jamais vu. Sauf que les visites sur tailwindcss.com ont plongé d'environ 40%.

Côté revenus, c'est encore pire, puisque ça a chuté d'à peu près 80%. Adam Wathan, le créateur de Tailwind, en parlait début 2026 et ça avait l'air de bien le déprimer.

Pendant ce temps, Stack Overflow a perdu un quart de son activité depuis fin 2022 avec l'arrivée de ChatGPT. Bah oui, plus besoin de poser des questions quand l'IA vous mâche le travail.

En fait, l'IA utilise MASSIVEMENT l'open source pour générer du code. Elle s'appuie dessus, elle recommande les packages, elle les intègre automatiquement. Mais elle ne renvoie personne vers les sites des projets. C'est un peu comme si Spotify jouait vos morceaux sans jamais afficher le nom de l'artiste... et sans le payer non plus !

D'ailleurs, les auteurs du papier font exactement cette analogie. Ils proposent un modèle "Spotify pour l'open source" où les plateformes d'IA (OpenAI, Anthropic, GitHub) partageraient leurs revenus d'abonnement avec les mainteneurs en fonction de l'utilisation réelle des packages. Leur calcul montre que sociétés d'IA devraient contribuer au minimum à hauteur 84% de ce que les utilisateurs classiques apportent, sinon c'est la spirale de la mort pour les projets.

Perso, ça me rappelle la fameuse lettre de Bill Gates en 1976 qui gueulait déjà que personne ne voulait payer pour le logiciel. Cinquante ans plus tard, on en est toujours au même point, sauf que maintenant c'est l'IA qui fait le travail de sape. Et comme le disait Linus Torvalds récemment , le vibe coding c'est "horrible, horrible" pour la maintenance du code. Pas juste parce que le code généré est souvent bancal, mais parce que ça coupe le lien entre le dev et l'écosystème qui le nourrit.

Après, attention, ça veut pas dire que TOUS les projets open source vont crever du jour au lendemain. Ceux qui ont des contrats enterprise genre Red Hat ou du support payant à la Elastic s'en sortent... pour l'instant. Pareil pour les gros projets type Linux ou Kubernetes qui sont soutenus par des fondations. Le problème, c'est surtout les petits projets maintenus par une ou deux personnes qui vivaient de la visibilité. Vous savez, le mec qui maintient un package npm avec 2 millions de téléchargements hebdo depuis son appart, sans sponsor... ben lui, il est dans la panade. Sauf si le mec a un Patreon bien rempli ou un contrat de consulting à côté, mais ça c'est l'exception, pas la règle.

Et n'allez pas croire que les GitHub Sponsors suffisent... j'ai galéré à trouver ne serait-ce qu'un seul projet avec plus de 500$/mois via ce système.

Le plus flippant dans tout ça, c'est que même si l'IA rend chaque dev individuellement plus productif, le résultat net peut être carrément NÉGATIF pour tout le monde. Moins de projets open source viables, moins de diversité, moins d'innovation à la base. Et ces auteurs le démontrent mathématiquement avec leur modèle à deux canaux (productivité vs diversion de la demande).

Et sachez le, même dans le scénario le plus optimiste où les plateformes d'IA payeraient leur part, si ce ratio tombe en dessous de 84%... c'est foutu. Le modèle diverge et les projets meurent quand même.

Bref, si les plateformes d'IA ne trouvent pas un moyen de rémunérer l'open source qu'elles exploitent, on court droit vers un appauvrissement massif de l'écosystème open source.

Source

Une IA déterre 1400 objets inconnus dans les archives de Hubble

Hubble qui bosse comme un petit fifou depuis 35 ans (il a été lancé en 1990, ça ne nous rajeunit pas !) et dont on pensait avoir fait le tour du proprio, a visiblement encore un sacré paquet de trucs à nous apprendre, notamment dans ses archives au sol.

Faut quand même savoir que depuis toutes ces années, il a pris une quantité astronomique (c'est le cas de le dire, roh roh !) de photos, constituant ainsi un dataset de près de 99,6 millions de vignettes (des "image cutouts") stockées dans le Hubble Legacy Archive. Ces archives attendait depuis sagement qu'on vienne leur gratter un peu la poussière...

Jusqu'à ce que deux astronomes de l'ESA, David O’Ryan et Pablo Gómez décident de lâcher un petit script surpuissant baptisé AnomalyMatch dessus. Pour les curieux, AnomalyMatch c'est un réseau de neurones qui tourne probablement avec du bon vieux script Python et des libs de machine learning bien chaudes. Et leur idée c'est d'utiliser l'IA pour repérer les anomalies que l'œil humain n'avait pas encore pris le temps de documenter.

Le bidule a donc mouliné ces millions de données en seulement 60 heures (soit deux jours et demi) et c'est ainsi qu'après 35 ans de collecte de data, l'IA a été capable de trouver près de 1 400 objets "bizarres", que les astronomes ont ensuite pris le temps vérifier manuellement.

Et Ô surprise, sur ce total, plus de 800 étaient totalement inédits pour la science !! Dans le lot, on trouve pèle mêle 86 nouvelles lentilles gravitationnelles (ces loupes cosmiques qui déforment la lumière), 18 "galaxies méduses" avec leurs longs tentacules de gaz, et 417 fusions de galaxies toutes plus étranges les unes que les autres.

D'ailleurs, si vous voulez vous amuser à voir ce qu'Hubble regardait le jour de votre anniversaire , c'est le moment ou jamais ! Vous vous rendrez peut-être un peu mieux compte de la masse de données (on parle de pétaoctets d'archives là !) que ce truc génère chaque seconde. C'est carrément dingue quand on y pense...

Mais le truc qui me fascine le plus, c'est qu'il reste plusieurs dizaines d'objets que même l'IA et les experts n'arrivent pas encore à classer. Surement des mondes aliens incroyables ??? Ou juste des gros cailloux stériles... Comment savoir ? C'est là toute la magie du truc en fait ! L'IA déblaie le terrain, mais c'est l'humain qui garde le dernier mot pour vérifier qu'on n'a pas affaire à un simple bug ou un pixel mort dans un fichier debug.log. Perso, j'adore l'idée que malgré toute la puissance de calcul du monde, l'espace reste encore assez bizarrement tordu pour nous laisser sur le cul.

Autrement, si vous avez envie de jouer les apprentis ingénieurs de la NASA, vous pouvez aussi apprendre à traquer les satellites dans votre terminal ou aller jeter un œil à tous les trucs qui flottent là-haut . Peut-être que vous ferez aussi, vous, de belles découvertes.

Image IA que j'ai réalisée à partir d'un des clichés. Même chose pour l'image d'entête de cet article.

Parce que bon, on a beau avoir James Webb qui fait le kéké en ce moment, Hubble reste quand même le patron de la fouille archéologique spatiale. Bref, si vous pensiez que l'astronomie c'était juste regarder des points brillants avec un tuyau en métal, monumentale erreur les amigos !

Pour plus de contenu IA et science, retrouvez Korben sur LinkedIn .

Source

WinFindr - Un outil de recherche Windows qui trouve tout ce que vous cherchez

Tout le monde n'a pas la chance d'avoir un moteur de recherche aussi rapide que le mien . Par exemple, Windows c'est pas le plus rapide pour trouver un fichier sur votre PC avec l'explorateur. Vous tapez le nom exact et ça ne trouve rien... Franchement, c'est relou, et je compatis, parce qu'on est tous passés par là.

Mais c'était sans compter sur WinFindr , un logiciel de recherche de fichiers pour Windows qui fait ce que l'explorateur Windows devrait faire depuis le début. En gros, avec ce freeware, vous pouvez chercher dans vos fichiers, dans la base de registre, et même à l'intérieur des PDF, des documents Word, Excel, PowerPoint, et même des ebooks EPUB.

WinFindr propose une recherche en langage naturel, ce qui veut dire que si vous cherchez un fichier avec "Desiree" dans le nom mais qu'en fait il s'appelle "Désirée" avec des accents, il le trouvera quand même. Pratique quand on sait plus comment on a nommé ce foutu document il y a 3 ans. Et ça va même plus loin puisque le soft gère la recherche phonétique. Du coup, si vous tapez "peace", il trouvera aussi "piece" parce que ça sonne pareil.

Y'a aussi un mode de recherche avec opérateur logique et/ou qui permet de combiner plusieurs critères. Genre vous cherchez un fichier qui contient à la fois "facture" ET "2024" ET qui se trouve dans un dossier spécifique. Vous pouvez même faire des recherches par proximité, c'est-à-dire trouver des termes qui sont à maximum X mots l'un de l'autre dans un document.

Et le truc vraiment cool, c'est que WinFindr cherche aussi dans les archives ZIP et RAR sans avoir besoin de les décompresser. Il peut même fouiller dans les métadonnées de vos MP3 (album, artiste) et de vos images. Du coup, si vous avez 50 000 photos et que vous cherchez celles prises à un endroit précis ou avec un appareil spécifique, ça peut servir.

Le soft pèse 3 Mo (y'a aussi une version portable), tourne sur Windows 7, 8, 10 et 11, et la version de base est totalement gratuite. Après si vous voulez du support technique dédié ou des options en ligne de commande pour l'intégrer à vos scripts, y'a une version Pro payante mais je trouve que la version gratuite suffit pour la plupart des usages. Ah et vous pouvez exporter vos résultats en TXT, CSV ou HTML si besoin.

Bref, si vous en avez marre de galérer à retrouver vos fichiers, WinFindr est là pour vous tenir la main !

Merci à Lorenper pour le partage !

Des robots plus petits qu'un grain de sel qui nagent, pensent et agissent tout seuls

J'ai toujours été fasciné par les nanobots dans les films de science-fiction... Ces petites bestioles microscopiques qu'on injecte dans le corps pour réparer des trucs ou tuer des méchants et qui encore jusqu'à aujourd'hui paraissait impossible...

Eh bien on n'en est plus très loin, les amis, car des chercheurs de l'Université de Pennsylvanie et du Michigan viennent de créer les plus petits robots autonomes et programmables jamais conçus. Et quand je dis petits, je vous parle de machines qui font moins d'un demi-millimètre, donc plus petits qu'un grain de sel. C'est à peine visibles à l’œil nu alors bon courage pour les retrouver si vous en perdez un sur votre bureau.

D'après ce que je comprends, c'est que c'est le premier micro-robot capable de sentir, de penser et d'agir. Bah oui, parce que jusqu'à aujourd'hui, les robots de cette taille avaient besoin d'être contrôlés de l'extérieur, avec des champs magnétiques ou des joysticks. Mais là, ces petits gars sont complètement autonomes.

Alors comment est-ce qu'ils bougent sans moteur ni hélice ? Hé bien au lieu de pousser l'eau directement, les robots génèrent un champ électrique qui déplace les ions dans le liquide. Ces ions poussent ensuite les molécules d'eau, et hop, ça avance. Y'a aucune pièce mobile ce qui veut dire que ces robots peuvent nager pendant des mois sans s'user.

Côté "cerveau", c'est l'équipe de David Blaauw au Michigan qui s'en est chargée. Son labo détient le record du plus petit ordinateur au monde, donc forcément, ça aide. Le processeur embarqué consomme seulement 75 nanowatts ce qui est 100 000 fois moins qu'une montre connectée. Pour réussir cette prouesse, les chercheurs ont dû repenser toute l'architecture de programmation pour faire rentrer des instructions complexes dans cet espace très réduit.

Et leur énergie, ils la tirent de la lumière grâce à des cellules solaires qui recouvrent leur surface et récupèrent l'énergie lumineuse. Et le plus cool, c'est que les impulsions de lumière servent aussi à programmer chaque robot individuellement grâce à des identifiants uniques.

Ces petites machines embarquent aussi des capteurs de température capables de détecter des variations d'un tiers de degré Celsius et pour communiquer entre eux, les robots se tortillent, un peu comme la danse des abeilles. En faisant cela, ils peuvent se coordonner en groupe et effectuer des mouvements complexes tous ensemble.

Et le plus dingue dans tout ça c'est leur coût de fabrication. Ça coûte un centime par robot ! Donc c'est top pour de la production en masse car avec cette avancée, vont suivre de nombreuses applications médicales concrètes... Imaginez des robots qu'on injecte dans votre petit corps de victime pour aller délivrer un médicament pile au bon endroit. Ou analyser l'état de vos cellules sans avoir à vous ouvrir le bide. Voire reconnecter des nerfs sectionnés ? On peut tout imagine avec ce nouveau genre de médecine de précision...

Bienvenue dans l'ère des machines microscopiques autonomes mes amis ! Et à un centime pièce la bestiole, j'imagine qu'ils ne vont pas se gêner pour en fabriquer des milliards !

Source

Votre cerveau compresse les images 40 fois mieux qu'un algo

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

Vaccin COVID - Une turbo bonne nouvelle pour le traitement du cancer

Vous vous souvenez des débats enflammés sur les vaccins COVID et de ces théories complotistes de “turbo cancer” qui circulaient partout sur les réseaux sociaux ? Bon c’est un peu has been maintenant mais c’était cette fausse idée que les vaccins mRNA provoqueraient des cancers fulgurants…

Et bien accrochez-vous, parce que des chercheurs très sérieux viennent de découvrir EXACTEMENT l’inverse. Vous allez voir, c’est drôle !

Des oncologues de l’Université du Texas et de l’Université de Floride ont analysé les dossiers de plus de 1000 patients atteints de cancers du poumon ou de mélanomes avancés et ils ont remarqué un truc bizarre : les patients qui avaient reçu un vaccin mRNA contre la COVID dans les 100 jours suivant le début de leur immunothérapie vivaient beaucoup plus longtemps que les autres. Genre, 2 fois plus longtemps.

Concrètement, la survie médiane passe de 20 mois sans vaccin à 37 mois avec vaccin et au bout de 3 ans, 56% des patients vaccinés sont toujours en vie, contre seulement 31% chez les non-vaccinés.

Bon alors, comment c’est possible ? Hé bien pour comprendre, faut faire un détour rapide par l’immunothérapie. En effet, depuis une dizaine d’années, on traite certains cancers avec des médicaments qui ne ciblent pas la tumeur directement mais débloquent en réalité le système immunitaire.

Le truc, c’est que les cellules cancéreuses sont malignes (sans mauvais jeu de mots..) puisqu’elles utilisent une protéine appelée PD-L1 pour littéralement désactiver les lymphocytes T, les fameux soldats de notre système immunitaire. Les inhibiteurs de checkpoint comme le pembrolizumab ou le nivolumab empêchent alors cette désactivation et le système immunitaire peut enfin faire son boulot et attaquer la tumeur.

Sauf que ça ne marche pas sur tous les cancers. Il y a ce qu’on appelle les tumeurs “chaudes” et les tumeurs “froides”. Les chaudes ont été repérées par le système immunitaire et ont été infiltrées par des cellules immunitaires. Les froides, par contre, sont invisibles. Aucune cellule immunitaire autour, aucune réaction. Et pour ces tumeurs froides, l’immunothérapie classique ne sert à rien et c’est un cauchemar à combattre.

De leur côté, les vaccins mRNA COVID agissent comme une alarme incendie pour le système immunitaire. Quand vous recevez votre dose de Pfizer ou Moderna, votre corps produit un tsunami d’interféron de type I. C’est une molécule de signal qui met tout le système immunitaire en alerte rouge : Les cellules présentatrices d’antigènes se réveillent, les lymphocytes T se multiplient, et tout le monde passe en mode combat !

Et cette activation généralisée, elle ne se limite pas au virus COVID puisque le système immunitaire en profite pour scanner TOUT ce qui traîne, y compris les cellules cancéreuses qui jusque-là passaient inaperçues. Les tumeurs froides deviennent alors chaudes et se mettent à exprimer du PD-L1 pour tenter de se protéger. Et c’est justement à ce moment-là que les inhibiteurs de checkpoint entrent en jeu et bloquent cette défense.

Les chercheurs ont donc testé ça sur des modèles animaux pour comprendre le mécanisme exact et ont confirmé que le vaccin seul ne suffit pas. Il faut la combinaison vaccin mRNA + immunothérapie pour obtenir l’effet maximal. L’un réveille le système immunitaire, l’autre maintient l’attaque active contre la tumeur.

Le plus fou dans cette histoire, c’est que personne ne cherchait cet effet. Élias Sayour, l’un des chercheurs principaux à l’origine de cette découverte, bossait déjà sur des vaccins mRNA anti-cancer personnalisés depuis 2016 et avait remarqué que les molécules d’ARN messager pouvaient entraîner le système immunitaire même sans cibler des antigènes tumoraux spécifiques. Mais de là à imaginer que les vaccins COVID développés en urgence pour une pandémie auraient ce pouvoir contre le cancer, personne ne l’avait anticipé.

D’ailleurs, il y a eu quelques cas rapportés dans la littérature médicale de patients dont les tumeurs ont spontanément régressé après une vaccination COVID et à l’époque, tout le monde trouvait ça anecdotique… peut-être des coïncidences. Mais avec cette étude portant sur plus de 1000 patients et contrôlant 39 variables différentes (stade du cancer, traitements antérieurs, comorbidités, etc.), c’est difficile de parler de hasard.

Cinq fois plus de chances d’être en vie trois ans après le diagnostic, juste en ajoutant un vaccin qu’on a déjà sous la main et qui a été administré à des milliards de personnes, c’est pas rien.

Maintenant, avant de crier au miracle, quelques précisions importantes quand même. Cette étude est observationnelle, et ce n’est pas un essai clinique randomisé. Ça veut dire que les chercheurs ont analysé des données existantes, et n’ont pas assigné aléatoirement les patients à un groupe ou l’autre. Il pourrait donc y avoir des biais cachés. Par exemple, les patients qui ont choisi de se faire vacciner pendant leur traitement cancer sont peut-être aussi ceux qui suivent mieux leurs protocoles de soin en général ?

Mais les chercheurs ont anticipé cette critique et ont utilisé des techniques statistiques avancées pour éliminer un maximum de facteurs confondants et même avec ça, le signal reste fort. Assez fort en tout cas pour justifier de passer à l’étape d’un vrai essai clinique prospectif.

L’équipe lance donc un essai à grande échelle sur des patients atteints de cancer du poumon, avec 2 groupes : un qui reçoit l’immunothérapie standard, l’autre qui reçoit immunothérapie + vaccin mRNA COVID. Si les résultats confirment ce qu’ils ont observé, on pourrait alors voir les protocoles de traitement évoluer très rapidement.

Et contrairement aux vaccins anti-cancer personnalisés qui nécessitent d’analyser la tumeur de chaque patient pour créer un vaccin sur mesure (c’est cher et complexe…), les vaccins COVID eux sont déjà produits en masse, approuvés, dispo partout, et relativement peu chers.

On savait que non seulement ces vaccins COVID ne causaient pas de cancer mais découvrir qu’en plus ils pourraient bien devenir un outil standard pour TRAITER le cancer, c’est turbo-marrant je trouve… La science nous réserve toujours des surprises, et c’est pour ça qu’elle me passionne !

Si ça vous dit, l’étude a été publiée dans Nature, et vous pouvez la lire en intégralité ici si vous voulez rentrer dans les détails statistiques et biologiques.

Dreamer 4 - L'IA qui connait Minecraft sans jamais y avoir joué

Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…

Eh bien, les chercheurs de Google DeepMind viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.

Minecraft n’existe pas” pourrait dire le petit chauve…

Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.

Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.

De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.

Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.

Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.

Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.

Voilà, si ça vous intéresse, sachez que tout est détaillé dans ce document sur arXiv si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…

Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…

Des chercheurs font pousser un cerveau humain de poche

Vous savez quel est le pire cauchemar d’un labo pharmaceutique ? C’est investir des milliards dans un médicament qui fonctionne parfaitement sur les souris pour finalement découvrir qu’il est totalement inutile chez l’humain.

Bon, visiblement ça arrive dans 96% des cas pour les médicaments neuropsychiatriques selon les données de Johns Hopkins BME. Un taux d’échec qui ferait pâlir n’importe quel créateur de founder. Mais voilà qu’une équipe de chercheurs vient peut-être de trouver la solution en faisant pousser… des cerveaux humains miniatures.

C’est l’équipe d’Annie Kathuria à Johns Hopkins qui a réussi ce truc assez fou. Ils ont créé le tout premier organoïde cérébral complet, le MRBO (Multi-Region Brain Organoid), qui intègre toutes les régions majeures du cerveau humain. Pas juste un bout de cortex comme avant hein, mais un vrai petit cerveau avec ses vaisseaux sanguins rudimentaires et son activité neurale. La bestiole fait 6 à 7 millions de neurones ce qui comparé à votre cerveau qui en contient des dizaines de milliards, est ridicule, mais c’est déjà suffisant pour reproduire l’activité d’un cerveau fœtal de 40 jours.

Pour y parvenir, il utilisent une technique d’assemblage où au lieu d’essayer de tout faire pousser d’un coup, ils cultivent séparément les différentes régions cérébrales et les vaisseaux sanguins dans des boîtes de Petri, et ensuite, ils utilisent des protéines collantes qui font office de “superglue biologique” pour assembler le tout comme un puzzle 3D. Une fois collés ensemble, les tissus commencent alors naturellement à créer des connexions et à produire de l’activité électrique coordonnée.

Ce qui est dingue c’est que cet “‘organoïde” conserve environ 80% des types cellulaires qu’on trouve dans un cerveau humain en développement précoce. Les chercheurs ont même observé la formation d’une barrière hémato-encéphalique primitive, cette couche protectrice qui filtre ce qui peut ou ne peut pas entrer dans le cerveau. D’après ScienceDaily, c’est une première mondiale qui pourrait transformer radicalement la recherche médicale.

Mais alors pourquoi c’est si révolutionnaire ? Et bien ça permettrait de “faire de la science” sur du tissu cérébral humain sans toucher à un seul patient. Pour les maladies comme la schizophrénie, l’autisme ou Alzheimer qui affectent l’ensemble du cerveau et pas juste une région isolée, c’est donc un game-changer total.

En France, le CNRS a annoncé le lancement du programme PEPR MED-OoC début 2025. C’est un projet à 48 millions d’euros sur six ans pour développer la médecine personnalisée avec les organoïdes. Co-dirigé par le CEA, l’Inserm et le CNRS, ce programme vise à créer des modèles biologiques personnalisés et réduire l’expérimentation animale.

L’application la plus prometteuse c’est évidemment la médecine sur-mesure. En gros, on prélève vos cellules, on fait pousser un mini-vous cérébral, et on teste dessus quel traitement marchera le mieux pour VOTRE cerveau spécifique. Plus de loterie thérapeutique, plus de “on va essayer ça et voir si ça marche”. Cette approche permet déjà d’étudier la microcéphalie, les troubles du spectre autistique et même les effets du virus Zika sur le développement cérébral.

D’ailleurs, ça marche déjà pour d’autres organes. Une équipe chinoise a rapporté en 2024 les résultats d’un essai clinique où ils ont transplanté des îlots pancréatiques dérivés de cellules souches chez un patient diabétique de type 1. Du coup, sevrage complet de l’insuline en 75 jours avec une HbA1c normalisée à 5%. Alors si on peut faire la même chose avec les troubles neurologiques, c’est le jackpot médical !

Bon, maintenant avant que vous ne flippiez en mode Black Mirror, je vous rassure, ces mini-cerveaux ne sont pas conscients. L’Académie nationale de médecine insiste bien là-dessus !! Toutes les activités cellulaires observées ne peuvent pas être assimilées à des processus cognitifs, sensoriels ou moteurs. C’est juste du tissu biologique qui réagit, et pas un être pensant miniature.

Pour les chercheurs, ces organoïdes sont surtout une alternative éthique géniale car au lieu de tester sur des animaux (avec des résultats souvent non transposables) ou d’attendre des années pour des essais cliniques risqués, ils peuvent maintenant observer en temps réel comment une maladie se développe et tester immédiatement si un traitement fonctionne. Ça me fait penser aussi à cet ordinateur biologique dont j’ai parlé il y a quelques semaines…

Ce qui est fou, c’est qu’on n’est qu’au début de tout ça ! Et les applications potentielles sont énormes car ça va nous permettre de comprendre pourquoi certains cerveaux développent des maladies neurodégénératives et d’autres non, mais aussi de créer des banques d’organoïdes pour tester massivement de nouvelles molécules, ou même de développer des thérapies préventives personnalisées avant l’apparition des symptômes.

Alors oui, faire pousser des cerveaux en labo, ça peut sembler dystopique et je sais que certains d’entre vous sont déçus parce qu’ils espéraient une greffe ^^, mais quand on voit le potentiel pour soigner des maladies aujourd’hui incurables, c’est plutôt de l’espoir en boîte… de Petri.

Et avec les investissements massifs en France et aux États-Unis, on peut parier que d’ici quelques années, votre médecin pourra tester ses prescriptions sur votre jumeau cérébral miniature avant de vous les donner.

Quand votre téléphone vibre, les radars écoutent - La nouvelle menace mmWave

Vous pensiez sérieusement que vos conversations téléphoniques étaient privées tant qu’on n’était pas sur écoute. Et bien, j’ai pas une très bonne nouvelle pour vous… Voilà que des chercheurs de Penn State ont prouvé qu’un simple radar pouvait transformer les vibrations microscopiques de votre téléphone en transcription de vos appels. Y’a pas besoin de pirater quoi que ce soit, juste de pointer un capteur dans votre direction.

Le principe c’est que quand vous téléphonez, l’écouteur de votre smartphone produit des vibrations de seulement 7 micromètres. C’est tellement infime qu’on ne peut même pas le percevoir en tenant le téléphone. Pourtant, ces vibrations se propagent dans tout le châssis de l’appareil et créent ainsi une signature unique pour chaque son émis. Selon l’équipe de recherche, leur système mmWave-Whisper utilise un radar fonctionnant entre 77 et 81 GHz capable de capter ces mouvements invisibles et de les convertir en audio exploitable.

Le systeme mmWave-Whisper

Et ils ont réussi à obtenir une très bonne précision de transcription de 44,74% sur les mots et de 62,52% sur les caractères individuels. Ça peut sembler faible, mais même avec seulement la moitié des mots corrects, on peut facilement reconstituer le sens d’une conversation grâce au contexte. C’est comme lire un message avec des lettres manquantes, votre cerveau va combler automatiquement les trous. Je sais, je sais, y’a des gens qui même qui avec un texte complet ne le comprennent qu’à moitié, mais je vous assure que c’est ce qu’est censé faire le cerveau ^^.

Et cela fonctionne jusqu’à 3 mètres de distance et est totalement insensible au bruit ambiant car contrairement à un micro qui capte tous les sons environnants, le radar ne détecte que les vibrations du téléphone lui-même. Vous pourriez être dans un café bondé, le système s’en fiche complètement…

Suryoday Basak et Mahanth Gowda, les deux chercheurs derrière cette découverte, ont adapté Whisper, le modèle de reconnaissance vocale d’OpenAI, pour qu’il puisse interpréter ces signaux radar. Pour cela, ils ont utilisé une technique appelée “Low-Rank Adaptation” qui leur a permis de spécialiser le modèle avec seulement 1% de ses paramètres modifiés.

Alors adios notre vie privée ?

Et bien la mauvaise nouvelle c’est que ces radars mmWave sont déjà partout. On les trouve dans les voitures autonomes, les détecteurs de mouvement, les casques VR, et même dans certains équipements 5G. Comme le soulignent plusieurs experts, n’importe quel appareil équipé de cette technologie pourrait théoriquement être détourné pour espionner des conversations. Donc, imaginez un parking avec des dizaines de voitures récentes, chacune équipée de plusieurs radars mmWave. Bah voilà, c’est potentiellement un réseau d’écoute géant qui s’ignore.

Cette recherche s’inscrit dans la continuité de leur projet mmSpy de 2022, où ils avaient déjà réussi à identifier des mots isolés avec 83% de précision. Mais cette fois, ils sont passés à un niveau supérieur en déchiffrant des phrases complètes et des conversations entières. D’après les documents techniques, ils ont même généré des données synthétiques pour entraîner leur système, contournant ainsi le manque de datasets radar-audio disponibles.

Pour l’instant, cette technologie a ses limites car les mouvements des personnes créent des interférences (mangez-bougez !!), et la précision diminue rapidement avec la distance, mais combien de temps avant que ces limitations soient surmontées ? Les chercheurs eux-mêmes admettent que leur but est d’alerter sur cette vulnérabilité avant que des acteurs malveillants ne l’exploitent. Selon leur publication, ils comparent cette capacité à lire sur les lèvres qui ne capture environ que 30 à 40% des mots mais permet quand même de suivre une conversation.

Alors, comment s’en protéger ? Et bien pour l’instant, il n’y a pas vraiment de solution miracle. Utiliser des écouteurs pourrait limiter les vibrations du téléphone, mais ce n’est pas une garantie absolue donc la vraie question, c’est de savoir combien de temps il faudra avant que cette technologie soit miniaturisée au point de tenir dans un stylo ou intégrée discrètement dans des objets du quotidien façon 007.

On ne peut plus se contenter de sécuriser nos communications numériques, il faut maintenant s’inquiéter des propriétés physiques de nos appareils. Je vous jure, je suis fatigué :). Les implications pour la sécurité sont énormes car cette technologie est indétectable pour le commun des mortels puisque ça ne laisse aucune trace et ne nécessite aucun accès physique ou numérique au téléphone…

Source

Searloc - La recherche web qui joue à cache-cache

Pensez un peu à la tête des publicitaires si chacune de vos recherches web partait dans une direction complètement aléatoire, comme une boule de flipper qui rebondit entre 50 bumpers différents ? Et bien c’est exactement ce que fait Searloc, et vous allez voir, c’est assez malin.

Alexandre, un développeur français visiblement allergique au pistage en ligne, vient de créer quelque chose d’intéressant. Au lieu de chercher directement sur Google ou même DuckDuckGo, son outil vous envoie de manière totalement aléatoire vers l’une des 50 instances publiques SearXNG disponibles.

Ainsi, aucune instance ne voit plus de 2% de vos recherches, comme ça, pour les trackers qui essaient de créer votre profil, c’est comme essayer de reconstituer un puzzle avec seulement 1 pièce sur 50.

Le plus beau dans tout ça, c’est que Searloc fonctionne entièrement côté client. Pas de serveur, pas de base de données, pas de logs. Juste du JavaScript qui tourne dans votre navigateur et qui tire au sort votre prochaine destination. Je trouve que c’est vraiment une excellente approche de ne pas avoir de serveur fixe, car ça élimine complètement le point de centralisation.

Pour ceux qui ne connaissent pas, SearXNG est un métamoteur qui peut interroger jusqu’à 248 services de recherche différents sans jamais transmettre votre IP ou vos cookies aux moteurs sous-jacents. C’est déjà pas mal niveau privacy, mais le problème c’est que si vous utilisez toujours la même instance, l’administrateur pourrait théoriquement reconstituer votre historique de recherche. Avec Searloc, ce risque disparaît puisque vos recherches sont éparpillées façon puzzle.

L’outil propose quelques fonctionnalités sympa. Par exemple, si les résultats ne vous conviennent pas, tapez simplement “!!” et hop, votre recherche repart sur une autre instance aléatoire. Les bangs (ces raccourcis qui commencent par “!!”) sont gérés localement, donc même vos recherches spécialisées restent privées. Et pour les maniaques du contrôle, vous pouvez même ajouter vos propres instances SearXNG personnelles dans les paramètres.

Faut quand même dire que les alternatives privacy-first comme Startpage, Brave Search ou Qwant se multiplient face à l’appétit insatiable de Google pour nos données, mais là où ces services restent centralisés (même s’ils promettent de ne pas vous tracker… vous savez qui engage ce genre de promesse…), Searloc pousse la logique encore plus loin en décentralisant complètement le point d’entrée.

Maintenant, pour l’utiliser, rien de plus simple. Rendez-vous sur searloc.org et vous tapez votre recherche. L’interface reprend automatiquement vos préférences de thème et de langue pour les transmettre à l’instance SearXNG sélectionnée.

Et le code source est disponible sur Codeberg sous licence MIT, donc les paranos qui on du temps libre peuvent vérifier qu’il n’y a pas d’entourloupe.

Voilà, ce qui me plaît dans cette approche, c’est surtout qu’elle résout élégamment le dilemme de la privacy où soit vous faites confiance à un service centralisé qui promet de ne pas vous tracker (mais qui reste un point unique de défaillance), soit vous auto-hébergez votre instance (mais c’est technique et votre IP reste visible pour les sites que vous visitez). Searloc trouve ainsi un juste milieu en distribuant le risque sur des dizaines d’instances différentes.

Alors oui, c’est vrai, parfois vous tomberez sur une instance un peu lente ou qui affichera des captchas parce qu’elle a été trop sollicitée mais c’est un léger inconvénient de cette décentralisation. Parce qu’entre ça et laisser Google construire un profil psychologique détaillé de toutes vos interrogations existentielles à 3h du mat’, le choix est vite fait.

Merci à Alexandre d’avoir partagé son projet avec moi !

❌