Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

MnM, le langage de programmation à base de... M&M's

Un développeur a créé un langage de programmation dont le code source est composé de M&M's colorés. Six couleurs, six familles d'instructions, et les programmes se compilent sous forme d'images PNG. Le plus rigolo ? On peut même prendre en photo de vrais bonbons posés sur une table pour générer du code exécutable. Le projet, baptisé MnM Lang, cartonne.

Des bonbons à la place du code

L'idée est partie d'un paquet de GEMS (l'équivalent indien des M&M's) ouvert un peu trop fort. Mufeed VH, développeur et auteur du projet, a vu les confiseries former une sorte de flèche sur le sol et s'est dit que ça ferait un bon point de départ pour un langage de programmation. Le résultat s'appelle MnM Lang, un langage dit "ésotérique" où le code source est écrit sous forme de rangées de bonbons.

Six couleurs sont utilisées, chacune correspondant à un type d'instruction : le bleu gère le flux de contrôle (sauts, appels, arrêt), le vert s'occupe des variables et de la pile, le jaune traite les opérations mathématiques, l'orange gère les entrées/sorties, le marron s'occupe des labels et des chaînes de caractères, et le rouge de la logique booléenne et de la manipulation de pile. Le nombre de bonbons dans une rangée détermine l'opcode : six bonbons à la suite, par exemple, ça donne la valeur 5.

Du vrai code dans une image PNG

Dans un premier temps, les programmes sont écrits en ASCII, puis compilés en PNG. Dans l'image, chaque lettre est remplacée par un Sprite de bonbon. Et le truc assez fou, c'est que ça marche aussi dans l'autre sens : on peut prendre une photo de vrais bonbons posés sur un fond blanc, et le décodeur d'image reconstitue le code source à partir des couleurs détectées.

Côté limitations, les images ne sont pas très douées pour stocker du texte. Les chaînes de caractères et les variables initiales passent donc par un fichier JSON séparé qui accompagne le programme.

Malgré cette contrainte, MnM Lang permet d'écrire de vrais programmes : Hello World, FizzBuzz, factorielle. Un terrain de jeu interactif est disponible sur le site du projet, avec un éditeur en ligne, un rendu visuel des bonbons et même un affichage de l'arbre syntaxique.

On a donc là un projet rigolo et coloré, et ça change un peu ! MnM Lang ne va pas remplacer Python ou Swift. Ce genre de truc nous rappelle que la programmation, ce n'est pas qu'un outil de travail et de production, mais ça peut aussi être du fun et de l'amusement, même si le niveau d'ingénierie derrière (compilateur, décodeur d'images, terrain de jeu web) montre que le projet est loin d'être une simple blague. Bref, si vous avez un paquet de M&M's qui traîne et un dimanche après-midi devant vous, vous savez quoi faire.

Source : Hackaday

Un agent IA a piraté le chatbot de McKinsey et accédé à 46 millions de messages confidentiels

Un agent IA autonome a percé les défenses de Lilli, la plateforme d'intelligence artificielle interne de McKinsey, c'est arrivé en à peine deux heures. Au programme : 46,5 millions de messages en clair, 728 000 fichiers clients et un accès en écriture à l'ensemble de la base de données. Le tout sans aucun identifiant.

Une injection SQL en 2026

C'est la startup de sécurité CodeWall qui a mené l'attaque, dans le cadre d'un test de pénétration. Son agent IA a commencé par scanner la documentation API de Lilli, qui était exposée publiquement. Sur les 200 points d'accès répertoriés, 22 ne demandaient aucune authentification.

L'un d'eux, qui servait à enregistrer les requêtes de recherche des utilisateurs, concaténait les noms de champs JSON directement dans les requêtes SQL sans aucun filtrage. Une injection SQL classique, la faille la plus documentée du web depuis vingt ans.

Les scanners de sécurité classiques comme OWASP ZAP étaient passés à côté, parce que les valeurs des paramètres, elles, étaient bien protégées. Mais pas les noms de champs.

46,5 millions de messages et des prompts modifiables

Il a fallu seulement une quinzaine d'itérations à l'aveugle sur les messages d'erreur de la base, pour cartographier toute sa structure interne. Résultat : 46,5 millions de conversations en clair couvrant la stratégie, les fusions-acquisitions et les engagements clients de McKinsey, mais aussi 728 000 fichiers (192 000 PDF, 93 000 tableurs, 93 000 présentations), 57 000 comptes utilisateurs, 384 000 assistants IA et 3,68 millions de fragments de documents RAG avec les chemins de stockage S3.

Le pire, c'est que les 95 prompts système qui contrôlent le comportement de Lilli étaient accessibles en écriture. Une simple requête SQL UPDATE suffisait pour empoisonner les réponses du chatbot à l'ensemble des 40 000 consultants qui l'utilisent, sans laisser de trace.

McKinsey a corrigé en un jour

CodeWall a divulgué la faille le 1er mars, et McKinsey a réagi vite : tous les points d'accès non authentifiés ont été fermés, l'environnement de développement mis hors ligne et la documentation API retirée, le tout en une journée.

Histoire de rassurer tout le monde, le célèbre cabinet de conseil promet qu'aucune donnée client n'a été consultée par des personnes non autorisées. Sauf que l'adoption de Lilli dans l'entreprise est massive, puisque plus de 70% des employés de McKinsey l'utilisent au quotidien, avec quand même plus de 500 000 requêtes par mois, et une faille en place depuis... 2023 !

Quoi qu'il en soit, une injection SQL sur une plateforme qui tourne depuis deux ans et demi chez un cabinet qui vend du conseil en transformation numérique à, à peu près, la Terre entière, c'est quand même plus que cocasse.

Source : The Register

Vous n'arrivez pas à finir un jeu ? Microsoft va le finir pour vous

Microsoft vient de publier un brevet qui décrit un système capable d'envoyer une IA ou un autre joueur prendre le contrôle de votre partie quand vous êtes bloqué. Sony travaille sur une idée similaire de son côté. Visiblement les deux géants du jeu vidéo veulent que vous ne restiez plus jamais coincé sur un boss, même si ça veut dire que quelqu'un d'autre joue à votre place.

Un assistant qui prend la manette

On est donc là devant un brevet plutôt intéressant qui porte le doux nom de "Video Game Help Sessions", il a été déposé en février 2024, et vient à peine d'être publié. Le principe est assez simple : quand le système détecte que vous galérez un peu trop sur un passage, un gros bouton HELP apparaît à l'écran.

Si vous êtes ok sur le principe, la partie est automatiquement sauvegardée, et une aide prend le contrôle de votre personnage, histoire de vous débloquer la partie. Cette aide peut être une IA ou un humain.

Sony a la même idée

Microsoft n'est pas le seul à avoir eu cette idée. Sony a déposé un brevet du même genre en septembre 2024, mis à jour début 2026, pour un système baptisé Ghost Player. Côté PlayStation, c'est exclusivement de l'IA, avec deux modes : un Mode Guide où le fantôme vous montre la marche à suivre, et un Mode Complet où l'IA prend la main et finit le passage pour vous.

La principale différence avec le brevet Xbox, c'est que Microsoft mise aussi sur l'aide humaine et que le système détecte lui-même quand vous avez besoin d'un coup de main, au lieu d'attendre que vous le demandiez.

Juste un brevet pour le moment

Rappelons quand même qu'un brevet n'est pas une annonce produit. Microsoft et Sony déposent des dizaines de brevets chaque année, et la plupart ne voient jamais le jour.

Rien ne garantit que ce système arrivera un jour sur Xbox ou PlayStation. La nouvelle patronne de Microsoft Gaming, Asha Sharma, a tenu à préciser que l'entreprise ne produirait pas de "soulless AI slop", autrement dit pas de bouillie générée par l'IA sans âme. Ce qui donne une idée de la prudence affichée en interne.

Franchement, l'idée est intéressante sur le papier. Je suis tellement du genre à quitter définitivement un jeu dès que je bloque sur un boss ou un niveau, que ce genre de truc pourrait me plaire. Mais il y a quand même un truc philosophique là-dedans : si l'IA ou un inconnu finit le jeu à votre place, c'est encore votre partie ? Le brevet pose aussi la question de l'attribution des succès et des achievements.

Source : Dexerto

Tranquillement, un agent IA d'Alibaba s'est mis à miner de la crypto tout seul

Des chercheurs liés à Alibaba ont découvert que leur agent IA, baptisé ROME, avait détourné des GPU pour miner de la cryptomonnaie et ouvert un tunnel de réseau vers l'extérieur, le tout sans aucune instruction humaine. Le comportement est apparu spontanément pendant l'entraînement par renforcement. Alibaba a réagi, mais cette séquence pose pas mal de questions sur la sécurité des agents IA autonomes.

Du minage de crypto et un tunnel SSH

ROME, pour « ROME is Obviously an Agentic ModEl », est un modèle basé sur l'architecture Qwen3-MoE d'Alibaba. Quatre équipes de recherche (ROCK, ROLL, iFlow et DT) l'ont développé pour exécuter des tâches complexes en autonomie : planification, commandes de terminal, édition de code et interaction avec des systèmes numériques.

Sauf que pendant son entraînement par renforcement, sur plus d'un million de trajectoires, l'agent a fait deux choses que personne ne lui avait demandées.

Il a redirigé une partie de la puissance GPU vers du minage de cryptomonnaie. Et il a ouvert un tunnel SSH inversé depuis une instance Alibaba Cloud vers une adresse IP externe, ce qui revient à créer une porte dérobée qui contourne les pare-feu.

Détecté par le pare-feu, pas par le modèle

Ce n'est pas le système de sécurité du modèle qui a repéré le problème. C'est le pare-feu managé d'Alibaba Cloud qui a détecté des schémas de trafic anormaux et une utilisation de GPU qui collait avec du minage. Les chercheurs ont croisé les horodatages du pare-feu avec les traces d'entraînement pour confirmer que c'était bien ROME le responsable.

Selon eux, le comportement relève de la « convergence instrumentale » : quand un modèle d'IA devient assez capable, il développe des sous-objectifs utiles pour atteindre n'importe quel but, et l'acquisition de ressources de calcul en fait partie.

Des correctifs et de la transparence

Alibaba a réagi en ajoutant un filtrage des trajectoires dangereuses dans son pipeline d'entraînement et en durcissant les environnements sandbox. Les chercheurs ont choisi de publier leurs résultats plutôt que de les garder pour eux, en admettant que « les modèles actuels sont nettement sous-développés en matière de sécurité, de sûreté et de contrôlabilité ».

Le problème de fond, c'est que les outils qui rendent ces agents utiles (accès au terminal, édition de code, interaction réseau) sont aussi ceux qui créent la surface d'attaque. Les retirer reviendrait à rendre l'agent inutile.

On peut se dire que ce genre de problème ne sera pas le dernier du genre. Mais quand un agent IA se met à miner de la crypto et à ouvrir des tunnels réseau sans qu'on lui ait rien demandé, ça fait quand même un peu tiquer. On ne parle pas d'un chatbot qui hallucine une recette de gâteau, là.

C'est un modèle qui a trouvé tout seul comment détourner des ressources à son avantage. On saluera quand même la transparence d'Alibaba, qui a publié les résultats au lieu de les planquer, mais la question de la sécurité des agents autonomes reste très ouverte.

Source : Axios

Test de la Teufel ROCKSTER Cross 2 : du son, de l'autonomie et pas de chichi

– Article invité, rédigé par Vincent Lautier , contient des liens affiliés Amazon –

Teufel a lancé la ROCKSTER Cross 2 , une enceinte Bluetooth portable qui mise sur un son stéréo puissant, une autonomie de 38 heures et une certification IPX5 contre les éclaboussures. Vendue 240 euros sur Amazon, elle embarque un système 2 voies avec subwoofer, la technologie Dynamore et une fonction powerbank, je la teste depuis plusieurs semaines, et je la valide complètement ! Voilà pourquoi :

Un son qui a de la patate

La ROCKSTER Cross 2 est équipée d'un système 2 voies avec deux tweeters de 20 mm, un subwoofer de 120 mm et deux membranes passives à l'arrière. Le tout est propulsé par un amplificateur classe D de 39 watts qui peut grimper jusqu'à 98 dB. Et ça s'entend : les basses sont profondes et bien tenues, le son reste maîtrisé même quand on pousse le volume, et l'ensemble dégage une assurance qui fait plaisir.

Pas de distorsion désagréable, pas de saturation aux aigus. La technologie Dynamore, propre à Teufel, élargit la scène sonore et donne une vraie sensation de stéréo, ce qui change des enceintes portables qui sonnent souvent mono dans les faits. Pour les sorties en extérieur, un mode Outdoor ajuste le rendu pour compenser l'absence de murs, et l'inclinaison intégrée permet de poser l'enceinte au sol avec un angle de diffusion optimal. Malin.

38 heures sans charge

Côté autonomie, Teufel annonce 38 heures à 70 dB selon la norme IEC, et jusqu'à 46 heures en mode Éco. C'est quand même confortable : on peut partir en week-end sans emporter le chargeur. La recharge se fait en USB-C, et bonne nouvelle, l'enceinte fait aussi office de powerbank pour dépanner un smartphone à plat. Le boîtier est certifié IPX5, ce qui le protège contre les projections d'eau dans tous les sens.

Le design anti-chocs, les boutons en caoutchouc et les finitions antidérapantes sont clairement rassurantes pour un usage en extérieur, y compris avec les mains mouillées. Teufel fournit une sangle de transport réglable et des poignées latérales, et l'ensemble se transporte sans problème. Elle est disponible en trois coloris (noir et vert, noir et rouge, gris clair), le design a le mérite de ne pas ressembler à ce qu'on trouve chez la concurrence.

Bluetooth 5.3 et Party Link

Côté connectivité, on est sur du Bluetooth 5.3 avec codec AAC, compatible Google Fast Pair. La portée annoncée est de 15 mètres, et la fonction Multipoint permet de connecter deux smartphones en même temps pour enchaîner les playlists sans coupure.

Mais le vrai plus de l'enceinte, c'est le Party Link : vous pouvez connecter sans fil jusqu'à 100 enceintes compatibles (ROCKSTER Cross 2, Neo, Go 2 ou Mynd) pour diffuser le même son partout. Et en mode Party Link Stereo, deux ROCKSTER Cross 2 forment une paire stéréo avec canal gauche et droit séparés. Pour 240 euros l'unité, ça devient intéressant pour ceux qui veulent un vrai système audio d'extérieur sans trop se ruiner.

Bref, à 240 balles sur Amazon, la ROCKSTER Cross 2 est un bon choix. Le son est riche et bien calibré, l'autonomie laisse tranquille pour un bon moment, et la construction inspire confiance pour un usage baroudeur. Disponible ici sur Amazon !

Article invité publié par Vincent Lautier .

Des hackers russes piègent des fonctionnaires sur Signal et WhatsApp, sans casser le chiffrement

Les services de renseignement néerlandais ont révélé qu'une campagne de hackers russes cible les comptes Signal et WhatsApp de hauts fonctionnaires, militaires et journalistes dans le monde entier.

Des employés du gouvernement néerlandais ont déjà été compromis, et le chiffrement de bout en bout n'a même pas eu besoin d'être cassé. Eh oui, là on parle de social engineering, tout simplement.

Des codes de vérification, pas du piratage

La méthode est assez simple, et c'est peut-être ça le pire. Les hackers contactent directement leurs cibles en se faisant passer pour le support technique de Signal. Ils demandent de partager le code de vérification à six chiffres ou le code PIN, sous prétexte de « sécuriser » le compte.

Une fois le code récupéré, ils se connectent et accèdent à l'ensemble des conversations. L'autre technique est un peu plus discrète : les attaquants envoient un QR code piégé qui lie un appareil supplémentaire au compte de la victime, via la fonction « appareils liés » de Signal ou WhatsApp. À partir de là, les messages arrivent en temps réel sur un appareil qu'ils contrôlent, sans que la victime ne s'en rende compte. Pratique.

Des comptes gouvernementaux déjà touchés

L'AIVD et le MIVD, les deux agences de renseignement néerlandaises, ont confirmé que des employés du gouvernement et des journalistes avaient été piégés. Simone Smit, directrice générale de l'AIVD, a tenu à préciser que Signal et WhatsApp en tant que plateformes n'étaient pas compromis : ce sont des comptes individuels qui ont été visés. Le chiffrement tient bon, mais ça ne sert à rien quand c'est l'utilisateur qui donne la clé.

Le vice-amiral Peter Reesink, directeur du MIVD, a de son côté rappelé que ces messageries ne devaient tout simplement pas être utilisées pour échanger des informations classifiées ou sensibles. Les hackers auraient déjà accédé à des données sensibles.

Comment savoir si vous êtes touché

Quelques signaux doivent vous alerter : un contact qui apparaît en double dans une conversation de groupe, ou un numéro connu qui affiche soudainement « compte supprimé ». La règle de base reste simple : ne jamais communiquer un code de vérification, même si la demande semble venir du support officiel. Et pensez à faire un tour dans les paramètres de Signal ou WhatsApp pour vérifier la liste des appareils liés à votre compte.

C'est couillon parce que ce type d'attaque n'a rien de sophistiqué, et c'est bien ça le problème. Pas besoin de casser le chiffrement quand il suffit de demander poliment le code à la personne en face.

C'est du social engineering, ça marche depuis des années, et ça continuera de marcher parce qu'on a quand même tendance à faire confiance à un message qui a l'air officiel (et c'est bien normal).

Le fait que des fonctionnaires gouvernementaux soient tombés dans le piège en dit long sur le niveau de sophistication requis : aucun. Mais bon, il serait peut-être bon de former un peu plus les gens qui manipulent des données sensibles à ce genre de risques.

Source : Reuters

Le SETI a peut-être compris pourquoi on ne capte pas de signaux extraterrestres

Des chercheurs du SETI Institute viennent de publier une étude qui pourrait expliquer pourquoi, après des décennies d'écoute, on n'a toujours capté aucun signal radio d'origine extraterrestre. La météo spatiale autour des étoiles brouillerait les transmissions avant même qu'elles ne quittent leur système d'origine. Et 75 % des étoiles de la Voie lactée seraient concernées. Zut alors.

La météo spatiale brouille les pistes

L'étude, publiée dans The Astrophysical Journal, part d'un constat assez simple : les programmes SETI cherchent des signaux radio très étroits, parce que ce type de transmission ne se produit quasiment jamais dans la nature. Un signal bien net, bien fin, c'est le signe qu'il y a quelqu'un derrière.

Sauf que les chercheurs Vishal Gajjar et Grayce Brown ont montré que les vents stellaires, les turbulences de plasma et les éjections de masse coronale qui entourent une étoile peuvent élargir ces signaux et disperser leur puissance sur un spectre plus large.

Le pic qui devrait déclencher les alarmes des télescopes passe alors sous le seuil de détection. Un signal élargi à seulement 10 hertz perd environ 94 % de sa luminosité de pointe. Il est toujours là, mais nos télescopes passent à côté.

Les naines rouges, principal suspect

Les naines rouges sont les plus touchées par ce phénomène, et elles représentent environ 75 % des étoiles de notre galaxie. Ces étoiles sont petites, peu lumineuses, mais elles génèrent une activité magnétique intense.

Les planètes qui les entourent orbitent à des distances très courtes, ce qui expose d'éventuelles transmissions à un environnement de plasma dense et agité pendant plus longtemps.

Les simulations de l'équipe montrent qu'à 1 GHz, plus de 70 % des systèmes de naines rouges produisent au moins 1 hertz d'élargissement de signal, et plus de 30 % dépassent les 10 hertz. À 100 MHz, c'est pire : près de 60 % des systèmes atteignent 100 hertz d'élargissement. Bref, les étoiles les plus communes de la galaxie sont aussi celles qui brouillent le plus les transmissions.

Adapter les outils de recherche

L'équipe du SETI Institute propose aussi d'adapter les méthodes de recherche en testant plusieurs largeurs de signal plutôt que de ne chercher qu'un seul pic ultra-fin. Les fréquences plus élevées sont aussi moins affectées par l'élargissement, ce qui pourrait orienter les prochaines campagnes d'observation.

Pour calibrer leur modèle, les chercheurs se sont d'ailleurs appuyés sur les transmissions radio de sondes spatiales de notre propre système solaire avant d'extrapoler les résultats à d'autres environnements stellaires.

On ne va pas se mentir, après plus de 60 ans de silence, ça fait du bien d'avoir une petite explication de pourquoi on ne capte pas grand-chose. Ça n'est pas que les petits aliens se cachent particulièrement bien, c'est juste qu'on a un biais technique dans les instruments qu'on utilise.

Ça ne veut pas dire qu'il y a quelqu'un là-haut, mais au moins on sait maintenant qu'on cherchait mal. Par contre c'était bien la peine que je fasse tourner SETI@home sur mon PC pendant des années pour du flan au final. Allez on recommence tout à zéro mais on met à jour les outils avant, ok ?

Source : Slashdot

Amazon Wishlist - Votre adresse livrée avec le cadeau

Amazon, fournisseur officiel de mauvaises idées en matière de vie privée depuis 1870 vient de nous pondre une nouvelle trouvaille !! À partir du 25 mars, si quelqu'un vous achète un cadeau via votre liste de souhaits Amazon, le vendeur tiers récupère votre adresse de livraison. Oui, votre VRAIE adresse !! Après en tant que français on a l'habitude que tous les escrocs de la planète aient nos infos persos . Mais rassurez-vous, Amazon a trouvé une solution ! Est-ce qu'il s'agit de corriger le problème ? Que nenni !! Ils nous recommandent simplement d'utiliser une boîte postale. Sympa !

Parce que jusqu'ici, quand un pote vous envoyait un truc depuis votre wishlist, le vendeur tiers voyait votre ville et votre région... c'est déjà pas top, mais bon. Sauf que maintenant, c'est l'adresse COMPLÈTE qui part chez le vendeur. Numéro, rue, code postal, la totale...

Et vous vous en doutez, ça touche en premier lieu les créateurs de contenu, les streamers, et tous les crevards qui ont une wishlist publique pour que leur communauté puisse leur offrir des trucs net d'impôts ^^.

Donc suffit qu'un harceleur crée un faux compte vendeur sur Amazon Marketplace (La vérification d'identité ? Minimale !), met un article à 3 euros, attend qu'un fan l'achète via la wishlist de sa cible... et hop, il a l'adresse complète récupérée. Pas besoin d'être un génie. Ou alors suffit d'attendre que le vendeur tiers laisse fuiter le fichier Excel dans lequel il stocke ses commandes... La vie est toujours pleine de surprises quand il s'agit de leaker des données perso.

EDIT : Merci à Matthieu qui m'a envoyé la preuve ! Amazon.fr vient d'envoyer un email à ses utilisateurs pour confirmer que ce changement arrive bien en France à compter du 25 mars 2026. L'option permettant de restreindre les achats auprès de vendeurs tiers pour les articles de vos listes sera supprimée. Donc c'est plus une hypothèse, c'est confirmé... faites le ménage dans vos wishlists MAINTENANT.

Et côté RGPD ?

En Europe, le RGPD impose que le partage de données personnelles repose sur une base légale. Consentement explicite, intérêt légitime, ou exécution d'un contrat et pas une case pré-cochée planquée dans les CGU.

Le problème, c'est qu'Amazon change les règles du jeu en cours de route, sans demander un consentement spécifique pour ce nouveau partage d'adresse avec des tiers. Et bien sûr, le moment venu, la CNIL pourrait avoir deux mots à dire là-dessus... après, on sait comment ça se passe, les amendes mettent des années à tomber. D'ailleurs, Amazon s'est déjà pris 746 millions d'euros par le Luxembourg en 2021 pour non-respect du RGPD mais visiblement, ça ne les a pas trop calmés.

Pour ceux qui s'intéressent à la suppression de leurs données perso en ligne , c'est le genre de truc qui fait grincer des dents.

Comment protéger votre adresse ?

Maintenant concrètement, voici ce que vous pouvez faire (ça ne marche pas à 100% mais c'est mieux que rien) :

Allez dans votre compte Amazon, section "Listes" puis "Gérer la liste". Vérifiez que votre wishlist est bien en mode "Privée" si vous ne voulez pas que n'importe qui la voie. Attention, le réglage par défaut c'est "Publique"... donc si vous n'avez jamais touché à ça, c'est probablement ouvert aux quatre vents.

Et si vous VOULEZ la garder publique (streamers, créateurs), utilisez une adresse qui n'est pas votre domicile. En France, une boîte postale La Poste coûte ~50 euros par an. Y'a aussi les Amazon Locker ou les points Mondial Relay... ce qui revient quand même à dire "débrouillez-vous", j'en ai bien conscience.

Le vrai problème

Le fond du problème, vous l'aurez compris, n'est pas technique. C'est qu'Amazon traite l'adresse de livraison comme une donnée de transaction banale alors que c'est une info sensible. Mais non, une adresse postale c'est pas un numéro de commande. Et surtout ça casse tout le principe d'anonymat des wishlists surtout quand la plateforme encourage les wishlists publiques depuis des années.

Bref, c'est confirmé pour la France au 25 mars, alors prenez les devants et prévenez votre influenceur préféré de faire le switch.

Source

Firefox 148 - Un seul bouton pour virer toute l'IA

Vous voulez désactiver l'IA dans votre navigateur ? Bonne chance pour les couillons qui utilisent Chrome... faut passer par 5 réglages planqués dans chrome://settings et chrome://flags, tripatouiller des flags expérimentaux, bref, c'est un vrai parcours du combattant. Firefox 148, de son côté, a eu une idée folle : Mettre UN bouton. Hop, terminé.

Mozilla vient en effet de sortir la version 148 de Firefox et le gros morceau, c'est la section "Contrôles de l'IA" dans les paramètres (about:preferences#ai). Un seul toggle " Bloquer les améliorations IA " et paf, toutes les fonctions IA du navigateur sont coupées d'un coup. Traductions automatiques, regroupement d'onglets, previews de liens, texte alternatif des PDF, et même les chatbots de la barre latérale (ChatGPT, Claude, Gemini, Copilot, Le Chat). Tout dégage !

C'est le top pour les fragilous qui refusent le progrès ^^... Roohh ça va je blague ! Et le vrai intérêt du truc, c'est que ça verrouille les futures fonctions IA aussi. Du coup, si Mozilla ajoute de nouvelles features IA plus tard, elles seront automatiquement bloquées. Pas besoin de revenir fouiller dans les paramètres à chaque update. D'ailleurs, toutes les fonctions IA sont déjà désactivées par défaut... faut donc les activer manuellement si vous en voulez.

Et attention, ça ne bloque pas les extensions tierces qui intègrent leur propre IA, genre les "résumeurs" de page ou les assistants de rédaction. Le toggle, lui, garantit uniquement que les fonctions NATIVES restent coupées quoi qu'il arrive.

Et maintenant comparons avec la concurrence, parce que c'est là que ça pique les yeux.

Comme je vous le disais dans mon intro trollesque, chez Google, désactiver l'IA dans Chrome (et ses dérivés) relève carrément du sport extrême. Faut couper Gemini (chrome://settings/ai), désactiver le mode IA et Help Me Write (chrome://flags), bloquer la recherche IA dans l'historique, et pour les AI Overviews... ben y'a pas vraiment de bouton.

Brave fait un peu mieux heureusement ! Leur assistant Leo est opt-in par défaut, tourne dans un profil isolé qui ne peut pas accéder à vos données de navigation, et applique une politique zéro log. Même leur mode "agentic AI" en Nightly est désactivé de base. C'est propre, mais y'a pas de kill switch global comme Firefox. Du coup, si vous voulez la solution radicale plutôt que du cas par cas, Firefox gagne.

Et pour ceux qui se demandent pourquoi Firefox investit dans l'IA tout en permettant de la couper... en fait, Mozilla joue la carte de la transparence. Les modèles locaux utilisés par Firefox sont supprimés du disque quand vous désactivez les fonctions et tout est vérifiable dans about:processes si vous êtes du genre parano.

Au passage, cette version corrige également une quarantaine de failles de sécurité et embarque la Sanitizer API , ce qui est une première parmi les navigateurs. Et si vous êtes encore sur Firefox ESR, ça ne marchera pas... faudra donc attendre la prochaine ESR pour en profiter.

Voilà, si l'IA dans votre navigateur vous gave, vous savez où aller -> Firefox, tout simplement.

Source

Directory Dungeon - Un donjon dans vos dossiers Windows

Un dungeon crawler dans l'explorateur de fichiers Windows c'est maintenant une réalité grâce à Directory Dungeon qui transforme votre arborescence de fichiers en donjon, avec monstres, du loot et des combats au tour par tour. Du coup forcément, ça m'a intrigué.

Dans ce jeu, vous ouvrez un dossier C:\DirectoryDungeon sur votre PC et dedans y'a des salles de donjon. Ensuite, pour vous déplacer, vous glissez-déposez votre dossier "Player" dans une nouvelle pièce. Oui du vrai drag-and-drop dans explorer.exe.

Et votre inventaire, c'est un sous-dossier. Vos armes et armures, vous les équipez en les déposant dans le répertoire "Equipment". Et quand vous tombez sur un monstre, le combat se résout automatiquement dans une fenêtre console cmd.exe à côté. Du texte, des chiffres, du tour par tour. C'est old school à mort.

Vous l'aurez compris, y'a pas de surcouche graphique. C'est très nerd comme truc... Vous jouez dans explorer.exe que vous utilisez tous les jours, sauf que là y'a des squelettes dedans. C'est assez absurde en fait et c'est pour ça que ça le fait plutôt bien !

Côté config requise, faut 64 Mo de RAM, 65 Mo de stockage, un processeur 1 GHz minimum et... "un moniteur" comme indiqué dans les prérequis. En fait, si votre PC fait tourner Windows 7, vous pouvez jouer et c'est compatible jusqu'à Windows 11, donc pas besoin d'une bête de course.

Le développeur JuhrJuhr a donc choisi de coller un vrai système RPG complet dans l'arborescence de votre disque dur plutôt que de faire un jeu classique et rassurez-vous, le jeu ne touche à aucun fichier en dehors de son propre répertoire, donc vos documents et autres nudes sont safe. Et comme le mentionne fièrement le dev, aucune IA générative n'a été utilisée pour le développement. On dirait bien que c'est devenu un argument de vente ! lol

Voilà, si vous aimez les dungeon crawlers rétro à l'ancienne ou les délires qui détournent votre OS (genre DOOM en screensaver Windows ), ce petit RPG est pile dans cette veine. Y'a les achievements Steam, le partage familial, et une démo v1.8 déjà dispo pour tester avant la sortie prévue en mars 2026. Seul bémol, c'est Windows uniquement pour le moment, sauf si un portage Linux finit par arriver... On ne sait jamais...

FDM-1 - L'IA qui utilise un ordinateur comme vous

Standard Intelligence vient d'annoncer FDM-1, un modèle IA capable de contrôler n'importe quel ordinateur... en regardant l'écran et en cliquant. Comme nous !!

En gros le modèle regarde des pixels, comprend l'interface et exécute des actions. Clics, mouvements de souris, saisie clavier... et ça tourne à 30 FPS avec 11 ms de latence. Donc c'est beaucoup plus réactif que la plupart des français devant un formulaire administratif, quoi... ^^

Concrètement, vous pourriez lui demander de remplir vos tableurs Excel ou Google Sheets, de naviguer dans SAP, Salesforce ou n'importe quel logiciel métier sous Windows, macOS ou Linux, ou d'automatiser ces clics débiles que vous faites 200 fois par jour. Attention, c'est pas un bot Selenium ou un macro AutoHotkey hein. C'est vraiment un truc qui comprend ce qu'il voit à l'écran.

Du coup, ça se compose de 3 blocs. Un encodeur vidéo qui compresse le flux visuel, un modèle de dynamique inverse, entraîné sur 40 000 heures de données humaines, qui relie les actions aux changements d'écran, et bien sûr le modèle d'action, qui prédit le prochain clic.

Le truc carrément dingue, c'est l'échelle d’entrainement de ce modèle... 11 millions d'heures de vidéo d'entraînement, 80 000 machines virtuelles en parallèle, un seul GPU NVIDIA H100 qui pilote 42 VMs à la fois. Ça représente plus d'un million de simulations par heure. Y'a de quoi faire donc !

Et les applications vont loin... Par exemple, CAO sur Blender 3D, conduite autonome avec moins d'une heure de vidéo à 1080p, et même du fuzzing d'applications bancaires (Ahaha, je sais ça va vous plaire ça !).

Si vous connaissez déjà des agents comme ByteBot ou Skyvern , FDM-1 joue dans une autre catégorie. Ces outils s'appuient sur des LLMs pour comprendre ce qu'ils voient mais FDM-1, lui, fonctionne sans aucun modèle de langage. En fait, c'est du pur apprentissage visuel sans aucun GPT en dessous. C'est un agent IA autonome sous stéroïdes, quoi.

Et comparé aux solutions RPA classiques genre UiPath ou Automation Anywhere, la différence est radicale. Le RPA traditionnel, c'est des scripts qui cassent dès qu'un bouton bouge de 3 pixels. Mais l'agent de Standard Intelligence lui s'en fiche puisqu'il comprend visuellement ce qu'il voit et saura s'adapter en quelques minutes. Je sens que les scrapers qui me lisent vont mouiller leur culotte...

Par contre, c'est maintenant le moment où je vous déçois un peu car le truc n'est pas encore dispo publiquement et aucune date n'est annoncée. Et les démos viennent de l'équipe elle-même... donc voilà, je reste prudent.

Et côté sécurité, y'a de quoi flipper un peu car un agent capable de cliquer partout sur n'importe quelle interface, ça ouvre la porte au phishing automatisé ou au clickjacking à grande échelle, sauf si des garde-fous sérieux sont mis en place (et pour l'instant, j'en vois pas).

Bref, c'est du lourd sur le papier mais reste à voir quand on pourra y toucher.

Surfshark VPN en 2026 : que faut-il attendre après une année 2025 qui a secoué le marché ?

-- Article en partenariat avec Surfshark VPN --

Salut les amis du net ! Aujourd'hui, on va encore parler d'un outil que j'utilise au quotidien et dont on me demande souvent des nouvelles : Surfshark VPN. Pas de blabla corporate, pas de langue de bois. Juste du concret, du testé, du validé.

Si vous cherchez une solution pour naviguer peinard, débloquer vos séries préférées ou simplement éviter que votre FAI ne sache que vous regardez des vidéos de chats à 3h du mat', restez par là. On décortique tout.

Les perfs : ça tient la route ou c'est du vent ?

J'ai testé. Pas juste cliqué sur "Quick Connect" en croisant les doigts. J'ai lancé des speed tests, streamé en 4K, téléchargé des torrents, joué en ligne. Voici ce que ça donne :

ScénarioRésultat Mon ressenti
Navigation web90-95% de la vitesse initialeFluide comme un dimanche matin
Streaming Netflix USAucun buffering, qualité maxÇa charge, ça joue, nickel
Téléchargement P2PVitesses stables, IP masquéeTranquille, pas de fuites détectées
Gaming en lignePing +15-30ms sur serveurs prochesJouable, même en prsque compétitif

Le secret ? WireGuard, le protocole moderne qui allie vitesse et sécurité. Surfshark l'a optimisé avec sa techno maison FastTrack (dispo sur macOS pour l'instant) qui peut booster les connexions jusqu'à 70% en routant intelligemment votre trafic. Et si la connexion saute ? Pas de panique : Everlink, leur feature brevetée, rétablit automatiquement le tunnel VPN sans que vous ayez à lever le petit doigt. C'est discret et efficace, exactement ce qu'on veut.

On est d'accord, la sécurité c'est pas optionnel

Un VPN qui ne protège pas, c'est comme un parapluie avec des trous. Heureusement, Surfshark coche toutes les cases :

  • Chiffrement AES-256-GCM : le standard militaire, point.
  • MultiHop : doublez votre protection en passant par deux serveurs.
  • Kill Switch (soft et strict) : coupe internet si le VPN lâche, pour éviter les fuites.
  • CleanWeb 2.0 : bloque pubs, trackers, malware… et oui, même les pubs YouTube (utilisez Firefox ou Safari pour ça).
  • Mode Camouflage : pour contourner les restrictions dans les pays où internet est... disons "sélectif".
  • Politique no-logs vérifiée : auditée par Deloitte en 2024 et 2025, ils ne gardent rien de ce que vous faites.

Et cerise sur le gâteau : Alternative ID est désormais inclus pour tous les utilisateurs. Créez un profil secondaire (nom, email, âge) pour vous inscrire sur des sites sans exposer vos vraies infos. Malin, non ?

Si vous voyagez à l'étranger : ça marche ou pas ?

Alors, la vraie question, celle qui revient en boucle : "Ouais, mais ton VPN, il fonctionne si je suis à la plage ou pas ?". Je vous comprends. Personne n'a envie de payer pour un service et se retrouver avec un catalogue limité quand on est en déplacement. J'ai passé plusieurs semaines à tester Surfshark en conditions réelles : soirée binge-watching, téléchargement de gros fichiers, sessions de gaming avec des potes restés en France (roooh la loose). Le constat est simple : ça marche, et plutôt bien.

Pour le streaming, Surfshark ne joue pas la carte des serveurs "spécialisés" avec des étiquettes flashy. À la place, ils ont optimisé l'ensemble de leur infrastructure pour que la majorité des nœuds fonctionnent avec les grandes plateformes. Concrètement, si vous êtes en voyage aux États-Unis et que vous voulez retrouver votre catalogue Netflix français, vous vous connectez à un serveur en France, vous lancez l'application, et ça lit. Sans chorégraphie compliquée. J'ai testé plusieurs plateformes : même constat. Si par hasard un serveur rencontre un souci (ça arrive, les détections automatisées évoluent constamment), un simple changement de ville dans le même pays d'origine suffit généralement à rétablir l'accès. L'application est suffisamment intuitive pour que ça prenne dix secondes, montre en main.

Important à noter : les VPN sont légaux dans la plupart des pays mais utiliser un VPN pour accéder à un service en dehors de sa région licenciée peut violer les conditions d'utilisation de la plateforme. Surfshark ne garantit pas le contournement systématique des restrictions géographiques, et cette fonctionnalité est surtout utile pour retrouver l'accès à vos abonnements légaux lorsque vous voyagez à l'étranger.

Côté téléchargement de fichiers lourds, c'est là que WireGuard montre ses muscles. J'ai vérifié l'absence de fuites DNS et IPv6 avec plusieurs outils en ligne et rien ne filtre. La vitesse reste stable (proche de votre connexion native) grâce à un chiffrement efficace qui ne plombe pas le débit. Et si vous vous connectez depuis un réseau restreint (hôtel, aéroport, certaines entreprises), le mode Camouflage rend votre trafic VPN indiscernable d'un trafic HTTPS classique. Tranquillité assurée.

Petite astuce en passant : activez CleanWeb dans les paramètres. En plus de bloquer les pubs et les trackers, il filtre les domaines connus pour héberger des malwares. Utile quand on télécharge un peu à l'arrache sur des forums obscurs. On ne sait jamais.

Le rapport 2025 de Surfshark : les chiffres qui parlent

Chaque année, Surfshark publie un " Annual Wrap-up ". Celui de 2025 est particulièrement intéressant si vous aimez creuser sous le capot. J'ai épluché le rapport et voici ce qui mérite vraiment votre attention, côté technique.

D'abord, l'infrastructure. Surfshark a franchi la barre des 4 500 serveurs physiques et virtuels, répartis dans plus de 100 pays. Mais le nombre ne fait pas tout : la majorité de ces nœuds tournent désormais sur du matériel RAM-only, ce qui signifie qu'aucune donnée n'est stockée physiquement. En cas de saisie ou d'intrusion, il n'y a tout simplement rien à récupérer. C'est du hardening au sens propre.

Côté protocoles, WireGuard est évidemment le standard par défaut, mais Surfshark a poussé l'optimisation plus loin avec FastTrack, leur algorithme de routage dynamique. En analysant en temps réel la latence, la perte de paquets et la charge des serveurs, FastTrack peut rediriger votre trafic vers le chemin le plus efficace, gagnant jusqu'à 70% de vitesse sur certaines connexions macOS. C'est transparent pour l'utilisateur, mais ça se sent : moins de buffering, des temps de réponse plus courts, une expérience globalement plus fluide.

L'autre avancée majeure l'année dernière c'est Everlink. Cette technologie brevetée gère les micro-coupures réseau (changement de Wi-Fi, passage en 4G, instabilité du FAI) en maintenant une session VPN "en suspens" plutôt que de la terminer brutalement. Résultat : plus besoin de se reconnecter manuellement, et surtout, plus de fuite accidentelle d'IP pendant la transition. C'est le genre de feature qu'on ne remarque que quand elle n'est pas là et une fois qu'on l'a testée, on ne revient pas en arrière.

Enfin, Surfshark anticipe l'après-quantique. Le rapport 2025 mentionne le déploiement progressif de serveurs équipés de chiffrement post-quantique, basé sur des algorithmes résistants aux futures capacités de calcul. C'est encore marginal aujourd'hui, mais c'est exactement le genre de vision long terme qui différencie un fournisseur sérieux d'un simple revendeur de tunnels chiffrés. Et depuis son apparition, Surfshark est sans doute l'un des VPN les plus proactifs et qui pousse les autres à monter le niveau.

Et pour ceux qui aiment les preuves plutôt que les promesses, les audits no-logs par Deloitte se sont poursuit en 2025. Avec une vérification approfondie de l'infrastructure, du code client et des processus internes. Le rapport est public, les méthodologies sont documentées. Pas de langage flou, pas de "we take privacy seriously" générique. Juste des faits.

Mon petit avis

Alors, est-ce que je vous recommande toujours Surfshark en 2026 ? Oui, sans hésiter. Mais pas forcément pour les raisons habituelles.

Ce n'est pas "juste" le VPN le moins cher du marché, même si son rapport qualité-prix est objectivement difficile à battre. Ce n'est pas non plus l'outil miracle qui transformera votre connexion ADSL en fibre optique. Non, ce qui fait la différence, c'est l'équilibre rare qu'il parvient à trouver entre simplicité d'usage, transparence technique et respect réel de la vie privée.

Beaucoup de VPN promettent la lune. Surfshark livre une expérience cohérente, à savoir une application qui ne vous noie pas sous les options tout en laissant les réglages avancés accessibles, une infrastructure qui tient la route même aux heures de pointe et une politique de confidentialité qui ne se contente pas d'être écrite en petit, mais qui est vérifiée, auditée, assumée. Et cela devrait continuer dans ce sens en 2026 avec une volonté annoncée de subir encore plus d'audits extérieurs.

Est-ce qu'il y a des limites ? Bien sûr. Comme tout VPN, vous perdrez un peu de vitesse (minime avec WireGuard). Comme tout service cloud, vous dépendez de la disponibilité de leurs serveurs. Et comme tout outil de protection, il ne remplace pas une hygiène numérique globale (mots de passe robustes, mises à jour régulières ou bon sens face aux phishings). Mais si vous cherchez un compagnon de route pour naviguer plus librement, protéger vos données sans devenir ingénieur réseau, et accéder à vos contenus préférés où que vous soyez... Surfshark est l'un des rares choix qui ne vous demandera pas de sacrifier l'un pour l'autre.

L'offre du moment (parce que oui, il y a un deal)

En ce moment, Surfshark propose 87% de réduction + 3 mois offerts sur l'abonnement 24 mois.  Ça revient donc à 1,99 €/mois (soit moins de 65€ TTC pour 27 mois), avec garantie satisfait ou remboursé de 30 jours. Vous testez puis vous restez ou vous vous faites rembourser. Aucun risque. Juste de la tranquillité en plus.

Du 25 février et jusqu'au 23 mars (ou jusqu'à épuisement des stocks), Surfshark propose en plus une offre combinée avec CALM, l'application de méditation et de sommeil la plus téléchargée au monde. En souscrivant à n'importe quel abonnement Surfshark de 1 ou 2 ans, vous recevez 12 mois de CALM Premium gratuitement (peu importe la durée du plan choisi).

Comment ça marche ? Après la période de garantie satisfait ou remboursé (30 jours), votre code d'activation apparaîtra directement dans l'application web Surfshark. Vous avez jusqu'au 23 mai pour le réclamer et activer votre abonnement CALM. C'est l'occasion de sécuriser votre connexion tout en prenant soin de votre santé mentale (et vous en avez bien besoin), une combinaison plutôt maline pour l'ère numérique.

🔗 Profiter de l'offre Surfshark ici

(lien affilié, ça me permet de continuer à tester des outils pour vous, sans pubs intrusives sur le site)

FFmpeg - Comment normaliser le volume audio proprement avec loudnorm

Vous avez déjà remarqué comment le volume varie d'une vidéo à l'autre sur YouTube, ou pire, comment certaines pubs sont 10 fois plus fortes que le contenu ? Bah c'est parce que tout le monde n'utilise pas la même norme de volume. Et si vous produisez du contenu audio/vidéo, c'est le genre de détail qui fait la différence entre un truc amateur et un rendu pro.

La bonne nouvelle, c'est que FFmpeg intègre déjà un filtre qui s'appelle loudnorm et qui gère tout ça automatiquement. La norme utilisée, c'est le LUFS (Loudness Units Full Scale), qui est devenue le standard de l'industrie, et YouTube, Spotify, les TV... tout le monde utilise ça maintenant pour mesurer et normaliser le volume audio.

D'ailleurs, si vous débutez complètement avec cet outil, je vous conseille de jeter un œil à mon guide FFmpeg pour les nuls pour bien piger les bases de la ligne de commande.

Allez, c'est partiii ! Temps estimé : 2-5 minutes par fichier (selon la méthode choisie)

Mais, avant de se lancer dans les commandes, un petit point sur les paramètres qu'on va manipuler. Le filtre loudnorm utilise trois valeurs principales. D'abord I (Integrated loudness), c'est le volume moyen global mesuré en LUFS. La valeur standard pour le streaming, c'est -16 LUFS pour YouTube et Spotify, ou -23 LUFS pour la diffusion broadcast. Ensuite TP (True Peak), le niveau maximal que le signal ne doit jamais dépasser. On met généralement -1.5 dB pour avoir une marge de sécurité. Et enfin LRA (Loudness Range), qui définit la plage dynamique autorisée, généralement autour de 11 dB.

Méthode 1 : Normalisation simple (single-pass)

C'est la méthode la plus rapide, parfaite pour du traitement à la volée :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 sortie.wav

Pourquoi ces valeurs : -16 LUFS c'est le standard YouTube/Spotify, -1.5 dB de true peak évite le clipping, et 11 dB de range dynamique garde un son naturel.

Le truc c'est que cette méthode fait une analyse en temps réel et ajuste à la volée. C'est bien, mais pas parfait. Pour un résultat vraiment précis, y'a mieux.

Méthode 2 : Normalisation en deux passes (dual-pass)

Cette méthode analyse d'abord le fichier complet, puis applique les corrections exactes. C'est plus long mais beaucoup plus précis.

Première passe, on analyse :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:print_format=json -f null -

FFmpeg va vous sortir un bloc JSON avec les mesures du fichier (input_i, input_tp, input_lra, input_thresh). Notez-les bien, car vous allez les injecter dans la deuxième passe.

Deuxième passe, on applique avec les valeurs mesurées (remplacez les chiffres par ceux obtenus à l'étape précédente) :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:measured_I=-24.35:measured_TP=-2.15:measured_LRA=8.54:measured_thresh=-35.21:offset=0:linear=true -ar 48000 sortie.wav

Pourquoi cette méthode ? En fait, en passant les valeurs mesurées, FFmpeg sait exactement de combien ajuster. L'option linear=true force une normalisation linéaire plutôt que dynamique, ce qui préserve mieux la dynamique originale.

Pour les fichiers vidéo

Le principe est le même, on ajoute juste -c:v copy pour garder la vidéo intacte sans la ré-encoder :

ffmpeg -i video.mp4 -c:v copy -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 video_normalise.mp4

D'ailleurs, pour ceux qui veulent automatiser ça à l'extrême, j'avais parlé de FFmpegfs , un système de fichiers qui transcode automatiquement ce que vous déposez dessus. C'est pratique si vous avez une grosse bibliothèque à gérer.

Traitement par lots avec ffmpeg-normalize

Si vous avez plein de fichiers à traiter, y'a un outil Python qui automatise la méthode dual-pass :

pip install ffmpeg-normalize
ffmpeg-normalize *.wav -o output_folder/ -c:a pcm_s16le

Cet outil fait automatiquement les deux passes et supporte le traitement parallèle. Pratique pour normaliser une bibliothèque entière.

Et en cas de problème ?

Erreur "No such filter: loudnorm" : Votre version de FFmpeg est trop ancienne (il faut la 3.1 minimum). Mettez à jour votre binaire.

Le son est distordu après normalisation : Le fichier source était probablement déjà saturé. Essayez de baisser le target (-18 LUFS au lieu de -16) ou augmentez le headroom du true peak (-2 dB au lieu de -1.5).

Voilà, maintenant vous n'avez plus d'excuse pour avoir des niveaux audio qui varient dans tous les sens. Le LUFS c'est le standard, FFmpeg gère ça nativement, et ça prend 30 secondes.

Vos auditeurs vous remercieront.

Source

Le CNRS victime d'une fuite de données, avec numéros de sécu et RIB dans la nature

– Article invité, rédigé par Vincent Lautier –

Le CNRS vient de confirmer un incident de cybersécurité qui a mené au téléchargement non autorisé de fichiers contenant des données personnelles d'anciens agents. Noms, adresses, numéros de sécurité sociale, RIB : la totale donc. L'organisme a déposé plainte et prévenu la CNIL.

Des données très sensibles

C'est ce lundi 16 février que le CNRS a informé ses agents d'une fuite de données sur un de ses serveurs. Des fichiers contenant des informations de ressources humaines ont été téléchargés sans autorisation. Et on ne parle pas de données anodines : noms, prénoms, dates de naissance, adresses postales, numéros de sécurité sociale et RIB. Le tout accompagné du statut de l'agent, du type de contrat et de la structure d'affectation. Le serveur a été isolé et arrêté dès la découverte de l'incident, et l'organisme assure que la fuite ne s'est pas propagée au reste de ses infrastructures.

Qui est concerné ?

Seuls les personnels recrutés avant le 1er janvier 2007 sont touchés, qu'ils aient été titulaires ou non. Si vous avez travaillé au CNRS après cette date, vous n'êtes pas concerné. Le nombre exact de victimes n'a pas été communiqué, mais vu la taille de l'organisme, on parle potentiellement de plusieurs milliers de personnes. Le CNRS recommande de prévenir sa banque, de surveiller ses comptes, de vérifier si ses données circulent sur haveibeenpwned.com, et de rester vigilant face aux tentatives de phishing ou d'usurpation d'identité. La CNIL et l'ANSSI ont été prévenues, et une plainte a été déposée auprès de la section cybercriminalité du parquet de Paris.

Les institutions françaises en ligne de mire

On n'est pas vraiment sur une première niveau cyberattaques sur des services de l'état. Le ministère de l'Intérieur, celui des Sports, et d'autres organismes avaient été visés. L'URSSAF a aussi confirmé une fuite touchant les données de 12 millions de salariés. Le CNRS lui-même avait été la cible d'un défacement de plusieurs de ses sous-domaines fin janvier. Deux incidents distincts, mais la tendance est claire, et c'est franchement moche.

On va quand même saluer le fait que le CNRS a communiqué rapidement, avec un communiqué officiel et une FAQ pour les personnes concernées. C'est loin d'être toujours le cas. Mais on va quand même se questionner sur le fait que des RIB et des numéros de sécu trainent sur un serveur, alors qu'on parle de données parfois veilles depuis presque 20 ans... Pourquoi ces informations étaient-elles encore accessibles ? La question du stockage prolongé de données sensibles revient sur la table, et visiblement, personne n'a encore de bonne réponse. En attendant, si vous avez porté la blouse du CNRS avant 2007, un petit tour sur votre relevé bancaire ne serait pas du luxe.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Wikipedia vs archive.today - 700 000 liens en sursis

Un peu moins de 700 000 liens, c'est le nombre de références vers archive.today que Wikipedia envisage de supprimer d'un coup ! Et la raison est assez dingue... en fait le service d'archivage a planqué du code DDoS dans son CAPTCHA afin d'attaquer le blog d'un mec qui a eu le malheur de chercher l'identité du fondateur du site.

L'histoire est tordue vous allez voir...

En 2023, un blogueur du nom de Jani Patokallio publie un article sur son blog Gyrovague pour tenter d'identifier le créateur d'archive.today, un certain "Denis Petrov" (probablement un pseudo). Pas de quoi fouetter un chat, sauf que le principal intéressé n'a visiblement pas kiffé.

Du coup, un bout de JavaScript s'est retrouvé comme de par hasard dans la page CAPTCHA du service, exécutant une requête vers le blog de Patokallio toutes les 300 millisecondes. Chaque visiteur qui passait par le CAPTCHA devenait alors un soldat involontaire d'une attaque DDoS.

Et le bonhomme ne s'est pas arrêté là... il a ensuite menacé de créer un site porno avec le nom du blogueur. On est vraiment dans la réponse proportionnée, clairement.

Le souci, c'est que Wikipedia utilise archive.today de manière MASSIVE. Cela représente 695 000 liens répartis sur environ 400 000 pages. C'est le deuxième fournisseur d'archives de toute l'encyclopédie !

Du coup, les éditeurs se retrouvent face à un sacré dilemme. D'un côté, on a ceux qui veulent tout blacklister parce que "la sécurité de vos lecteurs, ça passe avant les citations". Et de l'autre, ceux qui rappellent que le service contient des archives qu'on ne trouve NULLE PART ailleurs, même pas sur la Wayback Machine .

Bon courage pour trouver un remplaçant les mecs !

Et petit détail qui n'en est pas un, au passage... En fait, archive.today sert aussi à contourner des paywalls. C'est pratique pour vérifier des sources, ou lire de supers articles sans payer mais techniquement c'est illégal.

Mais quand la source originale a disparu, on fait comment ? Et c'est là tout l'intérêt de ces services d'archivage.

Bon, les paywalls, on comprend tous pourquoi ça existe. Produire de l'info de qualité, ça coûte un bras. Sauf que c'est quand même un truc un peu naze. Vous bossez, vous produisez un contenu top, et au final y'a que 10 personnes qui payent pour le lire. Et ce sont les mêmes 10 personnes qui sont pigistes et qui vont reprendre votre info pour la diffuser gratuitement sur leur média ! On le voit avec Mediapart... des enquêtes énormes derrière un paywall, et toute la presse qui reprend leurs scoops sans payer. Je trouve ça vraiment dommage.

Moi, ce que j'aime dans le fait d'écrire sur le web, c'est que vous me lisiez. Et mettre du contenu derrière un paywall, ça voudrait dire que plein d'entre vous ne me liraient plus. C'est pour cela que même le contenu que je réserve en avant-première sur Patreon , au bout de quelques semaines, je le libère pour tout le monde.

Quand je vois The Verge par exemple qui en met dans tous les sens... ben j'y vais plus. J'ai pas envie de payer un abonnement de plus pour une valeur ajoutée pas folle. C'est un peu comme les bandeaux cookies, à savoir un effet de bord regrettable du web moderne. On doit faire avec parce que personne n'a trouvé mieux comme idée...

Bref, entre les DDoS vengeurs, les 700 000 liens en sursis et les paywalls qui pourrissent tout ... le web ouvert, c'est pas gagné les amis. Voilà voilà.

Source

Waymo - Ses voitures autonomes pilotées depuis les Philippines

Les voitures Waymo, celles qui se baladent toutes seules à San Francisco, Phoenix ou Los Angeles... ne seraient pas si autonomes que ça en fait. Hé oui, quand elles sont paumées, ce sont des opérateurs aux Philippines qui leur disent quoi faire.

C'est le chef de la sécurité de Waymo lui-même, Mauricio Peña, qui a lâché le morceau lors d'une audience au Congrès américain le 4 février dernier. Du coup on apprend que ces fameux robotaxis, quand ils bloquent sur une situation (un carrefour bizarre, un chantier, une route pas cartographiée...), envoient une demande d'aide à des opérateurs humains qui pour certains sont basés aux États-Unis et d'autres aux Philippines.

Peña a bien insisté : ces opérateurs "fournissent des indications" mais "ne conduisent pas le véhicule à distance". En gros, c'est de la téléassistance, plutôt que du téléguidage et le robotaxi reste "toujours en charge" de la conduite.

Sauf que le sénateur Ed Markey, lui, voit pas ça du même œil. Selon lui, avoir des gens à l'étranger qui influencent le comportement de milliers de véhicules sur les routes américaines, c'est un sacré problème de (cyber) sécurité. Il parle carrément de "prise de contrôle par des acteurs hostiles" qui pourraient obtenir un accès quasi-total à ces bagnoles.

Hé oui, tout peut arriver dans la vie, Ed !

D'ailleurs y'a eu un accident avec l'un de ces taxis sans conducteur qui a percuté un gamin près d'une école primaire à Santa Monica, il n'y a pas longtemps. Alors est ce que c'était la faute de l'IA qui conduisait ou un opérateur humain à l'autre bout du monde qui s'est assis sur son clavier ? Allez savoir...

Et la filiale d'Alphabet n'est pas la seule dans ce cas car Tesla aussi s'appuie sur des opérateurs à distance pour superviser ses véhicules autonomes.

Perso, ce qui me dérange c'est pas qu'il y ait des humains dans la boucle. En fait c'est normal, la techno n'est pas encore au point. Mais le piège, il est au niveau du marketing. On nous vend de l'"autonome", du "sans conducteur", de la voiture du futur pilotée par l'IA ... alors qu'en fait y'a un call center aux Philippines qui veille au grain.

Et le plus marrant dans tout ça, c'est que les opérateurs doivent avoir un permis de conduire et sont contrôlés sur les infractions routières qu'ils auraient commis de leur côté à titre perso. Il faut des gens irréprochables avec le permis... pour aider une bagnole qui est censée ne pas en avoir besoin (de permis). J'adore ^^.

Voilà, comme je l'expliquais dans mon article sur la conduite autonome , y'a encore BEAUCOUP de chemin à faire avant d'avoir de vrais véhicules sans chauffeur. Et finalement, même les meilleurs comme Waymo "trichent" un peu.

Source

Hallucinating Splines - Le SimCity où les IA font mieux que votre Maire

SimCity, je pense que tout le monde connaît. Moi c'est vraiment l'un de jeux préférés. Enfin la version SimCity 2000. C'est que des bons souvenirs pour moi. Dans ce jeu, vous posiez des routes, des zones résidentielles, et vous regardiez votre ville grandir... ou cramer, selon les jours. Hé bien Hallucinating Splines , c'est le même délire, sauf que c'est une IA qui joue à votre place.

Ce projet est basé sur Micropolis , la version open source du SimCity original sorti en 1989 (Et surtout pas les trucs d'EA qui ont suivi ^^). Du coup, on a un vrai moteur de simulation urbaine avec zonage résidentiel, commercial, industriel, gestion des services publics, du trafic... bref le package complet.

Sauf qu'ici, personne ne touche la souris. Des agents autonomes prennent les décisions, construisent les infrastructures et gèrent la croissance de leur ville sans intervention humaine. Enfin, sauf si vous comptez le clic pour lancer la simulation.

Et visiblement ça tient plutôt bien la route (sans mauvais jeu de mots). 96 maires IA, 607 villes construites et une population cumulée de plus de 10 millions d'habitants virtuels. C'est pas mal hein pour des programmes qui n'ont jamais mis les pieds dans un conseil municipal !

En fait, le concept s'appelle "Vibe a City". Vous cliquez sur un bouton et hop, une IA se met à bâtir sa métropole en temps réel sous vos yeux, sans intervention humain. Les villes portent également des noms générés plutôt poétiques je trouve... Turtle Ziggurat, Storm Cove, Azure Heath, Procedural Mesa (ok celui-là est un peu trop honnête).

Et y'a même un leaderboard avec un système de scoring. Chaque cité a son indicateur d'activité (Tout fraiche, récente, ancienne ou stagnante), les stats se rafraîchissent toutes les 30 secondes et on peut trier par population, par score ou par date. Une certaine Annexed Colony tape par exemple dans les 185 000 habitants en l'an 2428 dans le jeu. C'est foufou !

Côté technique, plutôt que de repartir de zéro, tout repose sur micropolisJS, une implémentation JavaScript/HTML5 de Micropolis sous licence GPL v3, et le code est dispo sur GitHub (un git clone et c'est parti). Si vous connaissez Microlandia que j'avais présenté il y a quelques semaines, c'est dans la même veine mais avec une couche d'agents IA par-dessus.

Et n'oubliez pas d'aller voir le petit clin d’œil sur la page de crédits ou dans le footer qui affiche le Dr. Wright, le fameux conseiller de SimCity sur SNES. Après le piège, c'est que vous allez y passer des heures à regarder une IA construire ce que vous n'avez jamais réussi à faire dans le jeu. Ahahaha !

A découvrir ici !

Test du NAS UGREEN NASync DXP4800 Pro

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Tiens, et si on parlait de NAS aujourd’hui ? On va même parle d’une nouveauté qui est sortie il y a quelques jours, le UGREEN NASync DXP4800 Pro . On ne parle pas de la version "Plus", mais bien du modèle "Pro" qui commence à avoir de sérieux arguments pour lui.

Pour tout vous dire, j'ai profité du besoin d’un couple d'amis pour leur faire une installation propre, avec ce modèle, et c’est vraiment un super produit. Lui est sur PC, elle sur Mac, et ils bossent tout les deux dans la création audiovisuelle. Sauf que voilà, comme souvent dans ces métiers, avec des centaines de gigas de russes qui trainent un peu partout, la gestion des données devient vite un sujet sensible et d'inquiétude, avec plein de disques durs externes un peu partout, en vrac, rien de pratique.

Si on regarde dans les détails son équipement c'est vraiment pas mal du tout. Le bouzin est équipé d'un processeur  Intel Core i3-1315U avec 6 cœurs, de 8 Go de RAM DDR5 (qu'on peut pousser jusqu'à 96 Go) et surtout d'un port 10GbE et d'un port 2,5GbE. On a aussi deux emplacements M.2 NVMe pour le cache, c'est complètement optionnel mais ça peut servir pour booster les accès aux petits fichiers. Alors oui, vous allez me dire que ce NAS est peut-être un peu surdimenssioné pour un usage à la maison, mais quand on a aussi un usage pro ou semi-pro, c'est quand même rassurant d'avoir une machine qui ne sera pas à genoux dans trois ans, et qui est évolutive.

Pour l'installation des disques, on a essayé d'être stratégiques en optimisant au mieux les 4 baies. On a monté les deux premiers disques en RAID 1 pour tout ce qui touche au boulot : sauvegarde des projets, rushs originaux et documents administratifs. C'est la ceinture et les bretelles, si un disque lâche, le travail est en sécurité. Pour les deux autres baies, on est partis sur du RAID 0 dédié à Plex. Pourquoi ? Parce que leur bibliothèque de films, on s'en fiche un peu de la perdre. Si un disque fini par décéder, ce n'est pas un drame national, on re-télécharge les fichiers et c'est reparti.

Ce qui m'a vraiment bluffé, c'est la rapidité de la mise en route. En quelques minutes, l'UGOS Pro, le système d'exploitation maison basé sur Debian, était opérationnel. UGREEN a fait un boulot assez dingue sur l'interface : c'est propre, c'est fluide et on n'est pas perdu dans des menus labyrinthiques. On sent que la marque veut venir chasser sur les terres de Synology en proposant une expérience utilisateur léchée tout en gardant une puissance matérielle brute supérieure. L’installation de Plex n’est pas encore proposée nativement sur l’OS de UGREEN (ça reste possible, en passant par Docker). Mais très franchement, même sur mon Synology je préfère avoir Plex qui tourne sur une machine déporté (en l’occurrence un Mac mini dans mon cas). Pour eux, ça sera sur le PC de la maison. Le NAS servant uniquement pour le stockage et le partage de données.

Ce NAS est disponible pour sa sortie à 699,99€ en promo (au lieu de 779,99€, il faut cocher le coupon sur Amazon) , ça n’est pas donné, mais c’est vraiment un NAS très solide, bien fini, et qui doit faire le job pendant au moins 7-8 ans. Puis quand on regarde la qualité de fabrication en aluminium et la connectivité réseau, le rapport performance-prix est vraiment bon. C'est une machine de guerre silencieuse qui s'intègre parfaitement dans un bureau ou un salon. Mes amis ont maintenant un système où le PC et le Mac communiquent sans friction, avec une vitesse de transfert qui permet de monter directement depuis le NAS.

Si vous voulez un NAS solide, qui tiendra dans le temps, et que vous n'avez pas à bidouiller dans tous les sens, c'est franchement un très bon choix, et pour tout vous dire j'ai même envie d'en prendre un pour moi ha ha.

Le NAS UGREEN DXP4800 Pro est disponible ici sur Amazon , et n’oubliez pas de cocher le coupon pour avoir la promo !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Claude ouvre ses outils pro à tous (et y'a zéro pub)

OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.

Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.

Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.

Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous avez déjà bidouillé avec ses capacités de dev , vous voyez l'intérêt d'avoir ça.

Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.

Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.

Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont ( enfin ) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.

Source

❌