Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

DNS-collector - Pour comprendre enfin ce qui se passe sur votre réseau

Par : Korben
7 février 2026 à 07:38

Le DNS, c'est un peu la tuyauterie planquée d'Internet. Tout le monde l'utilise, mais personne ne regarde vraiment ce qui se passe dans les tuyaux... jusqu'à ce que ça pète ou qu'un petit con s'en serve pour exfiltrer des données. Et là, bon courage pour fouiller dans les logs en mode brutasse pour comprendre qui a fait quoi sur votre réseau.

En fait, pour ceux qui se demandent encore qu'est-ce que le DNS (Domain Name System), c'est simplement l'annuaire qui traduit les noms de domaine comme korben.info en adresses IP. Sans lui, on serait tous en train de mémoriser des suites de chiffres à la con.

Et il y a quelques jours, j'ai reçu un mail de Denis, un fidèle lecteur (qui traîne sur le blog depuis 2005, ça nous rajeunit pas !) qui m'a écrit pour me présenter son projet sur lequel il bosse depuis 5 ans : DNS-collector .

DNS-collector, c'est un outil écrit en Go qui sert de "chaînon manquant" entre vos serveurs DNS et votre pile de données. En gros, il capture le trafic DNS, le nettoie, l'enrichit et l'envoie là où vous en avez besoin. C'est l'outil parfait pour ceux qui ont la flemme de se palucher des fichiers PCAP de 4 Go à la main ou de debugger des flux DNStap illisibles.

Le point fort de DNS Collector, c'est sa flexibilité. Côté entrées, ça avale tout : du DNStap via socket Unix ou TCP (le protocole standard utilisé par BIND, Unbound ou PowerDNS), du sniffing réseau classique avec AF_PACKET ou même XDP pour la très haute performance. Attention quand même, pour XDP, apparemment le kernel Linux doit être récent (version 5.x minimum) et les drivers réseau doivent suivre, sinon ça va faire pshitt. Ensuite, par défaut, le bousin écoute pépouze sur le port UDP/6000 en attendant ses flux.

Mais là où ça devient vraiment balaise, c'est dans le traitement des données. DNS-collector embarque des "Transformers" (rien à voir avec Optimus Prime hein ^^) qui font tout le boulot ingrat à votre place dans le pipeline de traitement. Hop, ça normalise les noms de domaine en minuscules (le fameux qname-lowercase dans le fichier de config), ça ajoute la géolocalisation via GeoIP (genre MaxMind ou IP2Location), et on peut même détecter les trucs louches.

Il peut aussi détecter le tunneling DNS ou les domaines générés par algorithme (DGA) qui sont souvent les signes d'une infection sur une machine. Petit bémol cependant, pour la géolocalisation, pensez à télécharger vos bases GeoIP au préalable (fichiers .mmdb), sinon l'outil va vous faire une petite grimace au démarrage.

Vous pouvez aussi protéger la vie privée de vos utilisateurs en anonymisant les adresses IP via un hachage SHA1 ou du masquage. C'est propre, ça respecte le RGPD, et ça permet de garder des stats utiles (genre le top des ASN consultés) sans fliquer tout le monde. Les données sortent proprement en JSON ou en Protobuf, prêtes à être ingérées.

Une fois que vos données sont propres, vous les envoyez où vous voulez. J'ai choisi de vous citer ClickHouse ou InfluxDB car c'est parfait pour stocker des millions de requêtes sans mettre votre serveur à genoux, mais la liste est longue : Prometheus pour les métriques, ElasticSearch, Kafka, Redis, ou même Slack via des webhooks pour être alerté en temps réel quand un domaine louche pointe le bout de son nez.

Alors si ça vous chauffe, comment récupérer cet outil et le mettre en place ?

Hé bien c'est hyper fastoche comme d'hab puisque le projet est dispo en binaire ou via Docker. Ensuite, vous lancez la commande ./dnscollector -config config.yml, vous branchez vos sources, et roule ma poule. Taaadaaaa ! DNS-collector s'occupera du reste sans vous bouffer toute votre RAM (contrairement à certaines usines à gaz Java qui demandent un sacré paquet de mémoire vive ^^).

Voilà, perso, je trouve l'approche très saine. C'est léger, modulaire et ça répond à un vrai besoin pour les admins sys qui veulent enfin "voir" ce qui transite par leurs serveurs. Le bousin encaisse des milliers de requêtes par seconde sans broncher... enfin sauf si votre serveur est une patate de 2012, là je garantis rien.

Mortecouille, c'est quand même mieux d'avoir des logs lisibles avec un simple tail -f /var/log/syslog, non ? Et d'ailleurs, le projet est déjà adopté par pas mal d'acteurs de la sécu, donc vous pouvez y aller sereinement.

Merci Denis !

La véritable histoire des noms de domaine

Par : Korben
5 novembre 2025 à 15:12

Vous vous êtes déjà demandé comment on est passé de six extensions de domaine en 1985 à plusieurs milliers aujourd’hui ? Ou qui a enregistré le tout premier .com de l’histoire ? Hé bien vous allez pouvoir découvrir tout ça grâce au site dotcom.press qui a compilé 40 ans d’histoire des noms de domaine dans une chronologie interactive plutôt bien foutue.

Si comme moi, vous aimez vous plonger dans l’Histoire d’Internet, allez jeter un œil !

L’idée du projet, c’est donc de raconter l’évolution technique et humaine du web à travers le prisme des noms de domaine. Car derrière chaque .com, .org ou .net, il y a une histoire faite de batailles juridiques, de décisions politiques, d’arnaques monumentales, et parfois d’anecdotes complètement WTF.

La page couvre la période allant de 1983 à 2026, avec des événements clés présentés chronologiquement. Vous découvrirez par exemple que les 5 premières extensions (.com, .org, .edu, .gov, .mil) ont été définies en octobre 1984 dans la RFC 920, mais n’ont été mises en ligne qu’en 1985 accompagné de .net ajouté sur le tard. Ou encore que Network Solutions a eu le monopole complet de l’enregistrement des domaines jusqu’en 1999, quand l’ICANN a fini par leur imposer de la concurrence.

Le site explique aussi les enjeux autour des noms de domaine. Par exemple pourquoi Verisign détient toujours le monopole du .com et du .net en 2025, avec plus de 170 millions de domaines enregistrés et 1,5 milliard de dollars de revenus annuels. Ou comment le prix de gros d’un domaine est passé de 100 dollars dans les années 90 à 9 dollars en 1999, puis 6 dollars en 2000.

Il y a aussi des trucs plus exotiques comme l’histoire du .yu yougoslave volé pendant les guerres des Balkans ou comment voice.com a été acheté pour 30 millions de dollars en 2019, et n’affiche aujourd’hui qu’un texte moche et une adresse email.

Bref c’est une super timeline avec des images d’époque, des citations d’experts comme Tim Berners-Lee (évidemment), et des liens vers des tas de ressources complémentaires si vous voulez creuser un sujet.

Voilà, je me suis dit que si vous enseignez l’informatique, ou si vous bossez dans le web, ça devrait vous plaire.

Bonne lecture !

❌
❌