Vous en avez marre du duo Chrome/Safari ? Moi aussi. Alors quand j’ai entendu parler de Ladybird , ce navigateur web développé from scratch sans une seule ligne de code en provenance de Blink, WebKit ou Gecko, j’ai voulu tester la bête. Direction donc le terminal, pour une petite compilation sur mon Mac ARM !
Ladybird, c’est le projet fou d’ Andreas Kling , un ancien ingénieur WebKit chez Apple qui a décidé de créer son propre système d’exploitation ( SerenityOS ) pour se remettre d’une addiction. Code un OS entier comme thérapie, je trouve ça assez cool… Et dedans, il y avait un petit visualiseur HTML qui a fini par devenir un projet à part entière avec 8 développeurs full time et des sponsors comme Shopify, Cloudflare ou encore le co-fondateur de GitHub.
Le concept de Ladybird, c’est zéro code emprunté aux moteurs existants. Tout est écrit en C++ (avec une migration vers Swift prévue), du moteur de rendu LibWeb au moteur JavaScript. C’est donc actuellement le seul navigateur vraiment indépendant en développement actif. Et ça, dans un monde où même Firefox commence à faire un peu polémique sur son indépendance, ça fait du bien.
Mais parlons de mon test. J’ai cloné le repo, lancé la compilation sur mon ordi, et… ça compile. Déjà, c’est une victoire… Le navigateur se lance, affiche des pages, gère le CSS, fait tourner du JavaScript. Les bases sont là.
MAIS on est clairement en pré-alpha car ça rame pas mal et sur YouTube les vidéos refusent même de se lancer. C’est parfaitement normal car le navigateur ne supporte pas encore tous les codecs et APIs nécessaires pour le web moderne et l’alpha est prévue pour l’été 2026, avec une bêta en 2027 et une version stable en 2028. Donc on n’y est pas encore.
Mais c’est encourageant ! En octobre dernier, l’équipe a même fait passer 1,9 million de tests de conformité web (Web Platform Tests) et verdict, le pinch-to-zoom fonctionne sur Mac, le local storage et OK et même Windows commence à être supporté par la communauté.
L’autre truc cool, c’est leur business model. Comme y’a pas de deal avec un moteur de recherche par défaut qui vous piste ni de crypto-tokens chelou et pas de monétisation de données des utilisateurs, le projet se doit d’être financé uniquement par des dons et des sponsors corporate via une structure à but non lucratif. C’est cool et ça nous change de ce monde où Google paie des milliards à Apple pour être le moteur par défaut de Safari.
Donc mon verdict après mes tests, c’est qu’en l’état, Ladybird n’est pas utilisable au quotidien. Et c’est complètement normal vu le stade de développement. Ce n’est donc pas encore un Firefox-killer, mais un projet de recherche et développement qui pourrait, dans 3 ans, devenir une vraie alternative.
Voilà, donc en attendant, Firefox reste mon navigateur principal mais je garde un œil sur cette petite coccinelle parce qu’avoir un quatrième moteur de rendu vraiment indépendant sur le marché, sans les tentacules de Google, Apple ou des régies pub, c’est top !
Vous vous souvenez quand je vous avais parlé de la formation gratuite de Microsoft sur GitHub Copilot ? Hé bien ils remettent le couvert, mais cette fois c’est pour nous apprendre la science du Machine Learning from scratch ! Et c’est pas un petit tuto de 2h fait à l’arrache comme sur ma chaine Youtube… Non, c’est un bon gros programme complet en 12 semaines avec 26 leçons et tout ça dans la langue Gims.
Le repo s’appelle ML-For-Beginners et le truc cool c’est que Microsoft a choisi de se concentrer sur le Machine Learning “classique” avec Scikit-learn et pas du deep learning de richou qui demande des GPU à 3000 balles. Du coup c’est accessible à n’importe qui avec un laptop normal !
Leur programme couvre à peu près tout ce qu’il faut savoir pour débuter : Régression, classification, clustering, traitement du langage naturel, séries temporelles, et même un peu d’apprentissage par renforcement. Chaque leçon démarre par un quiz pour voir où vous en êtes, suivi de contenu avec des explications pas à pas, des challenges à faire, et un autre quiz de fin pour vérifier que vous avez bien tout capté.
Y’a même des “sketchnotes” (c’est à dire des résumés visuels) et des vidéos si vous êtes plus du genre à apprendre en regardant qu’en lisant . Et pour ceux qui préfèrent R à Python, y’a des versions alternatives des exercices en R Markdown .
La version française du README est dispo sur le repo et tout est traduit dans plus de 50 langues, du chinois à l’arabe en passant par le croate… Microsoft a automatisé la traduction via GitHub Actions, donc soyez souple d’esprit si vous croisez quelques phôtes…
L’approche pédagogique de cette formation est basée sur des projets concrets du genre prédire le prix des citrouilles, classifier des cuisines du monde (forcement, la française arrivera en premier ^^), analyser de la musique pour du clustering…etc. Bref, c’est un peu original !
Voilà si vous êtes en vacances ou en reconversion IA, pour commencer, il suffit de forker le repo et de le cloner sur votre machine.
Voilà, si vous avez toujours voulu comprendre comment fonctionne le Machine Learning sans vous taper des formules de maths pendant 6 mois ou vendre un rein pour un abonnement à un cours en ligne, c’est le bon moment je pense !
Merci Microsoft !
Une étude de Graphite vient de sortir et annonce que plus de la moitié des articles publiés sur Internet seraient désormais générés par IA. C’est fou non ?
Pour arriver à cette conclusion Graphite a analysé 65 000 URLs via Common Crawl et utilisé un détecteur d’IA et c’est comme ça qu’ils ont découvert que depuis novembre 2024, les articles IA auraient dépassé les articles humains en volume.
Alors en route vers l’apocalypse de l’écriture humaine ?
Bon déjà, première question qui me vient c’est : Comment est-ce qu’ils ont fait pour détecter ça ? Ouais parce qu’à ma connaissance, les outils de détection d’IA, comment dire… c’est de la grosse merde en barre. C’est encore moins fiable qu’un grand modèle de langage (LLM) pas fiable.
J’imagine que ce qu’ils détectent, ce sont les articles générés par IA de manière basique, donc le genre de contenu où quelqu’un a tapé un prompt vite fait et a publié le résultat sans même le relire ou un bot qui publie à la chaîne. Donc pas de travail sur le style, pas d’angle éditorial, pas de valeur ajoutée, bref, du bon gros contenu SEO produit à la chaîne pour remplir des pages et grappiller du trafic Google.
Du coup, si on suit ce raisonnement, ce que l’étude nous dit vraiment c’est que 50% du contenu web actuel, c’est de la merde. Et là, je me pose une question : est-ce que ça change vraiment quelque chose par rapport à avant ?
Bah ouais parce qu’avant l’IA, on avait déjà les fermes SEO, les articles écrits par des rédacteurs payés au lance-pierre qui se copient les uns les autres, les textes sans âme rédigés pour plaire à l’algorithme plutôt qu’aux lecteurs ou juste attirer le chaland pour engranger de la thune Adsense. De mon point de vue, le web était déjà rempli de contenu médiocre et l’IA n’a fait qu’industrialiser le processus.
Ce qui a changé donc, c’est la quantité. On produit plus de merde, plus vite, mais cette merde existait déjà.
Par contre, je ne suis pas d’accord avec la vision apocalyptique de certains. Un texte bien travaillé avec l’IA devient impossible à distinguer d’un texte humain et dans certains cas, il peut même être meilleur. C’est mon avis, mais c’est pas rare qu’un texte retravaillé à l’aide de l’IA soit plus complet, plus documenté, plus creusé, avec moins d’erreurs (si c’est bien fait évidemment). Un rédacteur web payé pour pondre 10 articles par jour n’a pas le temps d’aller au fond des choses alors qu’avec l’IA comme outil d’accompagnement, il peut rapidement explorer plusieurs angles d’un sujet, intégrer différentes perspectives, aller plus loin dans la recherche et l’analyse.
Et je parle bien de contenu informatif ici, pas de création littéraire ou artistique. Parce que là, effectivement, c’est pas ouf… Mais pour expliquer un concept technique, présenter un outil, vulgariser une actu…etc., l’IA peut être un sacré accélérateur de qualité si on sait s’en servir.
Je pense donc que le vrai problème, c’est la production bête et méchante qui consiste à générer du texte sans relecture, sans vérification, sans apport personnel… je trouve ça con et dangereux. Dangereux parce que les hallucinations existent et on peut vite se retrouver à propager de fausses infos. Et ce foutu style générique IA n’apporte rien au lecteur… Aucun plaisir quoi…
Puis quand on sait que y’en a déjà pas mal d’entre vous qui ne lisent plus les contenus, mais se les font résumer avec Claude ou ChatGPT, je me dis qu’on gagnerait du temps de processeur si les fermes SEO / IA publiaient directement des résumés IA et basta ^^.
L’étude de Graphite montre également que les contenus IA sont surtout des guides pratiques, des actus formatées, des descriptions de produits… Bref, du contenu utilitaire où l’originalité n’a jamais été le critère numéro un. Ce n’est donc pas une invasion de l’IA dans la création, mais plutôt une automatisation d’un contenu fast-actu jetable qui existait déjà par ailleurs.
Ce qui est précieux dans ce contexte, c’est justement le style, la patte d’un auteur, une voix reconnaissable. C’est le genre de truc qu’un rédacteur pressé n’a jamais eu le temps de développer et qu’une IA générique ne peut pas inventer. Encore une fois c’est mon point de vue, mais les bons “rédacteurs web” sont ceux qui ont une vraie identité éditoriale et qui savent se démarquer de ce foutu “ton journalistique” qui nous endort tous…
Voilà, au final, le rôle de l’auteur ou du créateur de contenu reste le même, IA ou pas IA… C’est simplement de faire en sorte que son contenu soit lu et pour ça, il faut que ce soit agréable à lire, que ça apporte quelque chose, que ça fasse grandir / réfléchir le lecteur ou que ça le divertisse également ! Bref, que l’outil soit un stylo, un clavier ou un LLM, l’objectif ne change pas.
Donc si vous êtes tenté d’utiliser une IA pour la production de votre contenu, par pitié, n’automatisez rien, continuez à relire, à mettre votre “patte”, à y insérer votre réflexion et surtout, travaillez bien vos prompts pour sortir du style par défaut.
Vous connaissez le Spotify Wrapped qui vous rappelle chaque décembre que vous avez écouté “Africa” de Toto 847 fois ? Hé bien GitWrap fait pareil mais pour votre code sur GitHub. Et tout ça avec une interface qui sent bon le DOS et les moniteurs à phosphore vert.
Vous entrez votre nom d’utilisateur GitHub, et l’outil génère alors un récapitulatif de votre année de commits, de pull requests et de contributions diverses et variées. Le tout emballé dans une esthétique rétro qui ferait pleurer de nostalgie n’importe quel dev qui a connu l’époque où “git” n’existait pas encore et où on faisait des sauvegardes sur disquettes.
L’interface vous accueille avec un prompt style années 80… genre > Enter GitHub username to begin. On se croirait dans WarGames avant de lancer une partie de morpion thermonucléaire et il ne manque plus que la voix synthétique qui demande “Shall we play a game?” et c’est parfait.
Y’a aussi un leaderboard pour les compétitifs qui veulent comparer leur nombre de commits avec les autres. Parce que oui, apparemment certaines personnes ont besoin de savoir qu’elles ont codé plus que leur voisin de bureau. Chacun ses kinks.
A vous de tester maintenant pour savoir si vous avez bien bossé sur votre code cette année ou si vous n’avez rien branlé comme l’année dernière.
Et accessoirement vous pouvez même vous faire une jolie image pour frimer sur LinkedIn ! Ça prend 30 secondes et ça vous donnera une excuse pour procrastiner avant de retourner à ce bug que vous évitez depuis trois jours.
WordPress, c’est bien. Mais WordPress qui injecte des scripts d’emojis, des styles Gutenberg, des shortlinks et 47 autres trucs dont vous n’avez pas besoin dans chaque page de votre site… c’est moins bien évidemment. Heureusement, Terence Eden, un dev qui en avait marre de voir son code source ressembler à un plat de spaghetti, a compilé une petite liste de tout ce qu’on peut virer .
Car WordPress a adopté une philosophie de type “Decisions, not options” (des décisions, pas des options) où en gros, au lieu de vous laisser choisir, ils décident pour vous de ce qui est bon pour vous. Un peu comme Macron ^^. Le problème c’est que leurs décisions incluent un tas de fonctionnalités dont la plupart des gens n’ont rien à faire 🥲.
Par exemple les emojis. J’sais pas si vous savez, mais WordPress charge un script de détection d’emojis et une feuille de style dédiée sur CHAQUE page de votre site. Pourquoi tant de haine ? Hé bien parce que si vous tapez :-) dans un article, WordPress veut le transformer en joli emoji. Sauf que si vous utilisez les vrais emojis Unicode (comme tout le monde en 2025), hé ce script ne sert à rien. Et il y a aussi le grand remplacement des emojis dans les flux RSS…. Bref, tout ça, ça dégage.
Ensuite y’a le formatage automatique avec wptexturize qui transforme vos guillemets droits en guillemets typographiques “comme ça”. Et mon préféré, capital_P_dangit qui remplace automatiquement “Wordpress” par “WordPress” avec le P majuscule. Oui, vous ne le saviez pas, mais WordPress corrige l’orthographe de son propre nom dans vos articles. Mais quelle bande de nazes ^^.
Gutenberg, l’éditeur de blocs que j’adore, injecte lui aussi ses styles globaux même si vous utilisez l’éditeur classique. Et c’est pareil pour les styles de la librairie de blocs et l’éditeur de widgets basé sur les blocs. Si vous êtes resté sur le Classic Editor comme beaucoup de gens, tout ça ne sert alors qu’à alourdir vos pages.
Côté métadonnées, WordPress ajoute aussi pleiiiiin de trucs dans le code de vos pages comme les shortlinks, le RSD (Real Simple Discovery, un truc d’il y a 20 ans), des liens vers les flux de commentaires, les liens JSON de l’API REST…
Aux chiottes toutes ces conneries !
Le script de Terence fait aussi sauter l’ajout automatique des tailles d’images (wp_img_tag_add_auto_sizes), les templates de pièces jointes, et les block hooks qui modifient votre contenu. L’idée c’est donc de reprendre le contrôle sur ce que WordPress génère, au lieu de le laisser décider tout seul.
Et grâce à son script, le site de Terence (sans Philippe) obtient d’excellents scores sur PageSpeed Insights , ce qui prouve que tout ce bloat n’est vraiment pas nécessaire. Son script PHP complet fait environ 190 lignes et il est dispo sur son GitLab , bien commenté pour que vous puissiez choisir ce que vous voulez garder ou virer.
Attention quand même, certaines de ces désactivations peuvent casser des fonctionnalités si vous les utilisez vraiment. Par exemple, si vous avez des plugins qui dépendent de l’API REST, la virer complètement serait une mauvaise idée. Même chose pour les blocks Gutenberg si vous utilisez cet éditeur. L’astuce c’est donc de tester chaque modification une par une et de voir ce qui se passe.
Amusez-vous bien et un grand merci à Terence !
Vous trouvez que Cities Skylines est trop facile ? Ou que SimCity vous laisse faire n’importe quoi sans trop de conséquences ?
Hé bien Microlandia va vous calmer sévère !
Car derrière ce petit city builder en voxel, se cache une simulation économique et sociale tellement réaliste que vos citoyens peuvent littéralement mourir si vous ne construisez pas assez d’hôpitaux. Bienvenue en France, euh non pardon, bienvenue à Microlandia !
Dans ce jeu, vous incarnez le maire, vous tracez des routes, vous définissez des zones résidentielles et commerciales, et vous gérez les taxes et le budget. C’est du très classique, sauf que derrière les graphismes tout mignons qui rappellent le SimCity original, y’a un moteur de simulation hyper brutal.
Car oui, vos citoyens peuvent tomber malades et s’il n’y a pas de place à l’hôpital, ils meurent. Oups… Ils peuvent également se faire virer comme des merdes s’ils arrivent en retard au travail parce que vous avez mal agencé les routes. Les entreprises font faillite si elles ne sont pas rentables et les proprios augmentent les loyers quand le logement devient rare. Et vos habitants peuvent aussi tomber amoureux, se marier, avoir des enfants… et divorcer.
Tout un programme !
Et toute cette simulation est basée sur des données réelles !! Les développeurs se sont appuyés sur les publications de la Banque mondiale, du Bureau américain des statistiques du travail, de l’EPA (l’agence de l’environnement), et d’autres joyeusetés du genre, du coup, quand le jeu vous dit qu’un kilomètre de route coûte des milliers de dollars, c’est pas un chiffre sorti du chapeau.
Y’a aussi des événements aléatoires pour pimenter le tout comme des récessions économiques, des vagues de chaleur, des pandémies… Bref, tout ce qu’on aime dans la vraie vie, sauf que là c’est dans un jeu vidéo. Et comme le journal local rapporte toutes vos décisions, vos citoyens savent exactement qui blâmer quand ça part en cacahuète.
Côté prix, ça coûte 6,89 dollars et c’est dispo sur Steam . Et il n’y aura pas de Microlandia 2, pas de DLC, pas de microtransactions mais juste des mises à jour gratuites pour améliorer le jeu au fil du temps. Le bonheur !
Voilà, si vous cherchez un city builder qui vous met face à vos responsabilités, Microlandia a l’air d’être exactement ce qu’il vous faut.
Dites donc, en ce moment, c’est la folie autour de Valve. D’ailleurs, en lisant mon article sur le Steam Frame , vous vous êtes peut-être demandé comme celui-ci allait réussir à faire tourner des jeux PC alors qu’il tourne sur un Snapdragon ARM ?
Hé bien la réponse s’appelle FEX , un émulateur que Valve finance en secret depuis 2018 soit en gros depuis le tout début du projet.
Pour ceux qui connaissent pas, FEX permet de faire tourner des applications x86 (32 et 64 bits) sur des processeurs ARM64 sous Linux. C’est un peu comme qemu-user ou box64, sauf que FEX utilise un recompilateur binaire avancé avec un IR custom qui génère du code plus optimisé qu’un JIT classique.
Concrètement, au lieu de traduire directement le code x86 en ARM64 (ce qui serait un bordel monstre vu les différences entre les deux architectures), FEX fait donc ça en deux temps :
L’avantage c’est qu’on peut appliquer des optimisations sur l’IR (par exemple, éliminer du code mort, simplifier des opérations, réorganiser les instructions…etc) avant de générer le code final.
FEX supporte même AVX et AVX2, ce qui est quand même pas mal pour de l’émulation.
La vraie force de FEX, c’est sa capacité à rediriger les appels API vers les bibliothèques natives du système. Au lieu d’émuler OpenGL ou Vulkan (ce qui serait une catastrophe pour les performances), FEX balance directement les appels vers les versions ARM des bibliothèques. Selon Valve, on parle d’une perte de performances de seulement 10 à 20% sur certains aspects du code… et visiblement, ils arrivent à faire tourner Hades 2 en 1440p à 90 Hz sur le Steam Frame donc c’est pas dégueu.
Du coup, on a maintenant la vue d’ensemble de la stratégie Valve pour le gaming ARM : FEX pour émuler le x86 natif , Lepton pour les APK Android, et Proton pour les jeux Windows. Trois couches de compatibilité qui devraient permettre au Steam Frame de jouer à peu près tout ce qui existe. C’est la même stratégie que pour le Steam Deck, au final.
Le cache de code expérimental de FEX permet aussi de réduire les saccades en jeu, et y’a même une interface graphique (FEXConfig) pour configurer les paramètres par application. Parce que oui, selon les jeux, vous pouvez ajuster les réglages pour optimiser les perfs… genre désactiver l’émulation coûteuse du modèle mémoire si le jeu n’en a pas besoin.
Et comme d’hab avec eux, c’est open source et ça profite à tout le monde alors c’est cool !
Chaque clic laisse une empreinte digitale indélébile. Chaque adresse IP devient le talon d’Achille d’une vie en ligne. Les sites, les publicitaires, les pirates et même les gouvernements la traquent pour dresser un portrait précis de vos habitudes, de vos achats et de vos déplacements virtuels. Bloquée sur une identité fixe, elle vous rend prévisible, ciblable, vulnérable aux pubs invasives ou aux restrictions géographiques. Surfshark VPN répond à ce piège avec un arsenal technique qui non seulement masque cette empreinte, mais la fait muter en permanence, transformant votre navigation en exercice d’évasion fiscale fluide et sécurisée.
Au cœur de cette solution trône un réseau titanesque de plus de 4 500 serveurs RAM-only, déployés dans 100 pays. Dont les premiers exemplaires à 100 Gb/s testés à Amsterdam pour absorber les charges extrêmes du streaming 4K ou du gaming cloud. Ces machines, qui effacent toute donnée à chaque redémarrage, s’appuient sur un chiffrement AES-256 bits couplé à un hachage SHA512 et un échange de clés DHE-RSA 2048, via les protocoles WireGuard pour la vitesse fulgurante, OpenVPN pour la robustesse ou IKEv2 pour la mobilité. Résultat : des débits élevés constants, même sur fibre, sans jamais de fuites DNS, WebRTC ou IPv6. Le Kill Switch coupe instantanément tout trafic en cas de défaillance, tandis que le mode camouflage rend le contenu visionné avec le VPN indétectable par les FAI ou les pare-feux restrictifs.
Les dernières nouveautés propulsent Surfshark dans une ligue à part. La fonction Multi IP, lancée il y a quelques jours (ça sent toujours le pain chaud), permet d’associer plusieurs adresses IP statiques à un même emplacement. Idéal pour les comptes multiples sur plateformes sensibles comme les réseaux sociaux ou les marketplaces, sans risquer de bannissement pour changement d’IP suspect. Parallèlement, l’amélioration de la rotation d’IP, en phase bêta depuis début 2025, opère un renouvellement automatique et discret de l’adresse toutes les quelques minutes, tout en maintenant la connexion active et l’emplacement fixe. Cette flexibilité brise les chaînes du tracking : les algorithmes publicitaires perdent le fil, les sites ne peuvent plus profiler précisément, et l’utilisateur gagne une invisibilité dynamique, parfaite pour le télétravail nomade ou les sessions prolongées sans alerte.
Cette puissance s’étend à tous les usages quotidiens. Pour le streaming, tous les serveurs débloquent Netflix US/UK/Australie, Amazon Prime Video, Disney+ ou HBO sans contorsion. Grâce à une infrastructure Nexus optimisée P2P et IP statiques. Le Bypasser (split tunneling) exclut certaines apps locales du tunnel pour une réactivité maximale, tandis que le MultiHop double le chiffrement via deux serveurs distants pour les scénarios haute sécurité. Il contourne bien sûr les censures nationales et CleanWeb purge pubs, trackers et phishing en amont, allégeant la navigation. Sur mobile, l’invisibilité réseau local et la modification GPS protègent contre les scans Wi-Fi publics, avec des apps complètes sur Android/iOS très bien notées pour leur fluidité.
| Fonctionnalité | Avantage principal | Usage idéal |
|---|---|---|
| Rotation d'IP | Changement automatique sans déconnexion | Sessions longues, anti-profilage |
| Multi IP | Plusieurs IP fixes par emplacement | Comptes multiples, marketplaces |
| IP statique | Adresse dédiée et stable | P2P, streaming intensif |
| Mode camouflage | Masque le transit VPN au FAI | Pays restrictifs |
Cette grille illustre comment Surfshark aligne flexibilité et robustesse pour neutraliser le fléau du tracking IP, sans compromettre vitesse ou simplicité.
En plus de sa politique no-log (auditée régulièrement par des organismes indépendants), Surfshark autorise des connexions simultanées illimitées sur tous appareils (PC, Mac, consoles, routeurs, TV, téléphones …). Avec toujours l’essai satisfait avec 30 jours remboursables. Face à l’omniprésence du pistage, le VPN ne se contente pas de cacher : il réinvente l’identité numérique dans un mouvement perpétuel, vous rendant plus fuyant qu’un saumon dans une mer d’huile.
Et du côté du tarif ? Il reste l’un des (si pas LE) plus intéressants en termes de rapport qualité/prix puisqu’il ne coûte que 64,48€ TTC pour 27 mois de couverture (2 ans + 3 mois offerts). Soit moins de 2.4€/mois. Un petit paiement et hop, toute la famille est tranquille jusqu’en … 2028 ! Et d’ici là, autant vous dire qu’on sera dans un autre monde, sans doute bien différent.
Vous vous rappelez de Proton , cette couche de compatibilité magique qui permet de jouer à des jeux Windows sur Linux ?
Hé bien Valve récidive avec Lepton, qui fait exactement la même chose… mais pour Android. Et devinez quoi, c’est basé sur Waydroid , ce projet open source qui permet de faire tourner Android dans un conteneur Linux.
L’idée derrière tout ça, c’est le Steam Frame , le fameux casque VR que Valve va sortir début 2026 et contrairement au Steam Deck qui utilise un processeur AMD x86, ce bidule tourne avec un Snapdragon 8 Gen 3 et 16 Go de RAM. Oui vous l’aurez compris, c’est de l’ARM !
Du coup, plutôt que de demander aux développeurs de porter leurs jeux un par un (ce qu’ils ne font jamais, on les connait ces branleurs ^^), Valve a décidé de supporter directement les APK Android. Ainsi, les devs qui ont déjà sorti leur jeu VR sur Meta Quest pourront donc le balancer sur Steam sans effort supplémentaire. C’est pas con, hein ? (à prononcer avec l’accent ch’ti). Et d’ailleurs, Walkabout Mini Golf sera le premier jeu Android officiel sur Steam. Si vous l’avez déjà acheté sur Steam, vous aurez donc accès à la version Android le jour du lancement du Steam Frame… pas besoin de repasser à la caisse et ça c’est cool !
Et alors pourquoi ça s’appelle Lepton ?
Hé bien parce que Valve aime bien les particules apparemment. Proton, Lepton… bientôt Neutron ? En attendant, le logo est une grenouille, ce qui n’a aucun rapport avec les particules mais on va pas chipoter.
Une fois encore, ce qui me fait vraiment kiffer dans cette histoire, c’est toujours cette même stratégie de Valve qui fait exactement comme avec le Steam Deck. En gros, leur move c’est que si les studios ne veulent pas développer en natif Linux, c’est pas grave… Ils feront tourner eux-même ce qu’ils ont déjà au catalogue. Avec Proton, ils ont récupéré tout le catalogue Windows et avec Lepton, ils vont récupérer tout le catalogue Meta Quest. Et comme le GPU du Steam Frame est 25% plus puissant que celui du Quest 3 (et même 30% en pratique parce que Meta bride un peu le sien), les jeux tourneront potentiellement mieux.
Reste maintenant une question que tout le monde se pose : Est-ce que Lepton arrivera sur Steam Deck ? Bah oui, ce serait logique car le Steam Deck a un écran tactile, des contrôleurs intégrés…etc et ce serait donc parfait pour les jeux Android. M’enfin, pour l’instant, Valve n’a rien confirmé, mais franchement ce serait bête de s’en priver.
Vous cherchez un vieux driver obscur de 2003, une démo technique jamais rééditée, ou ce vieux shareware DOS que personne n’a archivé ? Pas de souci, vous allez sur Google qui vous crache 3 liens morts et vous renvoie sur Reddit ou je ne sais où ailleurs… et vous abandonnez l’idée en vous disant que ça n’existe plus.
Mais sachez que pendant que vous galérez sur le web de surface, il existe tout un écosystème de réseaux zombies où les fichiers continuent de circuler comme si de rien n’était. eMule tourne toujours (oui), et des index FTP affichent carrément des milliards de fichiers encore dispo.
Bienvenue dans l’archéologie numérique pratique où aujourd’hui, on va apprendre à fouiller là où personne ne cherche plus. Et petit rappel utile, je vais vous parler ici uniquement de fichiers publics et légitimes (genre des drivers, des freewares, des docs, des archives de projets…etc), et pas de téléchargement illégal.
Mais avant de plonger dans ces réseaux, parlons un petit peu avant de sécurité parce que vous allez quand même télécharger des fichiers d’origines douteuses. Donc, utilisez une VM Linux légère (Ubuntu 22.04 LTS dans VirtualBox, ou une install minimal), avec un VPN avec kill-switch activé, un antivirus avec scan automatique, et un gestionnaire de téléchargement comme JDownloader2 avec des filtres activés.
Alors, pourquoi isoler sa machine AVANT de télécharger, me direz-vous ?
Hé bien parce qu’un fichier vérolé dans une VM, vous effacez la VM. Alors qu’un fichier vérolé sur votre machine principale, vous commencez à négocier avec votre week-end.
On commence donc par le web indexé étendu. Google indexe beaucoup de choses c’est vrai, mais pas tout (et pas partout). Et les opérateurs de recherche, c’est juste l’art de poser les bonnes contraintes : site:, guillemets, filetype:, intitle:… c’est documenté noir sur blanc
chez Google donc je vous laisse lire tout ça
, mais voici un exemple…
`site:vogonsdrivers.com "Voodoo3" driver`
ou
`site:catalog.update.microsoft.com "nom du périph"`
…pour tomber sur des pages que personne ne linke plus, mais qui existent encore. Et si vous voyez un “Index of /” sur un serveur, traitez ça comme un miroir public, mais surtout pas comme une invitation à aspirer tout le disque au risque de vous faire ban ou de voir le site se mettre en croix.
Bonus moteur de recherche rien que pour vous, Yandex peut parfois remonter des résultats différents (langues, régions, caches), mais oubliez le mythe “anti-DMCA magique” car Yandex retire aussi les liens qui vont vers du contenu sous copyright.
Voilà, utilisez plusieurs moteurs de recherche pour multiplier les angles de recherche. C’est un bon début.
Ensuite, Archive.org que vous connaissez tous, ne se limite pas aux vieilles versions de sites web. Le move le plus propre c’est de coller l’URL d’origine dans la Wayback Machine et vous remonterez le temps. Et si vous voulez jouer au chirurgien (URLs mortes, patterns, dates), il y a même une API CDX qui interroge l’index des captures, comme ça, un driver disparu en 2008 a peut-être été crawlé. Ou pas. Mais bon, ça prend 30 secondes à vérifier donc pourquoi se priver ?
Il restait aussi, c’est vrai, des dinosaures qui traînaient comme Uloz.to, longtemps cité comme “cimetière vivant”, mais qui malheureusement a annoncé la fin du partage public en 2023. En revanche, pour les vieux drivers et outils, vous avez des spots nettement plus propres tels que VOGONS Drivers (vintage hardware) et même le Microsoft Update Catalog pour des drivers connus.
Mais attention au piège des faux liens car sur certains vieux hébergeurs et pages louches, une grosse partie des résultats récents sont des redirections vers des sondages, des installateurs chelous ou des malwares. La règle c’est donc de privilégier les uploads anciens, de vérifier la taille du fichier, et de comparer avec une taille attendue. Par exemple, une ISO de 150 Ko, c’est un fake évident ! Et si un hash est disponible sur un forum, vérifiez-le (idéalement en SHA-256).
Bon, et maintenant on va passer à un truc vraiment puissant : l’archéologie FTP.
Mamont’s Open FTP Index et son moteur de recherche affichent plus de 4,29 milliards de fichiers listés. La plupart de ces serveurs ont été configurés dans les années 2000 et certains traînent encore en mode portes ouvertes du coup, on y trouve des sauvegardes de sites web morts, des miroirs de projets, des archives de docs, de vieilles photos et parfois des drivers perdus. C’est l’Internet Archive version anarchique et non-curée.
Vous pouvez par exemple chercher par extension (.zip, .rar, .7z), vous triez par date, et vous privilégiez les serveurs qui ressemblent à des miroirs publics (projets, universités, labos). Et si vous voulez un index avec stats visibles, y’a une alternative qui s’appelle NAPALM FTP Indexer et qui annonce environ 459 millions de fichiers répartis sur 1 437 serveurs FTP, avec une date d’update affichée.
Par contre, petit piège classique, y’a beaucoup de serveurs FTP publics qui bloquent l’accès web, mais acceptent les clients FTP. Donc si un index affiche un lien mort, essayez avec un client FTP en lecture seule (FileZilla, lftp…). Sur l’anonymous FTP, quand c’est activé. Le combo classique c’est user: anonymous (et parfois un mail en mot de passe, juste pour la forme). Et une fois encore, ce qui est accessible n’est pas toujours prévu pour être siphonné donc prenez uniquement ce dont vous avez besoin.
Et si vous cherchez des fichiers vraiment rares, on ne peut pas ignorer le P2P décentralisé. C’est vrai que tout le monde est passé au streaming, mais il reste une communauté silencieuse qui fait tourner eMule depuis 2004 et comme le réseau Kad (Kademlia) fonctionne sans serveur central côté recherche, ça change tout en termes de résilience. Aujourd’hui c’est plus niche, mais c’est justement là que des fichiers ultra-spécifiques survivent.
Si vous voulez rester clean, téléchargez eMule depuis la source officielle . Ah et sous Mac et Linux, y’a aMule aussi. Ça me rappelle tellement de souvenirs !
Bien sûr, les fichiers rares peuvent mettre des jours à arriver et contrairement à BitTorrent où vous voyez “50 seeders”, eMule affiche juste “En attente” donc télécharger un fichier rare demande de la patience. Laissez tourner, et vous verrez bien… c’est souvent la condition du succès.
BitTorrent avec BiglyBT , c’est l’évolution moderne de tout ça puisque ce client supporte DHT, et il a une intégration I2P et Tor via plugin. La fonctionnalité “Swarm Discoveries” sert également à découvrir des torrents.
Gnutella et Shareaza, par contre, c’est le réseau zombie. Très peu d’utilisateurs, mais certaines archives uniques n’existent que là donc si vous avez épuisé eMule et BitTorrent, tentez Shareaza en dernier recours.
Une technique un peu old-school mais qui marche encore (dans les cas légitimes) c’est également l’URL guessing. Donc littéralement deviner les URLs. Vous trouvez site.com/download/v1.0.zip, mais il vous faut la v0.9. Testez site.com/download/v0.9.zip, puis v1.1, v2.0. Beaucoup de projets laissent traîner des anciennes versions sans les lier publiquement.
Et pour finir, Usenet qui est payant c’est vrai, un peu complexe, mais parfois très efficace. Usenet existe depuis 1980 et fonctionne comme un système distribué de serveurs qui se répliquent des messages. Aujourd’hui, côté binaire, faudra passer par un provider (rétention, vitesse, complétion) comme Eweka ou Newshosting. Y’a aussi des indexeurs NZB pour chercher comme NZBgeek, ou NZBfinder.
Votre succès avec Usenet dépend de deux paramètres très terre-à-terre : la rétention (combien de temps c’est gardé) et la complétion (si toutes les pièces existent). Un fichier de 2010 peut être incomplet si des parties ont sauté alors si la complétion est basse, vous perdez votre temps. Par contre, si elle est haute, Usenet est un bulldozer.
Je le redis encore une fois, ne JAMAIS double-cliquer sur un .exe récupéré dans la nature. Vérifiez les signatures quand il y en a, comparez les hashes, et testez d’abord en VM isolée. Hé oui, VirusTotal peut aider, mais un upload n’est pas forcément privé donc évitez d’y envoyer des fichiers sensibles, et ne confondez pas 0 détection avec 0 risque.
Voilà, cet Internet profond dont je parle n’a rien à voir avec le dark web, Tor et tout ça… C’est simplement l’Internet d’avant Google qui continue de tourner en silence avec ses miroirs, ses archives, ses réseaux P2P sans tête, et ses serveurs oubliés. Tout ça fonctionne encore, mais personne ne les explore vraiment. Grâce à cet article, vous venez donc d’apprendre à fouiller ces cyber ruines où 99% des gens ne pensent jamais à chercher.
Pour aller plus loin dans l’archéologie numérique, j’ai compilé les sources qui m’ont aidé à préparer ce modeste guide : Lost Media Wiki Forum pour la communauté, Mamont et NAPALM FTP Indexer pour l’archéo FTP, Internet Archive + CDX API pour la Wayback, la doc eMule et Steiner et al. (IMC 2007) pour Kad, BiglyBT + Swarm Discoveries pour BitTorrent, VOGONS Drivers et Software Heritage pour la préservation propre.