Vous avez des cartouches Super Nintendo qui prennent la poussière dans un carton au grenier et en même temps une vague culpabilité de jouer à ces mêmes jeux en ROM sur votre Steam Deck ? Alors on va remédier à cela grâce à Epilogue qui a la solution pour mettre votre conscience au repos tout en profitant de vos jeux légalement sur n'importe quel appareil.
Leur nouveau gadget s'appelle le SN Operator et c'est un dock USB-C dans lequel vous insérez vos cartouches SNES ou Super Famicom. Ensuite vous branchez ça à votre PC (ou Mac, ou Steam Deck, ou même un Raspberry Pi), et hop vous pouvez jouer à vos jeux originaux via leur émulateur maison Playback . Pas besoin de télécharger des ROMs douteuses sur des sites chelous, vos propres cartouches font le taf.
Le truc cool c'est que ça va au-delà de simplement "jouer" puisque l'appareil peut authentifier vos cartouches pour vérifier que le Chrono Trigger que vous avez chopé aux puces n'est pas une contrefaçon chinoise. Il peut aussi sauvegarder toutes vos données de jeu, y compris les sauvegardes de l'époque que vous aviez sur la cartouche. Du coup si votre pile de sauvegarde finit par lâcher (et ça arrive, ces trucs ont 30 ans quand même...), vous aurez une copie en sécurité.
Côté compatibilité, Epilogue annonce le support de toutes les puces d'amélioration : Super FX, SA-1, DSP, CX4... Donc vos Star Fox et autres Yoshi's Island devraient tourner sans problème. Y'a même le support du Super Scope et de la souris SNES pour les jeux qui les utilisaient, genre Mario Paint. Et cerise sur le gâteau, l'intégration RetroAchievements est de la partie pour ceux qui aiment débloquer des trophées rétro.
Les précommandes ouvrent demain 30 décembre à 18h (heure de Paris) pour enciron 60 dollars. C'est 10 balles de plus que leur GB Operator pour Game Boy, mais bon, les cartouches SNES sont plus grosses et le hardware plus costaud. La livraison est prévue pour avril 2026.
Perso je trouve que c'est une approche plutôt saine du rétrogaming. Vous possédez les cartouches, vous avez le droit d'y jouer et ça évite de devoir ressortir une vraie console SNES qui prend de la place, consomme plus, et dont les connecteurs commencent à fatiguer après des décennies d'utilisation.
Bon, je vais essayer de poser les choses calmement, parce que ce que je vais vous raconter aujourd'hui, c'est peut-être le changement le plus profond qu'on ait vu sur le web depuis l'arrivée des moteurs de recherche. Et je pèse mes mots.
J'ai découvert via un post sur Linkedin de Laurent Bourrelly (merci !) que Google venait de lancer ce qu'ils appellent la « Vue Dynamique » dans Gemini.
Derrière ce nom un peu corporate se cache quelque chose de vertigineux. Au lieu de vous donner une réponse textuelle comme le fait ChatGPT ou Perplexity, Gemini génère maintenant des interfaces complètes, des mini-applications, des pages web interactives créées à la volée, spécialement pour votre question.
Vous demandez un comparatif de NAS ? Vous n'obtenez pas un texte avec des bullet points. Vous obtenez une interface avec des onglets, des sliders pour filtrer par prix, des cartes interactives avec les specs de chaque modèle.
Vous voulez un tutoriel pour installer Linux ? Vous n'aurez pas une liste d'étapes, mais un guide interactif avec des boutons, des cases à cocher pour suivre votre progression, peut-être même une galerie d'images générées pour illustrer chaque étape.
Et ça fonctionne incroyablement bien sur le web via gemini.google.com ! Pour l'instant c'est réservé aux comptes personnels, c'est encore un peu capricieux (ça apparaît, ça disparaît, Google teste), et ça peut prendre entre 30 et 90 secondes pour générer une réponse complexe. Mais le résultat est vraiment bluffant.
Imaginez 2 secondes les usages de cette techno... Vous cherchez quel GPU acheter pour votre config gaming ? Au lieu de parcourir 15 sites de benchmarks, de comparer des tableaux sur Tom's Hardware et de croiser avec les prix sur LDLC, vous posez la question à Gemini et vous obtenez une application comparative générée instantanément. Même chose pour choisir un forfait mobile, comprendre les différences entre distributions Linux, trouver la meilleure recette de carbonara, ou planifier un voyage avec maps et itinéraires intégrés.
L'information brute, celle qu'on allait chercher sur des dizaines de sites, est maintenant synthétisée et présentée dans une interface sur-mesure. Plus besoin de naviguer de site en site, de supporter les popups de cookies, les pubs intrusives, les paywalls...etc. L'IA fait le boulot et vous livre le résultat dans un emballage propre. En quelques seconde, je me suis fait mon site d'actu tech perso...
Et voilà le problème.
Parce que si l'IA peut générer une meilleure expérience que nos sites web pour répondre à une question factuelle, pourquoi les gens iraient-ils encore sur nos sites ?
On connaissait déjà la menace des réponses IA dans les résultats Google. Vous savez, ces encarts qui répondent à votre question avant même que vous cliquiez sur un lien. Ça, c'était le premier coup de semonce. Mais la Vue Dynamique, c'est un autre niveau. Ce n'est plus juste une réponse qui s'intercale entre vous et l'internaute. C'est le remplacement pur et simple de l'expérience web traditionnelle.
Tous les sites qui vivent de l'information brute vont morfler. Les comparateurs de prix, les guides d'achat, les tutoriels techniques basiques, les FAQ, les sites de recettes... Tout ce qui peut être synthétisé, structuré et présenté de manière plus efficace par une IA va perdre sa raison d'être. Et croyez-moi, OpenAI ne va pas rester les bras croisés et Perplexity non plus. Dans quelques mois, ils auront tous leur version de cette techno. C'est inévitable.
Et demain, ce ne sera peut-être même plus des interfaces visuelles. Ce seront des assistants vocaux, des agents autonomes, des robots qui viendront chercher l'information sans jamais afficher une seule page web. L'information transitera directement de la source vers l'utilisateur, sans passer par la case « visite d'un site ».
Hé bien... oui et non.
Oui, c'est foutu pour un certain type de contenu. L'information pure et dure, factuelle, sans valeur ajoutée éditoriale, va devenir une commodité. Quelque chose que l'IA génère gratuitement, instantanément, dans un format optimisé. Personne n'ira plus sur un site pour lire « comment formater un disque dur sous Windows » ou « comment nettoyer Windows 11 » quand Gemini lui construit un guide interactif personnalisé en 30 secondes.
Mais ce n'est pas foutu pour autant pour tout le monde. Et c'est là que ma réflexion devient plus personnelle...
Je pense que les sites qui vont survivre, et peut-être même prospérer, sont ceux qui apportent quelque chose que l'IA ne peut pas synthétiser. Une voix, une personnalité, un point de vue, une opinion, une analyse originale et le plaisir de lire quelqu'un. C'est peut-être la mort des sites conçus uniquement pour le SEO et du journalisme neutre et anonyme tel qu'on le pratique aujourd'hui et le grand retour des blogs à une voix ? Qui sait ?
Parce qu'au fond, pourquoi est-ce que vous me lisez ? Est-ce que c'est vraiment pour savoir comment installer Ollama ou pour connaître cette dernière faille de sécurité ? Ou est-ce que c'est aussi parce que vous aimez la manière dont je raconte les choses, les sujets que je choisis, le ton que j'emploie, les réflexions que je partage ? Si c'est juste pour l'info brute, alors oui, vous pourriez aller sur Gemini. Mais si c'est pour le reste, pour la relation qu'on a construite au fil des années, pour cette confiance qui s'est établie, alors aucune IA ne peut remplacer ça.
De mon point de vue, il y a désormais deux façons pour un créateur de contenu de survivre dans ce nouveau paysage.
La première, c'est de devenir fournisseur de données pour ces IA. Les bots vont continuer à crawler le web pour alimenter leurs modèles. Et ils auront besoin de données fraîches, de données originales, de données structurées. Les sites qui seront capables de produire cette matière première, et qui négocieront correctement avec les géants de l'IA pour être rémunérés, pourront peut-être s'en sortir. Mais attention, ça implique de repenser complètement la façon dont on structure son contenu, de le rendre lisible par les machines, d'accepter que ce qu'on produit sera digéré et régurgité par une IA. C'est un business model possible, mais c'est un sacré changement de paradigme.
La seconde voie, c'est de cultiver l'humain. De créer du contenu que les gens veulent lire pour le plaisir de lire, pas juste pour extraire une information. Des analyses, des opinions, des prises de position, du divertissement, de l'émotion. Un blog, une newsletter , un Patreon , des lives Twitch , une présence LinkedIn Korben ... Tout ce qui crée une relation directe avec les lecteurs. Parce que cette relation, l'IA ne peut pas la reproduire. Elle peut synthétiser mes articles, mais elle ne peut pas être moi.
Je ne vais pas vous mentir, ça fait réfléchir. Ça fait même un peu flipper. Mais en même temps, je réalise que c'est exactement le virage que j'ai commencé à prendre ces dernières années, de manière un peu inconsciente, sans vraiment voir venir cette révolution technologique.
Je suis tout seul. Je n'ai pas d'employés. Je ne peux pas rivaliser avec les gros médias tech sur la quantité ou la rapidité (quoique... ^^). Par contre, j'ai toujours cherché à me différencier. Déjà par ma sélection de sujets, que la plupart du temps, on ne retrouve nulle part ailleurs, par ma manière de les aborder, par ma façon d'écrire, par ma façon de communiquer avec vous...
Et demain, cette différence va devenir encore plus importante. Parce que ce qui ne sera pas différent, ce qui sera de l'information générique, ça va disparaître dans le bruit des réponses IA. Seuls les contenus qui apportent quelque chose d'unique, une perspective qu'on ne trouve pas ailleurs, une voix reconnaissable, une relation authentique, auront leur place.
Est-ce que j'y arriverai ? Je ne sais pas. Est-ce que les autres y arriveront ? Je ne sais pas non plus. Mais je trouve le challenge passionnant. Et je me sens suffisamment conscient de ce qui se passe, suffisamment bien équipé techniquement (j'utilise l'IA tous les jours pour mon travail, et je structure déjà mon contenu pour qu'il soit digeste par les machines), pour essayer de prendre cette vague.
Google vient de mettre un énorme coup de poing sur la table. La Vue Dynamique de Gemini, c'est pas juste une nouvelle feature sympa... C'est l'annonce d'un changement de paradigme. Le web tel qu'on le connaît, avec des humains qui naviguent de site en site pour collecter de l'information, ce web-là est en train de mourir.
Ce qui va rester, ce sont comme je vous le disais, d'un côté, des fournisseurs de données qui alimenteront les IA. De l'autre, des créateurs qui cultiveront une relation directe avec leur audience, qui apporteront de la valeur par leur voix, leur personnalité, leur point de vue. Mon pari, c'est qu'en tant que média / blog / site web, nous devront être les 2 faces de cette même pièce pour ne pas disparaitre.
Je suis assez serein parce que c'est ce que je fais depuis 20 ans, même si je ne n'appelle pas ça comme ça. Et parce que je crois fondamentalement qu'il y aura toujours des gens qui voudront lire quelqu'un, et pas juste lire "quelque chose".
On verra bien si j'ai raison. On verra bien si je me plante. Mais ça va être un sacré voyage, et je suis content de le faire avec vous... Car tant qu'il y aura des gens pour me lire (vous !), et tant que ça m'amusera de partager tout ça avec vous, je ne bougerai pas d'ici ^^
Vous êtes sous Windows et vous avez déjà rêvé de taper sudo comme les vrais bonhommes sous Linux ?
Alors votre vie va changer car c'est maintenant possible grâce à l'implémentation divine de Microsoft (attention, c'est pas un port de sudo Unix, c'est leur propre version...).
En effet, Microsoft a intégré la commande sudo dans Windows 11 (version 24H2) et contrairement à ce qu'on pourrait penser, c'est pas juste un gadget pour faire genre. Ça sert vraiment... Par contre, la fonctionnalité est désactivée par défaut. Mdrrr.
Pour l'activer, vous allez dans Paramètres, puis Système, puis « Pour les développeurs », et vous activez l'option sudo. Et hop, c'est prêt.
Ensuite, y'a trois modes d'exécution et c'est là que ça devient intéressant. Le mode « Nouvelle fenêtre » ouvre un terminal admin séparé après validation UAC. Le mode « Avec entrée désactivée » exécute tout dans la même fenêtre mais vous pouvez plus interagir avec le processus. Et le mode « Inline », le plus proche de l'expérience Linux, garde tout dans votre fenêtre actuelle avec interaction complète.
Alors concrètement, ça sert à quoi ?
Déjà pour winget ça permet d'installer des logiciels directement depuis votre terminal utilisateur. Un petit sudo winget install --id VideoLAN.VLC et c'est réglé. Pas besoin de fermer votre session, ouvrir PowerShell en admin, retaper vos commandes...
Ensuite pour le debug réseau, quand vous voulez savoir quel processus monopolise un port, un sudo netstat -ab vous donne les noms des processus. L'option -b nécessite des droits admin pour fonctionner, donc sans sudo vous ne verrez que les PID (avec -o). Relou non ?
Et mon préféré c'est pour éditer le fichier hosts. Vous savez, ce fichier planqué dans C:\Windows\System32\drivers\etc\ qu'on peut jamais modifier parce qu'il faut des droits admin ? Hé bien maintenant un sudo notepad %windir%\system32\drivers\etc\hosts et c'est parti. Fini les galères de « Exécuter en tant qu'administrateur » puis naviguer jusqu'au fichier.
Bon, y'a quand même une limite importante par rapport à Linux...
Sous Linux, sudo garde vos identifiants en cache pendant quelques minutes par défaut (configurable via sudoers), donc vous tapez le mot de passe une fois et ensuite c'est tranquille. Alors que sous Windows avec les réglages UAC standards, vous aurez une validation à chaque commande sudo. C'est un peu lourd mais c'est le prix de la sécurité façon Microsoft
Bref, c'est pas la révolution du siècle, mais c'est un petit confort bien appréciable au quotidien. Si vous passez régulièrement de Linux à Windows, vous allez enfin pouvoir garder vos réflexes sans avoir à vous adapter et si vous êtes pur Windowsien, vous découvrez peut-être une façon plus classe de gérer les droits admin que le clic droit « Exécuter en tant qu'administrateur » qu'on connaît tous.
Ça va ? Vous avez passé un bon Noël ? Bien mangé ? Les cadeaux étaient cool ? Tant mieux pour vous, car de son côté, Tim Cook, a passé le sien à se faire lyncher sur X parce qu'il a posté une illustration de lait et cookies pour promouvoir Pluribus , la nouvelle série Apple TV+.
Pourquoi me direz-vous ? Et bien parce que tout le monde est persuadé que c'est de la bonne vieille image générée par IA.
Faut dire qu'il y a pas mal d'indices qui sèment le doute... John Gruber de Daring Fireball a été le premier à tirer la sonnette d'alarme en pointant du doigt des détails bien chelous dans l'image. Le carton de lait affiche à la fois « Whole Milk » ET « Lowfat Milk » sur ses étiquettes. Comme si le designer avait voulu cocher toutes les cases en même temps ^^ Et le labyrinthe « Cow Fun Puzzle » sur le carton ? Ben il est impossible à résoudre. Enfin si, mais uniquement en passant autour du labyrinthe, pas dedans. C'est de l'IA tout craché.
D'ailleurs, Ben Kamens, un expert qui venait justement de publier un article sur les labyrinthes générés par IA, a confirmé que l'image présentait les « caractéristiques typiques » des IA qui galèrent avec ce genre de truc. Et Gruber a aussi fait remarquer qu'on ne voit jamais de puzzles sur des cartons de lait (qui sont cireux et difficiles à imprimer) mais plutôt sur des boîtes de céréales. Comme si l'IA avait mélangé deux concepts...
Apple TV+ a répondu en créditant un certain Keith Thomson comme artiste, précisant que l'œuvre avait été « créée sur MacBook Pro ». Sauf que personne n'a tagué ce Keith Thomson et quand Slashdot l'a contacté, le bonhomme a refusé de commenter spécifiquement le projet, se contentant de dire qu'il « dessine et peint toujours à la main et utilise parfois des outils numériques standard ».
Traduction : Un esquive de niveau olympique.
Le plus marrant dans tout ça c'est que Sundar Pichai de Google a posté une boule à neige générée par IA le lendemain avec le watermark Gemini bien visible, et tout le monde a trouvé ça « trop mignon ».
Deux poids deux mesures ^^
Maintenant y'a une théorie alternative qui circule. Certains pensent que les « erreurs » seraient en fait intentionnelles... Que ce serait des références à la série Pluribus elle-même qui parle d'une intelligence collective... Le message de Cook aurait en fait été adressé à « Carol », le personnage principal joué par Rhea Seehorn. Une sorte de méta-promotion qui aurait mal tourné ? J'y crois pas une seconde...
Je pense plutôt que Keith Thomson était en famille, qu'il avait autre chose à foutre, que de toute façon il déprime parce que Midjourney ou un autre sait reproduire son style à la perfection et qu'il s'est dit « Pourquoi je me ferais chier le cul à peindre des cookies de merde pour Apple alors que je suis en train de jouer aux Lego avec mes petits enfants ?« . Bah ouais, pourquoi ? Ce n'est qu'une théorie mais c'est la mienne...
Bref, que ce soit de l'IA, de l'art volontairement buggé pour la promo, ou juste un artiste qui a fait des choix bizarres, cette histoire illustre bien le climat actuel. Les gens sont tellement bombardés d'images IA et ont tellement rien à foutre de leurs journées qu'un vrai artiste avec 30 ans de carrière peut se retrouver accusé de « triche » à tort ou à raison, parce que son labyrinthe est mal foutu.
On est mal barré...
Si vous utilisez MongoDB, accrochez-vous bien parce que là, c'est du lourd. Une faille critique baptisée MongoBLEED vient d'être découverte et elle touche à peu près toutes les versions de MongoDB sorties depuis 2017. Sept ans de versions vulnérables, c'est un chouette record, je trouve ^^.
Le problème avec cette CVE-2025-14847, c'est qu'elle exploite la compression zlib des messages. En gros, quand un attaquant envoie un message compressé mal formé avec des paramètres de longueur trafiqués, MongoDB se met à recracher des bouts de sa mémoire heap sans broncher. Et dans cette mémoire, on peut trouver des trucs sympa genre des mots de passe, des tokens d'authentification, des clés de chiffrement... Bref, le jackpot pour un attaquant.
Le pire dans tout ça c'est que y'a pas besoin d'être authentifié pour exploiter la faille. Si votre instance MongoDB est accessible depuis le réseau, n'importe qui peut s'y connecter et commencer à siphonner votre mémoire. C'est exactement le même genre de cauchemar que Heartbleed en 2014, d'où le petit surnom affectueux.
Du coup, qui est concerné ?
Hé bien à peu près tout le monde... Les versions 3.6.0 jusqu'à 8.0.16 sont touchées, ce qui représente selon les chercheurs de Wiz environ 42% des environnements cloud. Il y aurait donc plus de 87 000 instances MongoDB exposées sur Internet et le problème, c'est que depuis le 26 décembre 2025, des exploitations actives ont été détectées dans la nature. Joyeux Noël !!
La bonne nouvelle, c'est que le fix est simple. Soit vous mettez à jour vers une version patchée (8.2.3+, 8.0.17+, 7.0.28+, 6.0.27+, 5.0.32+ ou 4.4.30+), soit vous désactivez la compression zlib en attendant. Pour ça, c'est dans la config réseau de MongoDB, paramètre compressors qu'il faut virer le zlib.
Pour vérifier si vous êtes vulnérable, un petit nmap sur le port 27017 avec le script mongodb-info vous dira quelle version tourne. Vous pouvez aussi regarder les logs réseau pour détecter des connexions suspectes avec des messages compressés anormalement petits suivis de réponses anormalement grandes. C'est le signe qu'un petit malin est en train de vous pomper la mémoire.
Bref, si vous avez du MongoDB qui traîne quelque part, c'est le moment de faire un petit tour dans vos infras. Parce que là, c'est quand même d'une faille qui permet à n'importe qui d'aspirer vos données sensibles sans même avoir besoin d'un mot de passe. Ubisoft en a fait les frais et ça pique !
Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
curl -o install.sh https://raw.githubusercontent.com/blinko-space/blinko/main/install.sh && bash install.sh
Le script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur demo.blinko.space (test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Merci à Lorenper pour l'info !
Vous avez déjà fait transcrire une interview ou un podcast par un service en ligne ? Vous savez, ces trucs qui vous demandent de créer un compte, de filer votre carte bleue, et d'accepter que vos fichiers audio soient envoyés sur des serveurs quelque part dans le cloud américain pour être analysés par des IA qu'on ne connaît pas. Le tout pour 100 balles par an si vous avez de la chance, et beaucoup plus si vous dépassez le quota ridicule de 20 heures par mois...
Hé bien y'a une alternative qui va vous plaire : Scriberr ! C'est une app de transcription audio complètement open source et surtout, qui tourne 100% en local sur votre machine. Pas de cloud, pas de données qui se baladent, pas d'abonnement mais juste vous, avec votre serveur (ou votre laptop si vous avez un GPU correct), et vos fichiers audio qui restent bien au chaud chez vous.
Scriberr utilise des modèles de reconnaissance vocale de pointe comme NVIDIA Parakeet, Canary ou les fameux modèles Whisper. Du coup la qualité de transcription est vraiment au niveau des services payants, voire meilleure sur certains accents ou langues moins courantes. Et cerise sur le gâteau, vous avez l'alignement temporel au niveau du mot, ce qui veut dire que vous pouvez savoir exactement à quelle seconde chaque mot a été prononcé.
Mais le truc qui m'a vraiment tapé dans l’œil avec cet outil, c'est la détection automatique des locuteurs. Vous savez, cette fonctionnalité qu'on appelle "diarization" dans le jargon et qui permet d'identifier qui dit quoi dans une conversation. Comme ça, fini les transcriptions où tout le monde parle mais on ne sait pas qui c'est. Là, Scriberr vous découpe tout proprement avec des étiquettes pour chaque intervenant.
Et comme si ça suffisait pas, y'a aussi l'intégration avec Ollama ou n'importe quelle API compatible OpenAI. Du coup vous pouvez non seulement transcrire vos enregistrements, mais aussi leur poser des questions, générer des résumés, ou carrément avoir une conversation avec le contenu de vos transcriptions. Genre vous demandez "c'est quoi les points clés de cette réunion ?" et hop, l'IA vous fait un résumé. Pratique pour les feignasses comme moi qui détestent se retaper 2 heures de réunion pour retrouver une info.
Côté installation, c'est du Docker classique ou alors Homebrew si vous êtes sur Mac. Un petit
`brew tap rishikanthc/scriberr && brew install scriberr`
et c'est parti mon kiki. Pour Docker, y'a des images pour CPU et GPU (CUDA), et ça supporte toutes les générations de cartes NVIDIA depuis les GTX 1000 jusqu'aux RTX 50 series toutes récentes.
Le premier lancement peut prendre quelques minutes parce que ça télécharge les modèles de reconnaissance vocale, mais une fois que c'est fait, les relances suivantes sont quasi instantanées. Y'a même un Folder Watcher qui surveille un dossier et transcrit automatiquement tout ce qui arrive dedans, parfait si vous voulez brancher ça sur un workflow automatisé avec n8n ou autre.
Bref, si vous êtes podcaster, journaliste, chercheur, ou juste quelqu'un qui a régulièrement besoin de transcrire des trucs sans vouloir filer ses données à Google ou payer un abonnement, Scriberr c'est exactement ce qu'il vous faut. C'est du self-hosting comme on l'aime, c'est à dire open source, respectueux de la vie privée, et qui fait le taf sans chichi.
Merci à Letsar pour le partage !
Vous utilisez Word pour bosser et j'imagine que vous avez vu passer le fameux Copilot de Microsoft à 30 balles par mois pour les pros ? Ouais, ça pique un peu le porte-monnaie surtout quand on a déjà nos propres clés API OpenAI ou Gemini qui traînent et sur lesquelles on claque un smic tous les mois.
Hé bien Word GPT Plus c'est justement un add-in open source qui intègre l'IA directement dans Microsoft Word, et qui vous permet d'utiliser vos propres clés API au lieu de payer un énième abonnement. Avec ça, vous pouvez générer du texte, traduire, résumer, reformuler... le tout sans quitter votre document.
Mais le truc vraiment cool, c'est le mode Agent. Là, l'IA a accès à plein d'outils qui lui permettent de manipuler directement votre document Word. Genre insérer du texte, formater des paragraphes, créer des tableaux, gérer les signets, faire des rechercher-remplacer... Vous lui dites « formate tous les titres de section en Heading 2 » et hop, c'est fait. C'est pas juste un chatbot dans une sidebar, c'est carrément un assistant qui peut agir sur votre document.
Côté fournisseurs IA, vous avez le choix entre OpenAI (GPT-4, GPT-3.5, et même les modèles compatibles comme DeepSeek), Azure OpenAI si vous êtes en entreprise, Google Gemini, Groq pour les modèles Llama et Qwen, et même Ollama si vous voulez faire tourner vos LLM en local sans envoyer vos données quelque part. Et ça, c'est top pour ceux qui bossent sur des documents confidentiels.
Y'a aussi des Quick Actions bien pratiques genre traduction en plus de 40 langues, amélioration de texte, réécriture académique, résumé automatique, correction grammaticale... Bref, les classiques mais directement accessibles dans Word.
Pour l'installer, c'est hyper simple. Vous téléchargez le fichier manifest.xml depuis le repo GitHub, vous le mettez dans un dossier partagé sur votre machine, et vous l'ajoutez dans Word via Insertion > Mes compléments > Dossier partagé. Pas besoin de coder quoi que ce soit. Y'a aussi une option Docker pour ceux qui veulent l'héberger eux-mêmes ou le déployer sur un serveur.
Niveau vie privée, vos clés API et vos prompts perso sont stockés localement dans le navigateur intégré à l'add-in Word. Y'a pas de serveur intermédiaire qui récupère vos données, sauf si vous configurez vous-même un proxy. Vos documents restent ainsi bien au chaud chez vous.
Par contre, faut Word 2016 minimum, Word 2019, 2021 ou Microsoft 365 sur Windows. Et ça marche uniquement avec les fichiers .docx.
Bref, si vous voulez avoir ChatGPT ou Gemini directement dans Word sans vous ruiner avec un abonnement Copilot, c'est exactement ce qu'il vous faut. Et comme c'est open source sous licence MIT, vous pouvez auditer le code si vous êtes du genre méfiant.
Vous jouez à Rainbow Six Siege ? Hé bien félicitations, vous êtes maintenant virtuellement millionnaire ! Enfin... l'étiez, parce que tout ça va être annulé.
Rainbow Six Siege X, le jeu d'Ubisoft victime d'un hack massif
Ce week-end, Ubisoft s'est fait pirater comme des jambons et pas qu'un peu. Des hackers ont réussi à distribuer 2 milliards de R6 Credits à TOUS les joueurs du jeu. Au tarif Ubisoft (15 000 crédits pour 99,99 dollars), ça représente environ 13,33 millions de dollars de monnaie virtuelle offerte gracieusement. Sympa les pirates ^^
Mais attendez, c'est pas tout ! Les attaquants ont également débloqué absolument tous les cosmétiques du jeu pour tout le monde, y compris les skins réservés aux développeurs que personne n'était censé avoir. Et pour couronner le tout, ils se sont amusés avec le système de bannissement du jeu. Résultat, des milliers de joueurs se sont retrouvés bannis puis débannis au hasard, pendant que le fil d'actualité des bans affichait des messages satiriques visant Ubisoft et ses dirigeants.
Les messages de ban détournés par les hackers formaient des phrases trop "golri", arf arf... ( Source )
Du coup, le streamer KingGeorge a immédiatement lancé l'alerte : "Ne vous connectez pas au jeu, ne dépensez pas de Renown, ne dépensez pas de Rainbow Credits". Sage conseil, parce que par le passé, Ubisoft a déjà banni des joueurs pour leurs propres erreurs. Pas cool.
Peu après le début du bordel, Ubisoft a donc coupé les serveurs et la marketplace pour tenter de contenir les dégâts. Les serveurs de Rainbow Six Siege sont toujours hors ligne au moment où j'écris ces lignes, sans ETA de retour. La bonne nouvelle, c'est qu'Ubisoft a confirmé qu'aucun joueur ne sera banni pour avoir dépensé les crédits reçus pendant l'incident, et qu'un rollback de toutes les transactions depuis 11h UTC est en cours.
Maintenant, le truc vraiment chaud c'est la méthode utilisée car selon le groupe de recherche en sécurité VX-Underground, plusieurs groupes de hackers auraient exploité Ubisoft en même temps. L'un d'eux aurait utilisé une faille MongoDB récemment découverte, baptisée MongoBleed (CVE-2025-14847). Cette vulnérabilité permet à n'importe qui de siphonner la mémoire des serveurs MongoDB exposés, récupérant au passage des credentials, des tokens d'authentification et des clés. Un PoC public circule depuis le 26 décembre et environ 87 000 instances MongoDB seraient vulnérables dans le monde (mettez à jour, hein !!).
Un autre groupe prétend avoir aussi utilisé cette faille pour se balader dans les dépôts Git internes d'Ubisoft et voler des archives de code source remontant jusqu'aux années 90. Ces affirmations restent non vérifiées pour l'instant, mais si c'est vrai, c'est du lourd...
Bref, si vous avez un compte Ubisoft, je vous conseille vivement de changer votre mot de passe et de retirer vos moyens de paiement enregistrés, au cas où. Et pour Rainbow Six Siege, patience, ça va revenir... probablement avec un rollback qui effacera tous ces beaux cadeaux empoisonnés.
Vous connaissez l'histoire de la NES ? Celle du petit robot R.O.B. qui a aidé à ressusciter l'industrie du jeu vidéo américaine en 1985 ? Hé bien la Video Game History Foundation vient de sortir un documentaire d'une heure qui raconte tout ce qu'on ne vous a jamais dit sur le lancement de cette console mythique. Et dedans, y'a des révélations qui font mal ^^.
Frank Cifaldi, le fondateur de la VGHF, a passé des années à fouiller cette histoire. Il a rencontré des gens qui étaient chez Nintendo à l'époque, il a déterré des documents que personne n'avait jamais vus, il a même manipulé des prototypes qui n'auraient jamais dû survivre. Et le résultat, c'est cette plongée incroyable dans les coulisses d'un des plus grands paris de l'histoire du gaming.
Alors remontons au printemps 1983... Nintendo négocie avec Atari, le géant de l'époque, pour leur refiler les droits de distribuer la Famicom dans le monde entier. Hé oui, en interne, Atari avait même donné un nom de code au projet : « 3600« . L'idée, c'était d'intégrer la technologie Nintendo dans un boîtier plastique Atari existant. Le deal était quasiment signé, et les deux boîtes s'étaient mises d'accord sur tout : Nintendo fabriquerait les composants, Atari les revendrait sous sa marque. Ils avaient même commencé à convertir des jeux arcade (Millipede, Joust et Stargate) pour le système.
Et puis tout s'est cassé la gueule au CES de 1983. Atari a vu Coleco montrer un prototype de Donkey Kong sur leur ordinateur Adam, et ils ont pété un câble. Ils pensaient que Nintendo les avait doublés en refilant les droits à un concurrent. En réalité, c'était juste un malentendu sur les licences ColecoVision , mais le mal était fait. Le président de Nintendo, Hiroshi Yamauchi, a tellement gueulé sur les représentants de Coleco sur le salon que tout le monde s'en souvient encore.
Ça a contribué à torpiller les négociations, et dans le contexte des turbulences internes chez Atari, le deal n'a jamais abouti. Atari, qui évaluait également le système MARIA de GCC en parallèle, s'est finalement concentré sur ce qui deviendra l'Atari 7800. Et Nintendo s'est retrouvé tout seul, obligé de se débrouiller.
Et c'est là que ça devient vraiment intéressant parce que Nintendo of America, c'était une petite boîte de rien du tout à l'époque. Quelques dizaines d'employés dont le boulot principal consistait à importer des bornes d'arcade japonaises. Ils n'avaient aucune idée de comment vendre une console de salon aux États-Unis.
Alors ils ont fait appel à Lance Barr, un designer industriel, pour revoir complètement la Famicom. Et le mec a créé un design qui ressemblait plus à une chaîne hi-fi haut de gamme qu'à une console de jeux. Le prototype s'appelait l'AVS (Advanced Video System). C'était un truc tout en finesse avec des manettes sans fil, un clavier, un magnétophone à cassettes, et une esthétique empilable façon chaîne hi-fi. Les photos de l'époque sont magnifiques, on croirait du design scandinave ^^.
Le prototype AVS de Nintendo, avec son design hi-fi et ses manettes sans fil ( Source )
Sauf que personne n'en voulait. Nintendo a fait des tests consommateurs, et les gamins (et leurs parents) trouvaient le concept de programmation barbant. Ils aimaient bien l'idée des manettes sans fil et de l'empilement des boitiers, mais coder / modifier soi-même ses propres jeux en Basic ? Grosse flemme...
En plus, le marché américain était en plein crash. Les magasins croulaient sous les invendus de jeux Atari bradés, et personne ne voulait entendre parler d'une nouvelle console. Tous les détaillants que Nintendo rencontrait leur disaient la même chose : le jeu vidéo, c'est mort, c'était une mode passagère, passez votre chemin (tiens ça me rappelle quelque chose plus actuel... lol).
Alors Nintendo a tout viré. Plus de manettes sans fil, plus de clavier, plus de magnétophone. Ils ont gardé uniquement le robot R.O.B. comme cheval de Troie. L'idée, c'était de faire croire aux magasins de jouets qu'ils vendaient un robot high-tech, et pas une console de jeux.
Et ça a marché, les amis !!
Une armée de R.O.B., le robot qui a permis à Nintendo d'infiltrer les magasins de jouets ( Source )
Puis en octobre 1985, Nintendo a lancé la NES dans la région de New York avec une garantie de rachat pour les détaillants : si ça ne se vendait pas, ils reprenaient tout. L'équipe a bossé comme des dingues depuis un entrepôt minable du New Jersey, infesté de rats et de serpents. Il y a même eu un ouragan pendant le lancement. Du grand n'importe quoi.
Le présentoir NES chez FAO Schwarz en 1986 ( Source )
Mais le plus fou dans cette histoire, c'est le fameux chip CIC, le « lockout chip » qui empêchait de jouer à des jeux non autorisés par Nintendo. Et devinez d'où venait cette idée ? D'Atari eux-mêmes ! Lors des négociations de 1983, quelqu'un chez Atari avait demandé à Nintendo s'ils pouvaient créer un système technique pour bloquer les cartouches non officielles. Atari se plaignait des jeux pourris que n'importe qui pouvait sortir sur leurs consoles, et ils voulaient reprendre le contrôle.
Nintendo n'avait pas de solution à l'époque, mais ils ont retenu l'idée. Et selon les dépositions du procès Atari vs. Nintendo, le président Yamauchi aurait lui-même reconnu qu'après avoir entendu ce qu'Atari avait dit, Nintendo avait conclu qu'un système de sécurité devait être développé pour vendre des consoles aux États-Unis.
En gros, Atari aurait suggéré le concept qui allait se retourner contre eux. C'est le chip qui les empêchera plus tard de publier librement des jeux sur NES, conçu par Nintendo suite à leur demande initiale. Ironique non ? Et ce système de contrôle est ensuite devenu le modèle pour toutes les consoles qui ont suivi. Aujourd'hui, on trouve normal qu'on ne puisse pas sortir un jeu PlayStation sans l'accord de Sony, mais avant la NES, n'importe qui pouvait fabriquer des cartouches pour n'importe quelle console.
La VGHF a aussi récupéré les jeux qu'Atari avait commandés à Nintendo en 1983. Trois d'entre eux (Millipede, Joust et Stargate) sont d'ailleurs finalement sortis en 1987 via le HAL Laboratory avec un copyright « Atari 1983 » sur l'écran titre. Tant mieux, ça aurait été dommage de ne pas pouvoir y jouer...
Bref, si vous avez une heure devant vous pendant les fêtes, foncez regarder ce documentaire. C'est de la recherche historique de première main, pas du réchauffé de Wikipedia. Et si vous voulez aller plus loin, la VGHF a aussi mis en ligne un panel avec trois anciens de Nintendo qui ont vécu le lancement de 1985. Des témoignages de première main qu'on ne retrouvera probablement jamais ailleurs...