source: Korben
Si vous avez reçu ma newsletter 3 fois ce lundi, non, vous n'êtes pas dans la Matrice, et non, je ne suis pas non plus devenu un affreux spammeur de viagra.
En fait, mon plugin WordPress a juste décidé de partir en freestyle. Pour ceux qui ne le savent pas, mes newsletters sont générées automatiquement puisque c'est un récap de tout ce qui a été publié dans la semaine. Je suis tout seul aux manettes, j'ai pas une armée de stagiaires pour rédiger ça à la main, et croyez-moi, c'est pas dans mon intérêt non plus de vous spammer, car chaque envoi me coûte des sous-sous.
Bref, j'ai (normalement) corrigé le tir en intégrant un système de verrou dans le plugin pour que ça ne se reproduise plus. Tout est artisanal ici, c'est du fait maison, et jusqu'à présent ça tournait nickel. Pas de bol. Ouin.
Un grand merci donc à tous ceux qui m'ont gentiment signalé le problème. Vous êtes au top ! J'ai quand même eu droit à un "Allez ciao KorbenGPT" d'une personne qui visiblement ne s'est pas remis de ce trauma que je lui ai infligé avec mon spam involontaire de ce matin. Bon vent l'ami et beaucoup de courage pour la suite ^^.
Pour les autres, les vrais, ceux qui sont encore là sachez que si vous n'êtes pas encore abonné à la newsletter, c'est par ici . Et promis, je ferais tout ce qui en mon pouvoir pour qu'à l'avenir, vous ne la receviez qu'une seule fois. ;)
Merci
Et bien pourquoi pas ? Ce garçon a en effet réussi à produire de la musique, simplement en pointant un laser de 5 watts sur une feuille d'or. Pas de membrane, pas de bobine, pas d'aimant : le son est généré directement par l'air, chauffé et refroidi à grande vitesse par le faisceau lumineux.
Cet concept a un nom, c'est l'effet photoaoustique, et il a été découvert en 1880 par Alexander Graham Bell, l'inventeur de la cloche (non ça c'est une vanne, pardon).
L'effet photoacoustique a été découvert par Alexander Graham Bell en 1880 en observant que des objets éclairés par la lumière du soleil pouvaient émettre des sons. Quand une lumière intense frappe un matériau, elle le chauffe.
Ce matériau transfère sa chaleur à l'air environnant, qui se dilate. Si la source lumineuse est modulée rapidement, les cycles d'expansion et de contraction de l'air produisent des ondes sonores. Pas besoin de membrane ni de bobine. Juste de la lumière et de l'air.
Le maker SomethingAboutScience a testé plusieurs approches. Un laser de 5 watts dirigé sur une feuille d'or a produit de la musique reconnaissable, la feuille d'or absorbant bien la lumière bleue et étant assez fine pour transférer rapidement la chaleur à l'air.
Le même laser dirigé dans du dioxyde d'azote a donné un son plus propre. Il a même fabriqué un prototype d'écouteur imprimé en 3D, avec la feuille d'or tapissant l'intérieur de la cavité et la lumière acheminée par fibre optique.
Bon par contre, c'est peut-être un peu moyen de coller un laser de 5 watts à son tympan, je dis ça je dis rien.
L'application la plus directe concerne les casques audio pour IRM. Les écouteurs classiques à fils et aimants fonctionnent mal dans l'environnement magnétique d'un scanner, et la qualité sonore est souvent catastrophique.
Un système photoacoustique réglerait ce problème en supprimant tout composant métallique. Des chercheurs du MIT ont aussi montré qu'on pouvait envoyer un message audio à une personne située à 2,5 mètres en utilisant un laser et la vapeur d'eau présente dans l'air, à un volume de 60 décibels.
On parle d'une technologie découverte il y a 145 ans et qui reste au stade de la bidouille. Mais produire du son sans aucune pièce mécanique, juste avec de la lumière, ça a quand même de la gueule.
Source : Hackaday
Le YouTubeur PhasedTech a intégré un PC gaming complet dans le boîtier d'une Xbox Series X : un Intel Core i7-12700, 32 Go de RAM, une RTX 5060 et une alimentation 600W. Le tout démarre sous Windows, lance Steam en mode Big Picture, et le lecteur de disques fonctionne encore. Le résultat arrive pile avant le Project Helix de Microsoft, qui promet la même chose en version officielle.
Le mod repose sur un Intel NUC 12 Extreme Compute Element, une carte PCIe qui intègre un PC complet : processeur Core i7-12700 (12 coeurs), 32 Go de DDR4 en SODIMM et un SSD NVMe Crucial P3 Plus de 1 To en PCIe 4.0.
Pour la partie graphique, PhasedTech a opté pour une Gigabyte GeForce RTX 5060 en format compact, avec une alimentation Flex-ATX de 600W installée au-dessus du GPU. Des fixations sur mesure maintiennent le tout en place.
Le résultat est assez bluffant : de l'extérieur, rien ne distingue cette machine d'une Xbox Series X classique. Les boutons en façade fonctionnent, et le lecteur optique aussi, ce qui était loin d'être garanti vu l'espace disponible à l'intérieur.
La machine tourne sous Windows et démarre directement en mode Steam Big Picture, ce qui donne une interface très proche d'une console. Côté performances, PhasedTech annonce entre 100 et 140 images par seconde sur Arc Raiders en 1080p avec des réglages moyens à élevés, et environ 250 images par seconde sur Counter-Strike 2 en réglages élevés.
On est donc sur du PC gaming tout à fait correct pour du 1080p, avec un accès à toute la bibliothèque Steam, Epic Games Store et tout le reste.
Les températures sont annoncées comme correctes malgré l'espace très restreint, même si PhasedTech n'a pas communiqué de chiffres précis sur la chauffe en charge.
Ce projet tombe pile au moment où Microsoft prépare son "Xbox Mode" pour Windows 11, prévu en avril 2026. L'idée de Redmond, c'est de proposer une interface console sur PC, avec à terme le projet Helix qui promet de faire tourner les jeux PC sur la prochaine Xbox.
PhasedTech a pris les devants en montrant que ça marche déjà, avec du matériel qui tient dans un boîtier de Xbox.
Bien sûr, ce type de mod reste réservé aux bricoleurs qui savent manier un fer à souder et qui sont prêts à sacrifier une Xbox Series X.
Le coût total du matériel n'a pas été communiqué, mais entre le NUC 12, la RTX 5060 et l'alimentation, on imagine que la facture dépasse largement le prix d'une console neuve.
Le projet de PhasedTech est la meilleure démonstration qu'on ait vue de ce que Microsoft essaie de faire avec Project Helix : fusionner l'expérience console et PC dans un même boîtier. Sauf qu'ici, c'est un bricoleur qui y arrive avant le constructeur. C'est quand même assez amusant.
Par contre, on ne peut pas vraiment conclure que ce genre de mod va se démocratiser : c'est un projet sur mesure, avec des composants choisis pour leur format compact, et il faut des compétences solides pour arriver à ce résultat.
Source : Techspot
Andrej Karpathy, ancien chercheur chez OpenAI et ex-responsable de l'IA chez Tesla, a laissé tourner un agent IA pendant 48 heures sur un petit modèle de langage. Résultat : 700 expériences, 20 optimisations retenues et un gain de 11 % sur le temps d'entraînement.
Mais c'est quoi ce concept d'autoresearch ? Et bien le fonctionnement est assez direct : un agent IA reçoit un script d'entraînement de 630 lignes en Python et un budget de calcul fixe de 5 minutes par expérience sur un seul GPU. Et c'est là que l'agent se met en mouvement pour lire le code, formuler une hypothèse, modifier le script, lancer l'entraînement, évaluer le résultat, et surtout décider, ou non, de conserver une modification.
Si le modèle s'améliore, le changement devient la nouvelle base. Sinon, il revient en arrière et essaie autre chose. En deux jours de boucle continue, l'agent a conduit environ 700 itérations et identifié 20 améliorations cumulables qui ont réduit le temps nécessaire pour atteindre le niveau GPT-2 de 2,02 heures à 1,80 heure.
Tobias Lütke, le patron de Shopify, a d'ailleurs testé le système sur des données internes : après une nuit, 37 expériences et un gain de 19 % sur les performances de son modèle.
Là où le projet fait pas mal parler, c'est l'idée que cette IA s'améliore elle-même en boucle, dans un scénario que certains chercheurs en sécurité aiment appeler "exploser d'intelligence" (c'est aussi comme ça que j'appelle chaque moment que je passe à regarder l'ami Korben me parler de ses projets en cours).
Karpathy tempère : son agent n'optimise pas son propre code, il ajuste l'entraînement d'un modèle bien plus petit et bien moins complexe.
Par contre, il assume que tous les grands labos d'IA vont adopter cette méthode et que ça va accélérer la recherche. Il imagine à terme des essaims d'agents qui collaborent en parallèle, testent des pistes différentes et remontent les meilleures idées à des échelles de plus en plus grandes. Son objectif : ne pas reproduire le travail d'un doctorant, mais celui d'une communauté entière de chercheurs.
Bon maintenant il faut quand même relever que certains critiquent quand même l'idée, car elle ressemble en partie à AutoML, une technique qui est déjà utilisée chez Microsoft et Google.
Karpathy a répondu que la comparaison ne tient pas : AutoML fonctionne avec des variations aléatoires ou des algorithmes évolutifs, alors qu'autoresearch utilise un vrai modèle de langage qui écrit du code, apprend de ses expériences précédentes et a accès à internet. Bref, tout ceci est fascinant.
Source : The News Hack
Si vous êtes comme votre blogueur préféré (hi hi) et que vous avez des tonnes de fichiers markdown qui traînent dans des dossiers obscurs depuis des années, voici l'outil parfait pour rendre tout ceci à nouveau utilisable dans la vraie vie.
En tout cas, c'est plus pratique qu'un grep !
Ça s'appelle QMD (Quick Markdown Search) et c'est un outil en ligne de commande dispo sur GitHub qui va indexer tout votre bazar de notes pour les rendre consultables rapidement. QMD combine la recherche plein texte classique (BM25) avec de la recherche vectorielle sémantique et du re-ranking via LLM, ce qui veut dire que c'est ultra puissant. On est un peu sur le même principe qu'un RAG en fait puisque l'IA locale est utilisée pour comprendre le sens de votre requête et pas juste chercher des chaînes de caractères bêtes et méchantes. J'utilise depuis un petit moment maintenant un système similaire avec LEANN pour indexer tous les articles de korben.info et retrouver des connexions entre mes contenus, et je peux vous dire que quand on goûte à la recherche sémantique, le bon vieux grep a un goût de carton.
L'outil est même capable de faire de l'expansion de requête (Query Expansion) pour deviner ce que vous cherchez vraiment.
Techniquement, ça tourne avec bun ou npm et ça s'appuie sur node-llama-cpp pour faire tourner des modèles GGUF directement sur votre machine. Tout reste chez vous donc niveau vie privée c'est nickel. C'est un peu la même philosophie que des outils comme Khoj ou Blinko dont je vous ai déjà parlé, mais en version CLI pour le terminal.
L'installation est hyper facile si vous avez déjà Bun, mais prévoyez quand même un peu de place (environ 3 Go) pour les modèles qui iront s'installer au chaud dans ~/.cache/qmd/models/ et installez sqlite si vous êtes sur macOS :
brew install sqlite # Pour macOS
npm install -g @tobilu/qmd
Ensuite, y'a plus qu'à vous créer vos collections en pointant vers vos dossiers, et en lançant l'indexation comme ceci :
qmd collection add ~/mes-notes --name notes
qmd embed # L'étape indispensable pour générer les vecteurs
Et hop, vous pouvez lancer des recherches !!
C'est magique ! Perso, j'utilise presque tout le temps la commande "qmd query" plutôt que "search" parce que le mode hybride est bien plus puissant je trouve. Vous avez aussi "qmd vsearch" si vous voulez une recherche purement sémantique, genre quand vous cherchez un concept sans connaître les mots exacts utilisés dans vos notes. En fait, quand vous tapez une requête, QMD va chercher via les mots-clés, via les vecteurs (le sens), puis fusionner tout ça avec un algo RRF, et refaire passer un petit coup de LLM par dessus pour trier les résultats par pertinence.
Après vous l'aurez capté en me lisant, si vous avez une machine un peu ancienne sans GPU costaud, l'étape de re-ranking risque de prendre un peu de temps... mais c'est le prix de la qualité et de la sécurité ^^.
D'ailleurs, si vous utilisez Claude Desktop ou Claude Code, sachez que QMD intègre également un
serveur MCP
(Model Context Protocol). Du coup, vous pouvez connecter QMD à Claude et lui permettre d'aller fouiller dans vos notes pour répondre à vos questions. Et bonne nouvelle, QMD propose maintenant un mode HTTP daemon (qmd mcp --http --daemon) qui garde les modèles chargés en mémoire, ce qui évite de les recharger à chaque requête. Attention par contre, dans ce cas précis, les extraits de vos notes seront envoyés à Claude (donc dans le cloud).
QMD est aussi dispo en tant que librairie Node.js (npm install @tobilu/qmd) pour ceux qui voudraient l'intégrer dans leurs propres scripts ou workflows d'automatisation. Avec les options --json et --files en sortie, ça se branche facilement dans un pipeline.
Perso je trouve ça génial parce que ça comble le fossé entre le simple fichier texte et les usines à gaz de gestion de connaissances. Par exemple, si vous êtes un grand adepte de Silverbullet ou d' Obsidian , c'est le top pour l'indexation globale de vos écrits.
Voilà, si vous voulez un moteur de recherche personnel qui en a sous le capot et qui respecte votre vie privée, foncez tester ça.