PROJET AUTOBLOG


Le Blog de Genma

source: Le Blog de Genma

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Analyse de Just the Browser de Corbin

jeudi 1 janvier 1970 à 01:00

Ce matin j'ai vu un toot de @corbin qui a eu pas mal d'écho au sein du fediverse, assez pour attiser ma curiosité et donner lieu à la rédaction de cet article.

I'm excited to release Just the Browser ! It helps you remove AI features, sponsored content, shopping integrations, and other annoyances from desktop web browsers. This project includes configuration files (group policies), a simple setup script, and guides for manual installation. It supports Chrome, Firefox, and Edge. Everything is open-source on GitHub.

Ce que je traduirai part
Je suis ravi de publier Just the Browser ! Ce projet vous permet de supprimer les fonctionnalités d'IA, les contenus sponsorisés, les intégrations shopping et autres nuisances des navigateurs web de bureau (Chrome, Firefox et Edge). Il inclut des fichiers de configuration (stratégies de groupe), un script d'installation simple, des guides pour une installation manuelle. Tout est open source et disponible sur GitHub.

Je vous laisse consulter le site https://justthebrowser.com, je suis également aller sur le dépôt Github https://github.com/corbindavenport/just-the-browser/ et ai regardé tout ça.

# Le dépôt Github

Sur le principe le dépôt Github est plutôt bien fait /complet

Y a bien un fichier Contributing
un readme

C'est bien en open source, c'est sous Licence MIT !

L'installation se fait via un script shell à balancer via un curl

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/corbindavenport/just-the-browser/main/main.sh)"

A ce sujet voir mon article curl script |sh

C'est Open source, ça tombe bien, on va aller regarder les sources !
Car on regarde TOUJOURS ce qui se passe avant ! Surtout comme là, ça fait une commande à base de curl et lance un script shell derrière. Je regarde donc le script main.sh
C'est du shell, je sais lire.

Je m'intéresse spécifiquement à ce qui est fait pour Firefox (les autres navigateurs je ne les utilise pas). Ca applique juste des policies.

 "policies": { "DisableFirefoxStudies": true, "DisableTelemetry": true, "DontCheckDefaultBrowser": true, "FirefoxHome": { "SponsoredStories": false, "SponsoredTopSites": false, "Stories": false }, "GenerativeAI": { "Enabled": false }, "SearchEngines": { "Remove": [ "Perplexity" }

Le script n'est actuellement que pour Windows ou MacOS, mais sera assez facile à faire pour Ubuntu par exemple ;)

# Et donc qu'est ce que ça fait ?

Voici ce que font les politiques (policies) que vous avez listées pour Firefox :

1. DisableFirefoxStudies: true
Effet : Désactive les "études Firefox" (Firefox Studies).
Explication : Firefox utilise parfois des études pour tester de nouvelles fonctionnalités ou des améliorations avec un groupe limité d'utilisateurs. Cette politique empêche Firefox de participer à ces programmes, garantissant que votre navigateur ne télécharge ni n'installe de modules expérimentaux sans votre consentement.

2. DisableTelemetry: true
Effet : Désactive la télémétrie.
Explication : La télémétrie envoie des données anonymes à Mozilla sur l'utilisation de Firefox (performances, plantages, fonctionnalités utilisées, etc.). En désactivant cette option, vous empêchez toute collecte de données d'utilisation, ce qui améliore la confidentialité.

3. DontCheckDefaultBrowser: true
Effet : Empêche Firefox de vérifier s'il est le navigateur par défaut.
Explication : Par défaut, Firefox peut vous demander régulièrement s'il doit devenir votre navigateur par défaut. Cette politique supprime ces notifications.

4. FirefoxHome: { ... }
Sous-politiques :
- SponsoredStories: false : Désactive les "histoires sponsorisées" (contenu promotionnel) dans la page d'accueil de Firefox.
- SponsoredTopSites: false : Désactive les sites sponsorisés dans la section "Top Sites" de la page d'accueil.
- Stories: false : Désactive les "histoires" (articles ou liens mis en avant par Firefox) sur la page d'accueil.
Effet global : Rend la page d'accueil plus épurée et sans contenu publicitaire ou promotionnel.

5. GenerativeAI: { "Enabled": false }
Effet : Désactive les fonctionnalités d'IA générative intégrées à Firefox.
Explication : Firefox commence à intégrer des outils basés sur l'IA (comme des assistants ou des suggestions automatisées). Cette politique les désactive complètement.

6. SearchEngines: { "Remove": ["Perplexity"] }
Effet : Supprime le moteur de recherche "Perplexity" de la liste des moteurs disponibles dans Firefox.
Explication : Vous pouvez ainsi contrôler quels moteurs de recherche apparaissent dans la barre de recherche ou les paramètres, en retirant ceux que vous ne souhaitez pas utiliser.

# Pourquoi utiliser ces politiques ?

Ces paramètres sont souvent utilisés pour :
Améliorer la confidentialité (en limitant la collecte de données).
Réduire les distractions (en supprimant le contenu sponsorisé ou promotionnel).
Personnaliser l'expérience utilisateur (en désactivant des fonctionnalités non désirées).

# Comment les appliquer ?

Ces politiques sont généralement définies via un fichier policies.json placé dans le dossier de configuration de Firefox (par exemple, sous Linux : /etc/firefox/policies/ ou /usr/lib/firefox/distribution/).
Si on utilise Firefox en entreprise, on peut déployer ce fichier centralement pour tous les utilisateurs.

Ou peut encore passer par la configuration du navigateur via un about:config (Ce serait à détailler)

# En conclusion

On ne lance par un curl |bash sans savoir ce que ça fait derrière (A ce sujet voir mon article curl script |sh)

Ici ça simplifie et automatise un paramétrage de Firefox que l'on peut faire soi-même à la main ou industrialiser. Toujours intéressant de voir ce que fais Firefox (et par extension les autres navigateurs) en tâche de fond et qui impacte la vie privée.

Ma PreProd Yunohost - Retour d'expérience

jeudi 1 janvier 1970 à 01:00

# Introduction

Je n'ai qu'une seule machine physique (un mini PC qui consomme très peu) qui me sert de serveur d'autohébergement de mon cloud sous Yunohost. C'est ma machine de production.

Il y a quelques années, j'ai écrit différents articles sur le passage en VM virtualisé de cette instance de production :
P2V avec Clonezilla ou comment convertir un serveur physique en machine virtuelle
Yunohost, Clonezilla et Virtualbox
Yunohost - Autohébergement - Le Spare
Je vous renvois donc vers ces articles sur lesquels je me base pour la suite de cet article.

Comme je parle de machine de production, j'ai donc des machines de recettes et de préproduction, virtualisées celles-ci.

# Mise en place des machines de recettes & préproduction

Comme indiqué dans mes articles, la procédure est d'arrêté la production, de faire un clone via clonezilla de mon serveur et de restaurer ce clone dans une VM. Pourquoi un clone et pas une installation fraîche de Yunohost avec import d'une sauvegarde récente ? J'ai fait aussi, mais avec un clone j'ai une copie parfaite, avec tous les petits ajustements à côté que j'ai pu faire, qui ne sont pas forcément dans la sauvegarde de Yunohost.

Avec le clone, j'ai aussi une sauvegarde /snapshot à un instant T, d'un format différent des sauvegardes de Yunohost ou de celles que je peux faire à la main (uniquement les fichiers de Nextcloud par exemple, application que j'utilise le plus).
Autre avantage de la virtualisation : je peux cloner autant de fois que je veux pour tester ce que je veux : passer en version beta d'une version plus avancée de Yunohost par exemple, tester une nouvelle application. J'ai des machines jetables en plus de ma machine de préproduction

# Modifications à apporter

Une fois les VM mises en place (que ce soit dans Virtualbox ou Proxmox), il faut les différencier. Je me connecte dessus essentiellement en SSH

Je pense donc à changer le nom de la machine dans /etc/hostname et /etc/host, ainsi que les couleurs du prompt d'accueil pour identifier visuellement sur quelle machine je suis en connection.

Je change le mot de passe utilisateur et administrateur pour que je sache à la connexion que je ne suis pas sur la machine de production : je me fais bloquer et alors je dois me demander sur quelle machine je suis. J'ai un mot de passe basique pour les machines de tests et de recettes, un mot de passe plus avancé pour la pré-production. Bien organisé et bien classé dans une catégorie du gestionnaire de mot de passe, on s'en sort. Pourquoi m'embêter ainsi ? Car que ce soit en SSH ou via une connexion depuis le navigateur, si je saisis le mauvais mot de passe, je dois me demander sur quelle machine je suis et cela évite des erreurs (évite, n'annule pas). Je peux aussi appliquer un thème pour avoir une identité visuelle différente.

Je conserve les domaines (de production) dans la VM, mais je peux ajouter des domaines en .local avec des noms particuliers, changer/déplacer les applications des machines de recettes sur des sous-domaines autres...

Je jouer avec le fichier /etc/hosts de la machine depuis laquelle je me connecte pour la correspondance IP /nom de domaine avec attention un peu de rigueur pour ne pas faire n'importe quoi... Car j'utilise alors le vrai nom de la machine de production pour être sur une machine de tests...

# Les petites choses à faire régulièrement

Import régulier des sauvegardes faites sur la préproduction : cela permet de valider les sauvegardes (sauvegarder c'est bien, savoir restaurer c'est mieux).

Mes VM sont lancées à la demande (les machines en dessous du home-lab sont éteintes la plupart du temps), je n'ai donc pas automatiser l'import/restauration de la prod sur la préprod, mais c'est tout à fait faisable (et ça sera le sujet d'un futur article).

Mise à jour et maintenance de la VM

Quand je lance la machine, j'en profite pour les mises à jour correctives (bug et sécurité), comme ça c'est fait.

Cas de la mise à jour des certificats Let's encrypt

Comme indiqué, je conserve les mêmes domaines & sous-domaines pour ma préproduction. Ma freebox me sert de routeur, j'ai juste à faire une redirection temporaire au niveau du NAT de la Freebox sur les ports de la VM (80/443), je lance la mise à jour des certificats et je rebascule ensuite.

# Bascule sur cette préprod et PCA/PRA

Je parle de prod, de préprod... J'ai du coup j'ai une sorte de PCA/PRA virtuel
PCA : Plan de continuité d'activité
PRA : Plan de reprise d'activité

Si ma machine physique me lâche (bug, disque dur HS ou autre), le temps de résoudre le problème, je peux basculer temporairement sur cette machine virtuelle (et revenir un état de production en mettant à jour et important la dernière sauvegarde). C'est un PCA, je peux continuer.

PRA, c'est de résoudre le problème qui a nécessité de basculer. Et là c'est un peu selon le problème.

# Prochaine(s) étape(s)

Rédiger l'article sur l'automatisation de la mise à jour de la préprod depuis la prod.

Sauvegarde automatisée à base de règle Udev

jeudi 1 janvier 1970 à 01:00

Objectif : quand je branche un disque dur externe qui est automatiquement monté, lancer une sauvegarde.

Pour ce, une méthode efficace et fiable pour y parvenir et d'utiliser udev (pour détecter le branchement du disque) et rsync ou BorgBackup (pour effectuer la sauvegarde).

1. Identifier le disque dur externe

Quand on branche le disque dur externe, on utilise la commande suivante pour identifier le nom de périphérique

$ lsblk -o NAME,UUID,MOUNTPOINT sda └─sda1 57A0271E7039BA93 /media/genma/SSD_EXTERNE

L'UUID ou le nom du périphérique (ex : /dev/sda1) et le point de montage (/media/genma/SSD_EXTERNE) seront nécessaires.

2. Création d'un script de sauvegarde

Création d'un un scripts Bash /home/genma/ScriptSauvegardeAuto.sh qui effectuera la sauvegarde.

En utilisant Rync et Borg :

#!/bin/bash SOURCE="/home/genma/" # Remplacez par le dossier à sauvegarder DESTRSYNC="/media/genma/SSD_EXTERNE/Sauvegarde/Rsync/" # Remplacez par le point de montage de votre disque externe DESTBORG="/media/genma/SSD_EXTERNE/Sauvegarde/Borg/" # Remplacez par le point de montage de votre disque externe" LOG="/media/genma/SSD_EXTERNE/Sauvegarde/Sauvegarde_automatique.log" echo "Début de la sauvegarde : $(date)" >> "$LOG" rsync -av --delete "$SOURCE" "$DESTRSYNC" >> "$LOG" 2>&1 echo "Fin de la sauvegarde : $(date)" >> "$LOG" echo "Début de la sauvegarde Borg : $(date)" >> "$LOG" borg create $DESTBORG::Borg_{now} "$SOURCE" -v --progress --list --stats #>> "$LOG" 2>&1 echo "Fin de la sauvegarde Borg: $(date)">> "$LOG"

On rende le script exécutable :

$ chmod +x /home/genma/ScriptSauvegardeAuto.sh

On lance le script à la main et on regarde les logs et on vérifie que tout marche bien.
Si oui on passe à la suite.

3. Configurer udev pour déclencher le script

udev permet de détecter quand un périphérique est branché.

On va créer une règle udev via un fichier /etc/udev/rules.d/85-sauvegarde-automatique.rules avec la ligne suivante (remplacez idVendor et idProduct par ceux de votre disque, que l'on a trouver avec lsusb) :

ACTION=="add", SUBSYSTEM=="block", ENV{ID_FS_UUID}=="votre-uuid-du-disque", RUN+="/chemin/vers/votre_script.sh"

Remplacez votre-uuid-du-disque par l'UUID de votre disque externe.

ACTION=="add", SUBSYSTEM=="block", ENV{ID_FS_UUID}=="57A0271E7039BA93", RUN+="/media/genma/SSD_EXTERNE/Sauvegarde/Script_UDEV.sh"

4. Recharger les règles udev

$ sudo udevadm control --reload-rules $ sudo udevadm trigger

5. Testez en branchant votre disque

La sauvegarde devrait se lancer automatiquement.

6. Vérifier les logs

Consultez media/genma/SSD_EXTERNE/Sauvegarde/sauvegarde_automatique.log pour vérifier que tout s'est bien passé.

Ou les logs udev si le fichier de log ne se remplit pas pour comprendre l'erreur :

$sudo journalctl -b -u systemd-udevd | grep -i sauvegarde_automatique.log

Notes hebdomadaires N°50 Semaines du 15 décembre 2025 au 05 janvier 2026

jeudi 1 janvier 1970 à 01:00

#Mes plaisirs

En cette fin d'année, comme beaucoup, je n'ai pas pu passer à côté de la pub Intermarché du loup mal aimé. Pas d'IA, un an de travail par un studio d'animation. Tout a été dit, aussi bien dans les félicitations, les arnaques qui profitent du buzz, les polémiques, laes analyses poussées qui cherchent un sens là où il n'y en a pas etc. Le succès est tout simplement mérité. Pas besoin de chercher plus loin. Rêvons un peu et ayons une âme d'enfant. Moi j'aime ce joli conte. Mes filles aiment. Et c'est ce qui compte.

Elena Rossini, interviewée dans le podcast Projets Libres, a lancé une série de billet sur Yunohost sur son blog. A lire et à partager. En parlant du podcast, Le podcast Projets Libres rejoint LinuxFr.org ! et ça c'est une bonne nouvelle.

Présentée par un Quebecois, La chaîne francophone spécialisée en ville Lego, Ma Brik Ville. Des constructions folles, des projets sur plusieurs semaines comme actuellement la construction d'un tunnel au sein d'une montagne ! Ca fait envie, c'est beau, c'est de la passion. Je soutiens.

#Mes peines

Sur Next, article sur les nouvelles orientations de Mozilla pour Firefox : Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d'IA Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d'IA Firefox va bien évoluer vers un navigateur #IA. Des investissements vont être faits en ce sens sur trois ans. Mais le nouveau CEO précise rapidement que ce travail devra « refléter le Manifeste Mozilla » et que tout ce qui touche à l'IA devra pouvoir être désactivé facilement.

J'ai suivi différentes discussions sur Mastodon de membres de la communauté Mozilla, qui ont beaucoup oeuvrés en leur temps, et j'ai vu citer par Benjamin BOUVIER son article Une lettre d'amour pour le Zen Browser. Parmi toutes les réflexions sur Mastodon, celle-ci de @nicod que je partage :Honnêtement, je vois pas vraiment d'alternative.Un truc à base de Chromium ? Non merci, pas indépendant. Un fork de Firefox, en priant pour que des gens le maintiennent, y corrigent les failles rapidement ? Je me sentirais pas rassuré. Ça pourrait être quelque chose basé sur WebKit, mais je ne vois pas de projet très avancé dessus fonctionnellement (extensions etc.)

#Mes espoirs

Chez Korben, longue réflexion posée et intéressante sur l'avenir du web. Pourquoi votre site web va disparaitre (mais pas le mien ^^) Je cite un paragraphe dont je partage la réflexion : La seconde voie, c'est de cultiver l'humain. De créer du contenu que les gens veulent lire pour le plaisir de lire, pas juste pour extraire une information. Des analyses, des opinions, des prises de position, du divertissement, de l'émotion. Un blog, une newsletter , un Patreon , des lives Twitch , une présence LinkedIn Korben ... Tout ce qui crée une relation directe avec les lecteurs. Parce que cette relation, l'IA ne peut pas la reproduire. Elle peut synthétiser mes articles, mais elle ne peut pas être moi.

#Vus ou entendus

Retro Games ressuscite le joystick QuickShot II. Que de souvenir avec ce joystick quand je jouais, adolescent, sur mon ATARI ST. A voir si il est compatible avec des émulateurs pour du retrogaming.

C'est quoi un VPN, et en avez-vous vraiment besoin ? sur le blog Flozz.fr, un article qui démystifie le VPN et explique bien comment ça marche, quand et comment s'en servir.

Cyclistes, brillez ! ou un guide complet sur comment s'équiper pour être visible à vélo de nuit.

J'ai arrêté l'alcool, témoignage de Benjamin sur sa relation à l'alcool avec le temps.

Datafoire et sneakernet, un reportage Tracks qui montre comment quelques hacktivistes sensiblise à notre rapport à Internet, au web, au partage, à l'accès à la donnée. A voir.

Au DevFest de Toulouse, conférence Veille technologique, ma méthode pour rester à jour RSS, IA... Comment faire de la veille aujourd'hui, intéressant retour d'expérience. J'ai une expérience assez proche au final. Plus de 20 ans que je fais de la veille, j'avais commencé avec le logiciel libre Liferea en local, depuis des années je suis fidèle à FreshRSS.

Vu, la saison 3 de l'anime "Walkyrie profile" sur Netflix. Il va encore falloir attendre pour avoir la suite... J'aime bien, c'est de la bagarre entre des figures emblématiques de l'histoire de l'humanité et des Dieux.

Peut-on déGAFAMiser sa vie – RDV Tech. Cassim nous parle de son aventure pour « déGAFAMiser » sa vie et son environnement tech. Intéressant ce point de vue technophile non libriste, avec des choses qui font bondir comme Frampad de Framasoft n'est pas l'équivalent de GoogleDocs... Signe du mécompréhension de l'alternative. Et le "Fedora c'est compliqué à installer" comparer à "Windows" que l'utilisateur n'a installe pas car fourni par défaut... Et des critiques et remarques plus constructives, moins subjectives bonnes à prendre ;) Il reste de la communication à faire car la démarche est intéressant, mais on sent la faiblesse de la communication du monde du libre (incomparable à la puissance du marketing des GAFAM) et des messages qui ne sont pas bien passés aux utilisateurs technophiles...

Autre retour d'expérience, une vidéo assez longue d'un Youtuber geek qui a tout un homelab complet chez lui, iMot3k, qui fait une longue vidéo de ses expérimentations successives pour passer à Linux, pour arriver à J'ai DÉFINITIVEMENT passé mon PC sur LINUX !. Aucune mention à l'aspect open source et encore moins au logiciel libre. On est dans une analyse technique et la recherche de "j'avais ça sous Windows, ça c'est comme Windows...". Intéressant de voir un point de vue qui sort de sa bulle/filtre habituel de l'entre-soi.

Mini-Reportage d'une dizaine de minutes sur FranceTV, Le Seigneur des anneaux, Harry Potter, GOT : la revanche des geeks. On retrouve le titre "Revanche des Geeks" qu'on avait déjà dans un reportage documentaire ARTE de 2011. On est 14 ans plus tard, et la culture Geek a définitivement gagné ; mes filles baignent en plein dedans.

5 épisodes de quelques minutes chacun dans le podcast L'actu tech en 3 minutes de Patrick Beja, avec une série sur le sujet "Internet, c'est quoi". Très bel exercice de vulgarisation.

# Lifehacking

J'expérimente donc depuis quelques semaines l'écoute des podcasts et le visionnage des vidéos en accéléré, entre 1.2 et 1.5 fois selon. J'ai remarqué un vrai gain de temps : je peux écouter plus sur une même période (transport en commun les jours de présentiel et marche rapide sportive les jours de télétravail).

# Mes projets

Je sais ce que je ferai en juillet, pour les 22 ans du blog (qui tourne depuis juin 2004 sous SPIP) Initialement prévue pour janvier prochain, l'équipe maintenance a décidé de décaler la sortie de SPIP 5 en juillet 2026. Cette date coïncide avec les 25 ans de la 1re version de SPIP, quel beau cadeau ! SPIP 5 pour les 25 ans !

Pour compléter mon projet de testament numérique
Mort numérique : quels sont vos droits ? Quels sont les droits des héritiers ? La CNIL détaille les procédures à suivre pour exercer les droits sur les comptes et données d'un défunt

# Mes contributions

Très occupé sur décembre 2025, mais quelques articles & tutoriels prêts à être publié dans les semaines à venir. 2026 sera une année avec beaucoup de contenu générer par des IA. Et moi j'ai passé un peu de temps à faire des tutoriels (une forme de contribution) qui seront publiés sur les premières semaines de l'année, pour avoir du contenu régulier, j'espère de qualité, rédigé par un humain pour aider et préserver le web que j'aime. C'est ça l'esprit du logiciel libre, de l'open source : le partage de la connaissance.

Hack - Une playlist Youtube en flux de podcast

jeudi 1 janvier 1970 à 01:00

# Mon projet

Je fais pas mal de veille et je rattrape les conférences des événements en replay quand celles-ci ont été enregistrées. J'écoute beaucoup de flux en audio sur mon smartphone, des podcasts. Et parfois des vidéos Youtube en fond sonore.

J'ai défini un cahier des charges pour un mini-projet correspond au besoin suivant : pouvoir écouter ces conférences en mode déconnecté/sans connexion.

Mes besoins sont donc les suivants
La version audio me suffit. Je veux pouvoir mettre le smartphone dans une poche et donc la vidéo ne sert pas ;
Je veux pouvoir reprendre d'où j'en étais (avec un bon lecteur de vidéo, ça doit être possible, je n'ai pas cherché). Je suis susceptible d'écouter plusieurs flux en parallèle selon les envies, les inspirations
Je veux pouvoir écouter en mode déconnecté, donc avoir les fichiers sur mon smartphone, mais pas tout en même temps ;
Je veux que ce soit dans mon application de Podcast : j'aime bien écouter différentes choses en parallèle pour varier un peu. Je veux pouvoir télécharger les fichiers à la demande/selon le besoin pour ne pas saturer l'espace de mon smartphone.
Et parce que j'ai envie de faire ce projet, tout simplement ;-)

Je pars donc sur le projet de convertir une playlist Youtube en flux de podcast. Et les conférences de l'événement le Capitole du libre s'y prêtent bien. Les conférences sont filmées mais l'écran diffusant les supports de conférences n'est pas des plus visibles, du coup seul le flux audio m'importe dans ce cas.é

# Deux scripts

Qui peuvent être regroupés en 1 seul si besoin

## Création du script de récupération DownloadAndConvert.sh

Préréquis : avoir le logiciel yt-dlp d'installer

#!/bin/bash # Configuration # Ici je mets la playliste Youtube des vidéos du Capitole du libre édition 2025 PLAYLIST_URL="https://www.youtube.com/playlist?list=PLU8kgF3be3rTmynqvcRAaTneHp9kAFZ20" OUTPUT_DIR="./podcast" # Créer le dossier de sortie mkdir -p "$OUTPUT_DIR" # Télécharger et convertir les vidéos en audio yt-dlp -x --audio-format mp3 --embed-thumbnail --parse-metadata "%(title)s:%(description)s" --output "$OUTPUT_DIR/%(title)s.%(ext)s" --format bestaudio/best "$PLAYLIST_URL"

Je récupère ainsi dans le dossier "Podcast" l'ensemble des fichiers mp3 correspondant aux pistes audio de l'ensemble des conférences de la playliste.

## Création du flux de podcast Youtube2Podcast.sh

#!/bin/bash # Configuration OUTPUT_DIR="./podcast" PODCAST_TITLE="Capitole du libre 2025" PODCAST_DESCRIPTION="CDL2025 Capitole du libre 2025" PODCAST_AUTHOR="Genma" PODCAST_LINK="https://podcast.mondomaine.com" # Optionnel : URL de ton serveur web # Générer le fichier RSS cd "$OUTPUT_DIR" echo '' > CDL2025.rss echo '' >> CDL2025.rss echo " " >> CDL2025.rss echo " $PODCAST_TITLE" >> CDL2025.rss echo " $PODCAST_DESCRIPTION" >> CDL2025.rss echo " <link>$PODCAST_LINK" >> CDL2025.rss echo " fr-fr" >> CDL2025.rss echo " $PODCAST_AUTHOR" >> CDL2025.rss echo " " >> CDL2025.rss echo " " >> CDL2025.rss echo "https://blog.genma.fr/local/cache-vignettes/L150xH150/siteon0-68008.png?1737630417" >> CDL2025.rss echo "$PODCAST_TITLE" >> CDL2025.rss echo "<link>$PODCAST_LINK" >> CDL2025.rss echo " " >> CDL2025.rss # Ajouter chaque fichier audio comme épisode for file in *.mp3; do title="${file%.mp3}" echo " " >> CDL2025.rss echo "$title" >> CDL2025.rss echo "Épisode : $title" >> CDL2025.rss echo "" >> CDL2025.rss echo "$PODCAST_LINK/$file" >> CDL2025.rss echo "$(date -R)" >> CDL2025.rss echo " " >> CDL2025.rss done echo " " >> CDL2025.rss echo "" >> CDL2025.rss echo "Flux RSS généré : $OUTPUT_DIR/CDL2025.rss"

# Diffusion

Sur une instance Yunohost, j'ai crée un sous-domaine dédié (podcast.mondomaine.com) et dessus j'ai installé l'application MyWebApp pour avoir une configuration Nginx automatisée et simple qui me permette de partager les fichiers.

J'upload les fichiers (mp3 et le fichier RSS) à la racine de ma webapp.

Je valide l'URL du flux via un navigateur. Et je vérifie que les fichiers audio se lisent bien.

# Ajout dans l'application de podcast

J'ajoute un flux RSS (https://podcast.mondomaine.com/CDL2025.rss) dans mon application de podcast (PodcastAddict, que j'utilise depuis une dizaine d'années). Une fois le flux récupré, ça donne ça :

Une fois qu'un épisode est téléchargé, la vignette change (pratique pour savoir ce que j'ai téléchargé ou pas encore).

Et j'utilise ensuite les fonctionnalités de l'application (lecture en vitesse accélérée, reprise, effacer les fichiers une fois lu pour regagner de la place...)

# A améliorer & La suite

Faire la même chose pour d'autres projets !
Faire la même chose pour une playliste sur Peertube du coup :)