PROJET AUTOBLOG


Framablog

Site original : Framablog

⇐ retour index

Refusons la surveillance biométrique

vendredi 24 février 2023 à 11:35

Vous avez hâte de voir les JO de Paris en 2024 ? Non ? Roooh… et la petite loi surveillance qui va avec ? Vous avez hâte de la voir appliquée aussi ? Non ? Alors cette BD est pour vous…

BD réalisée dans le cadre de la campagne de la Quadrature du Net contre l’article 7 de la loi JO.

Références :

Crédit : Gee (Creative Commons By-Sa)

La dégooglisation du GRAP, partie 3 : Le bilan

jeudi 23 février 2023 à 09:37

On vous a partagé la semaine dernière la deuxième partie de La dégooglisation du GRAP qui vous invitait à découvrir comment iels avaient réussi à sortir de Google Agenda et gmail. Voici donc la suite et fin de ce récit palpitant de dégooglisation. Encore merci à l’équipe informatique du GRAP d’avoir documenté leur démarche : c’est vraiment très précieux ! Bonne lecture !

 

Dans l’épisode précédent…

Après la sortie de Google Drive remplacé par Nextcloud, Google Agenda par Nextcloud Agenda, nous avons fini par le plus gros bout en 2021-2022, sortir de Gmail et en finir avec le tentaculaire Google.

Le mardi 23 novembre, nous débranchions enfin Google. Nous voilà libres ! Presque 😉

Bilan dégooglisation

Après 4 ans de dégooglisation, où en sommes-nous de notre utilisation de logiciels non libres ?

Dans l’équipage ⛵

Système d’exploitation Libre ? Commentaire
Windows 13 personnes
Ubuntu 9 personnes
Gestion documentaire et travail collaboratif
Nextcloud Files Tout le monde depuis 2020 ✅
Nextcloud Agenda Tout le monde depuis 2021 ✅
Téléphonie et visio
3CX Tout le monde  ❌
Nextcloud Discussions
Mail et nom de domaine
Gandi
Tout le monde depuis 2022 ✅
Logiciels métier
Odoo (suivi des actis, achat/revente, facturation)
Pôles info, accompagnement et logistique
EBP (compta)
Pôle compta
Cegid (paie) Pôle social
Gimp, Inkscape, Scribus (graphisme et mise en page)
Pôle communication
BookstackApp (documentation) Tous pôles
Logiciels bureautique
Suite Office
Suite LibreOffice
Réseaux sociaux
Facebook, Linkedin, Twitter, Eventbrite
Peertube

Nos pistes d’amélioration en logiciel libre sont donc du côté du système d’exploitation et des logiciels métiers.

Les blocages sont dus :

  1. à certains logiciels métiers qui n’existent pas en logiciel libre
    → à voir si on arrive à développer certains bouts métier sur Odoo dans les prochaines années
  2. à la difficulté de se passer d’Excel pour certaines personnes grandement habituées à ses logiques et son efficacité
    → à voir si LibreOffice continue à s’améliorer et/ou si on se forme plus sur LibreOffice

Dans la coopérative  🌸

Système d’exploitation Libre ? Commentaire
Ubuntu Dans tous les points de vente
ordinateurs portables
Windows ou Mac Les autres ordinateurs portables
Gestion documentaire et travail collaboratif
Nextcloud Files Tout le monde y a accès depuis 2020 ✅
Fournisseur mail principal
Gandi
55 %
Gmail 37 %
Ecomail  ? 4 %
Logiciels métier
Odoo (achat, revente, stock, facturation, intelligence décisionnelle)
Utilisé par 95 % des activités
Autres
❌ ✅ Dur à dire, mais la majorité des activités de transformation utilise des tableaux Excel ou des logiciels dédiés
Logiciels bureautique
Suite Office Pas de référencement fait. Aucune visibilité actuellement
Suite LibreOffice

Nos pistes d’amélioration sont donc du côté des logiciels mails et des logiciels métiers.

→ Un des gros chantiers de 2022-2023 est justement le développement et la migration sur Odoo Transfo. Pas pour le côté politique du logiciel libre mais bien de l’amélioration continue d’un même logiciel partagé dans la coopérative.

→ À voir si la dégooglisation de l’équipe « inspire » certaines activités pour se motiver à se dégoogliser. Nous serons là pour les accompagner et continuer à porter le message à qui veut l’entendre.

Bilan humain

À l’heure où nous écrivons (fin octobre 2022), il est trop tôt pour faire le bilan de la sortie de Gmail. Nous comptons d’ailleurs envoyer un nouveau questionnaire dans quelques mois qui nous permettra d’y voir plus clair. Mais nous pouvons d’ores et déjà dire que ce fut clairement l’étape la plus compliquée de la dégooglisation.

Sortir d’un logiciel fonctionnel, performant et joli est forcément compliqué quand on migre vers un logiciel aux logiques différentes (logiciel bureau VS web par exemple) et qui souffre de la comparaison au premier abord. Pour compenser cela, nous avons fait le choix de dédier beaucoup de temps humains (nombreuses formations par mini groupes ou en individuels, réponses rapides aux questions posées) et beaucoup de documentations et de partage de retour d’expériences.

La sortie de Google Drive et Google Agenda furent relativement douces et moins complexes que Gmail. Le logiciel Nextcloud étant assez mature pour assurer un changement plutôt simple et serein.

Ça paraît simple une fois énoncé, mais plus les gens travaillent avec un outil (Google par exemple), plus il sera difficile de les amener à changer facilement d’outil.

Conseil n°5 :
Dans la mesure du possible, la meilleure des dégooglisation est celle qui commence dès le début, par l’utilisation d’outils Libres. En 2022, quasiment tout logiciel a son alternative Libre mature et fonctionnel.
Si ce n’est pas possible, dès que les moyens humains sont disponibles et que la majorité le veut, envisagez votre dégooglisation ?

À Grap, il existe une certaine culture politique de compréhension autour des enjeux du logiciel libre et des GAFAM. Cela nous a aidé. Et cela nous parait quasiment obligatoire avant d’envisager une dégooglisation. Car c’est un processus long où l’on a besoin du consentement – au moins théorique – des gens impactés pour que celleux-ci acceptent de se former à de nouveaux outils, s’habituer à de nouvelles habitudes etc.

Conseil n°6 : avant d’entamer une dégooglisation, faire monter en compétences votre groupe sur les sujets autour du Logiciel Libre et des enjeux des Gafam à travers des projections de films par exemple.
Voici un récap de quelques ressources.

Bilan technique

Voici nos choix de logiciels pour notre dégooglisation :

Voici nos choix d’infrastructure :

Bilan économique

Pour calculer le coût économique de notre dégooglisation commencé en 2018, voici les chiffres retenus.

☀️ Le scénario « Dégooglisation » est celui réellement effectué depuis 2018.
Son coût comprend :

🤮 À l’opposé, le scénario Google comprend :

En prenant en compte ces données, le scénario « Dégooglisation » finit par devenir moins cher que le scénario « Google ».
Pour le coût mensuel, cela arrive dès septembre 2022 (quasi à la fin de la sortie de Gmail donc) !  🎉
Pour le coût cumulé, cela devient rentable deux ans après, en septembre 2024 !  🎉

Ces chiffres s’expliquent par :

Bilan politique

Nous sommes fièr·es en tant que coopérative de porter concrètement nos valeurs dans le choix de nos logiciels qui sont plus que de simples outils.

Ces outils sont porteurs de valeurs démocratiques très fortes. Nous ne voulons pas continuer à engraisser Google – et autres GAFAM – de nos données privées et professionnelles qui les revendent à des entreprises publicitaires et des états à tendance anti-démocratique (voir les révélations Snowden, le scandale Facebook-Cambridge Analytica). Cela est en contradiction avec ce que nous prônons : la coopération, de l’entraide et le lien humain.

Nous avons besoin d’outils conviviaux, modulables et modifiables selon qui nous sommes. Nous avons besoin de pouvoir trifouiller les outils que nous utilisons, comme nous pouvons trifouiller un vélo pour y réparer le frein ou y rajouter un porte-bagages. Des outils émancipateurs en somme, qui nous empouvoire et ne rendent pas plus esclave de la matrice capitaliste.

Notre démarche n’aurait pas pu avoir lieu sans le travail et l’aide de millions de personnes qui ont construit des outils Libres, des documentations Libres, des conférences et autres vidéos Libres. Elle n’aurait pas eu lieu non plus sans l’inspiration de structures comme Framasoft ou la Quadrature du Net. Merci.

 🍎 La route est longue, la voie est libre, et sur le chemin nous y cueillerons des pommes bios et paysannes.  🍏

Encore un grand merci aux informaticiens du GRAP pour leur travail de documentation sur cette démarche. D’autres témoignages de Dégooglisation ont été publiés sur ce blog, n’hésitez pas à prendre connaissance. Et si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !

 

Démystifier les conneries sur l’IA – Une interview

mercredi 22 février 2023 à 22:54

Cet article a été publié à l’origine par THE MARKUP, il a été traduit et republié selon les termes de la licence Creative Commons Attribution-NonCommercial-NoDerivatives
Publication originale sur le site themarkup.org

Démystifier le buzz autour de l’IA

Un entretien avec Arvind Narayanan

par JULIA ANGWIN
Si vous avez parcouru tout le battage médiatique sur ChatGPT le dernier robot conversationnel qui repose sur l’intelligence artificielle, vous pouvez avoir quelque raison de croire que la fin du monde est proche.

Le chat « intelligent » de l’IA a enflammé l’imagination du public pour sa capacité à générer instantanément des poèmes, des essais, sa capacité à imiter divers styles d’écrits, et à réussir à des examens d’écoles de droit et de commerce.

Les enseignants s’inquiètent de la tricherie possible de leurs étudiants (des écoles publiques de New York City l’ont déjà interdit). Les rédacteurs se demandent si cela ne va pas faire disparaître leur travail (BuzzFeed et CNET ont déjà utilisé l’IA pour créer des contenus). Le journal The Atlantic a déclaré que cela pourrait « déstabiliser les professions de cadres supérieurs ». L’investisseur en capital-risque Paul Kedrosky l’a qualifié de « bombe nucléaire de poche » et blâmé ses concepteurs pour l’avoir lancé dans une société qui n’y est pas prête.

Même le PDG de l’entreprise qui a lancé ChatGPT, Sam Altman, a déclaré aux médias que le pire scénario pour l’IA pourrait signifier « notre extinction finale ».

Cependant pour d’autres ce buzz est démesuré. Le principal scientifique chargé de l’IA chez Meta’s AI, Yann LeCun, a déclaré à des journalistes que ChatGPT n’a « rien de révolutionnaire ». Le professeur de langage informatique de l’université de Washington Emily Bender précise que « la croyance en un programme informatique omniscient vient de la science-fiction et devrait y rester ».

Alors, jusqu’à quel point devrions-nous nous inquiéter ? Pour recueillir un avis autorisé, je me suis adressée au professeur d’informatique de Princeton Arvind Narayanan, qui est en train de co-rédiger un livre sur « Le charlatanisme de l’IA ». En 2019, Narayanan a fait une conférence au MIT intitulée « Comment identifier le charlatanisme del’IA » qui exposait une classification des IA en fonction de leur validité ou non. À sa grande surprise, son obscure conférence universitaire est devenue virale, et ses diapos ont été téléchargées plusieurs dizaines de milliers de fois ; ses messages sur twitter qui ont suivi ont reçu plus de deux millions de vues.

Narayanan s’est alors associé à l’un de ses étudiants, Sayash Kapoor, pour développer dans un livre la classification des IA. L’année dernière, leur duo a publié une liste de 18 pièges courants dans lesquels tombent régulièrement les journalistes qui couvrent le sujet des IA. Presque en haut de la liste : « illustrer des articles sur l’IA avec de chouettes images de robots ». La raison : donner une image anthropomorphique des IA implique de façon fallacieuse qu’elles ont le potentiel d’agir dans le monde réel.

Narayanan est également le co-auteur d’un manuel sur l’équité et l’apprentissage machine et dirige le projet Web Transparency and Accountability de l’université de Princeton pour contrôler comment les entreprises collectent et utilisent les informations personnelles. Il a reçu de la Maison-Blanche le Presidential Early Career Award for Scientists and Engineers [N. de T. : une distinction honorifique pour les scientifiques et ingénieurs qui entament brillamment leur carrière].

Voici notre échange, édité par souci de clarté et brièveté.

Angwin : vous avez qualifié ChatGPT de « générateur de conneries ». Pouvez-vous expliquer ce que vous voulez dire ?

Narayanan : Sayash Kapoor et moi-même l’appelons générateur de conneries et nous ne sommes pas les seuls à le qualifier ainsi. Pas au sens strict mais dans un sens précis. Ce que nous voulons dire, c’est qu’il est entraîné pour produire du texte vraisemblable. Il est très bon pour être persuasif, mais n’est pas entraîné pour produire des énoncés vrais ; s’il génère souvent des énoncés vrais, c’est un effet collatéral du fait qu’il doit être plausible et persuasif, mais ce n’est pas son but.

Cela rejoint vraiment ce que le philosophe Harry Frankfurt a appelé du bullshit, c’est-à-dire du langage qui a pour objet de persuader sans égards pour le critère de vérité. Ceux qui débitent du bullshit se moquent de savoir si ce qu’ils disent est vrai ; ils ont en tête certains objectifs. Tant qu’ils persuadent, ces objectifs sont atteints. Et en effet, c’est ce que fait ChatGPT. Il tente de persuader, et n’a aucun moyen de savoir à coup sûr si ses énoncés sont vrais ou non.

Angwin : Qu’est-ce qui vous inquiète le plus avec ChatGPT ?

Narayanan : il existe des cas très clairs et dangereux de mésinformation dont nous devons nous inquiéter. Par exemple si des personnes l’utilisent comme outil d’apprentissage et accidentellement apprennent des informations erronées, ou si des étudiants rédigent des essais en utilisant ChatGPT quand ils ont un devoir maison à faire. J’ai appris récemment que le CNET a depuis plusieurs mois maintenant utilisé des outils d’IA générative pour écrire des articles. Même s’ils prétendent que des éditeurs humains ont vérifié rigoureusement les affirmations de ces textes, il est apparu que ce n’était pas le cas. Le CNET a publié des articles écrits par une IA sans en informer correctement, c’est le cas pour 75 articles, et plusieurs d’entre eux se sont avérés contenir des erreurs qu’un rédacteur humain n’aurait très probablement jamais commises. Ce n’était pas dans une mauvaise intention, mais c’est le genre de danger dont nous devons nous préoccuper davantage quand des personnes se tournent vers l’IA en raison des contraintes pratiques qu’elles affrontent. Ajoutez à cela le fait que l’outil ne dispose pas d’une notion claire de la vérité, et vous avez la recette du désastre.

Angwin : Vous avez développé une classification des l’IA dans laquelle vous décrivez différents types de technologies qui répondent au terme générique de « IA ». Pouvez-vous nous dire où se situe ChatGPT dans cette taxonomie ?

Narayanan : ChatGPT appartient à la catégorie des IA génératives. Au plan technologique, elle est assez comparable aux modèles de conversion de texte en image, comme DALL-E [qui crée des images en fonction des instructions textuelles d’un utilisateur]. Ils sont liés aux IA utilisées pour les tâches de perception. Ce type d’IA utilise ce que l’on appelle des modèles d’apprentissage profond. Il y a environ dix ans, les technologies d’identification par ordinateur ont commencé à devenir performantes pour distinguer un chat d’un chien, ce que les humains peuvent faire très facilement.

Ce qui a changé au cours des cinq dernières années, c’est que, grâce à une nouvelle technologie qu’on appelle des transformateurs et à d’autres technologies associées, les ordinateurs sont devenus capables d’inverser la tâche de perception qui consiste à distinguer un chat ou un chien. Cela signifie qu’à partir d’un texte, ils peuvent générer une image crédible d’un chat ou d’un chien, ou même des choses fantaisistes comme un astronaute à cheval. La même chose se produit avec le texte : non seulement ces modèles prennent un fragment de texte et le classent, mais, en fonction d’une demande, ces modèles peuvent essentiellement effectuer une classification à l’envers et produire le texte plausible qui pourrait correspondre à la catégorie donnée.

Angwin : une autre catégorie d’IA dont vous parlez est celle qui prétend établir des jugements automatiques. Pouvez-vous nous dire ce que ça implique ?

Narayanan : je pense que le meilleur exemple d’automatisation du jugement est celui de la modération des contenus sur les médias sociaux. Elle est nettement imparfaite ; il y a eu énormément d’échecs notables de la modération des contenus, dont beaucoup ont eu des conséquences mortelles. Les médias sociaux ont été utilisés pour inciter à la violence, voire à la violence génocidaire dans de nombreuses régions du monde, notamment au Myanmar, au Sri Lanka et en Éthiopie. Il s’agissait dans tous les cas d’échecs de la modération des contenus, y compris de la modération du contenu par l’IA.

Toutefois les choses s’améliorent. Il est possible, du moins jusqu’à un certain point, de s’emparer du travail des modérateurs de contenus humains et d’entraîner des modèles à repérer dans une image de la nudité ou du discours de haine. Il existera toujours des limitations intrinsèques, mais la modération de contenu est un boulot horrible. C’est un travail traumatisant où l’on doit regarder en continu des images atroces, de décapitations ou autres horreurs. Si l’IA peut réduire la part du travail humain, c’est une bonne chose.

Je pense que certains aspects du processus de modération des contenus ne devraient pas être automatisés. Définir où passe la frontière entre ce qui est acceptable et ce qui est inacceptable est chronophage. C’est très compliqué. Ça demande d’impliquer la société civile. C’est constamment mouvant et propre à chaque culture. Et il faut le faire pour tous les types possibles de discours. C’est à cause de tout cela que l’IA n’a pas de rôle à y jouer.

Angwin : vous décrivez une autre catégorie d’IA qui vise à prédire les événements sociaux. Vous êtes sceptique sur les capacités de ce genre d’IA. Pourquoi ?

Narayanan : c’est le genre d’IA avec laquelle les décisionnaires prédisent ce que pourraient faire certaines personnes à l’avenir, et qu’ils utilisent pour prendre des décisions les concernant, le plus souvent pour exclure certaines possibilités. On l’utilise pour la sélection à l’embauche, c’est aussi célèbre pour le pronostic de risque de délinquance. C’est aussi utilisé dans des contextes où l’intention est d’aider des personnes. Par exemple, quelqu’un risque de décrocher de ses études ; intervenons pour suggérer un changement de filière.

Ce que toutes ces pratiques ont en commun, ce sont des prédictions statistiques basées sur des schémas et des corrélations grossières entre les données concernant ce que des personnes pourraient faire. Ces prédictions sont ensuite utilisées dans une certaine mesure pour prendre des décisions à leur sujet et, dans de nombreux cas, leur interdire certaines possibilités, limiter leur autonomie et leur ôter la possibilité de faire leurs preuves et de montrer qu’elles ne sont pas définies par des modèles statistiques. Il existe de nombreuses raisons fondamentales pour lesquelles nous pourrions considérer la plupart de ces applications de l’IA comme illégitimes et moralement inadmissibles.

Lorsqu’on intervient sur la base d’une prédiction, on doit se demander : « Est-ce la meilleure décision que nous puissions prendre ? Ou bien la meilleure décision ne serait-elle pas celle qui ne correspond pas du tout à une prédiction ? » Par exemple, dans le scénario de prédiction du risque de délinquance, la décision que nous prenons sur la base des prédictions est de refuser la mise en liberté sous caution ou la libération conditionnelle, mais si nous sortons du cadre prédictif, nous pourrions nous demander : « Quelle est la meilleure façon de réhabiliter cette personne au sein de la société et de diminuer les risques qu’elle ne commette un autre délit ? » Ce qui ouvre la possibilité d’un ensemble beaucoup plus large d’interventions.

Angwin : certains s’alarment en prétendant que ChatGPT conduit à “l’apocalypse,” pourrait supprimer des emplois et entraîner une dévalorisation des connaissances. Qu’en pensez-vous ?

Narayanan : Admettons que certaines des prédictions les plus folles concernant ChatGPT se réalisent et qu’il permette d’automatiser des secteurs entiers de l’emploi. Par analogie, pensez aux développements informatiques les plus importants de ces dernières décennies, comme l’internet et les smartphones. Ils ont remodelé des industries entières, mais nous avons appris à vivre avec. Certains emplois sont devenus plus efficaces. Certains emplois ont été automatisés, ce qui a permis aux gens de se recycler ou de changer de carrière. Il y a des effets douloureux de ces technologies, mais nous apprenons à les réguler.

Même pour quelque chose d’aussi impactant que l’internet, les moteurs de recherche ou les smartphones, on a pu trouver une adaptation, en maximisant les bénéfices et minimisant les risques, plutôt qu’une révolution. Je ne pense pas que les grands modèles de langage soient même à la hauteur. Il peut y avoir de soudains changements massifs, des avantages et des risques dans de nombreux secteurs industriels, mais je ne vois pas de scénario catastrophe dans lequel le ciel nous tomberait sur la tête.

Comme toujours, merci de votre attention.

À bientôt,
Julia Angwin
The Markup

On peut s’abonner ici à la lettre hebdomadaire (en anglais) du magazine The Markup, envoyée le samedi.

Khrys’presso du lundi 20 février 2023

lundi 20 février 2023 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Le Fediverse n’est pas Twitter, mais peut aller plus loin

vendredi 17 février 2023 à 11:12

Maintenant que Mastodon a suscité l’intérêt d’un certain nombre de migrants de Twitter, il nous semble important de montrer concrètement comment peuvent communiquer entre eux des comptes de Mastodon, PeerTube, Pixelfed et autres… c’est ce que propose Ross Schulman dans ce billet de l’EFF traduit pour vous par Framalang…

 

source : The Breadth of the Fediverse

Traduction Framalang : CLC, Goofy, Henri-Paul

 

L’étendue du Fediverse

par Ross Schulman

Le Washington Post a récemment publié une tribune de Megan McArdle intitulée : « Twitter pourrait être remplacé, mais pas par Mastodon ou d’autres imitateurs ». L’article explique que Mastodon tombe dans le piège habituel des projets open source : élaborer une alternative qui a l’air identique et améliore les choses dont l’utilisateur type n’a rien à faire, tout en manquant des éléments qui ont fait le succès de l’original. L’autrice suggère plutôt que dépasser Twitter demandera quelque chose d’entièrement nouveau, et d’offrir aux masses quelque chose qu’elles ne savaient même pas qu’elles le désiraient.

Nous pensons, contrairement à Megan, que Mastodon (qui fait partie intégrante du Fediverse) offre en réalité tout cela, car c’est un réseau social véritablement interopérable et portable. Considérer que Mastodon est un simple clone de Twitter revient à oublier que le Fediverse est capable d’être ou de devenir la plate-forme sociale dont vous rêvez. C’est toute la puissance des protocoles. Le Fediverse dans son ensemble est un site de micro-blogging, qui permet de partager des photos, des vidéos, des listes de livres, des lectures en cours, et bien plus encore.

Comme beaucoup de gens se font, comme Megan, une fausse idée sur le Fediverse, et comme une image vaut mieux qu’un long discours, voyons comment l’univers plus large d’ActivityPub fonctionne dans la pratique.

Parlons de PeerTube. Il s’agit d’un système d’hébergement de vidéos, grâce auquel les internautes peuvent en suivre d’autres, télécharger des vidéos, les commenter et les « liker ».
Voici par exemple la page de la chaîne principale du projet open source Blender et c’est là que vous pouvez vous abonner à la chaîne…

fenêtre dans la page de peertube.tv où l'on peut s'abonner au canal blender en utilisant son compte activityPub, ici un compte de mastodon

Dans cet exemple nous avons créé un compte Mastodon sur l’instance (le serveur) framapiaf.org. Une fois qu’on clique sur « S’abonner à distance », nous allons sur le compte Mastodon, à partir duquel il nous suffit de cliquer sur « Suivre » pour nous permettre de…suivre depuis Mastodon le compte du PeerTube de Blender.

fenêtre de mastodon dans laquelle on peut confirmer vouloir suivre un canal peertube (de Blender dans cet exemple) en cliquant sur "Suivre"

Maintenant, dès que Blender met en ligne une nouvelle vidéo avec PeerTube, la mise à jour s’effectue dans le fil de Mastodon, à partir duquel nous pouvons « liker » (avec une icône d’étoile « ajouter aux favoris ») la vidéo et publier un commentaire.

… de sorte que le « like » et la réponse apparaissent sans problème sur la page de la vidéo.

un commentaire-réponse posté sur mastodon apparaît sur le canal peertube

Pixelfed est un autre service basé sur ActivityPub prenant la forme d’un réseau social de partage de photographies. Voici la page d’accueil de Dan Supernault, le principal développeur.

On peut le suivre depuis notre compte, comme nous venons de le faire avec la page PeerTube de Blender ci-dessus, mais on peut aussi le retrouver directement depuis notre compte Mastodon si nous connaissons son nom d’utilisateur.

capture : après recherche du nom d’utilisateur « dansup », mastodon retrouve le compte pixelfed recherché

Tout comme avec PeerTube, une fois que nous suivons le compte de Dan, ses images apparaîtront dans Mastodon, et les « likes » et les commentaires apparaîtront aussi dans Pixelfed.

capture d'écran montrant une photo du chat de Dansup publiée sur pixelfed mais qui s'affiche ici sur le compte mastodon que l'on "suit".

Voilà seulement quelques exemples de la façon dont des protocoles communs, et ActivityPub en particulier, permettent d’innover en termes de médias sociaux, Dans le Fediverse existent aussi BookWyrm, une plateforme sociale pour partager les lectures, FunkWhale, un service de diffusion et partage de musique ainsi que WriteFreely, qui permet de tenir des blogs plus étendus, pour ne mentionner que ceux-là.

Ce que garantit le Fediverse, c’est que tous ces éléments interagissent de la façon dont quelqu’un veut les voir. Si j’aime Mastodon, je peux toujours y voir des images de Pixelfed même si elles sont mieux affichées dans Pixelfed. Mieux encore, mes commentaires s’afficheront dans Pixelfed sous la forme attendue.

Les personnes qui ont migré de Twitter ont tendance à penser que c’est un remplaçant de Twitter pour des raisons évidentes, et donc elles utilisent Mastodon (ou peut-être micro.blog), mais ce n’est qu’une partie de son potentiel. La question n’est pas celle du remplacement de Twitter, mais de savoir si ce protocole peut se substituer aux autres plateformes dans notre activité sur la toile. S’il continue sur sa lancée, le Fediverse pourrait devenir un nouveau nœud de relations sociales sur la toile, qui engloberait d’autres systèmes comme Tumblr ou Medium et autres retardataires.