Syndicate content
Mis à jour : il y a 1 heure 36 min

Lettre d'information XMPP d'avril 2025

19 juin, 2025 - 14:24

N. D. T. — Ceci est une traduction de la lettre d’information publiée régulièrement par l’équipe de communication de la XSF, essayant de conserver les tournures de phrase et l’esprit de l’original. Elle est réalisée et publiée conjointement sur les sites XMPP.org, LinuxFr.org et JabberFR.org selon une procédure définie.

Bienvenue dans la lettre d'information XMPP, ravi de vous retrouver !
Ce numéro couvre le mois d'avril 2025.

Tout comme cette lettre d'information, de nombreux projets et leurs efforts au sein de la communauté XMPP sont le résultat du travail bénévole de certaines personnes. Si vous êtes satisfait des services et des logiciels que vous utilisez, n'hésitez pas à les remercier ou à aider ces projets ! Vous souhaitez soutenir l'équipe de la lettre d'information ? Lisez en bas de page.

    Sommaire Annonces XSF Adhésion à la XSF

    Si vous souhaitez rejoindre la XMPP Standards Foundation en tant que membre, les soumissions sont ouvertes jusqu'au 18 mai 2025, 00:00 UTC !

    Hébergement fiscal de projets par la XSF

    La XSF propose un hébergement fiscal pour les projets XMPP. Veuillez postuler via Open Collective. Pour plus d'informations, voir le billet d'annonce. Projets actuels que vous pouvez soutenir :

    Événements XMPP
    • Berlin XMPP Meetup [DE / EN] : réunion mensuelle des passionnés de XMPP à Berlin, tous les deuxièmes mercredis du mois à 18 heures (heure locale).
    • XMPP Italian happy hour [IT] : réunion mensuelle sur le web XMPP en Italie, tous les troisièmes lundis du mois à 19h00 heure locale (événement en ligne, avec mode de réunion web et streaming en direct).
    • XMPP Sprint à Berlin : les vendredi 23, samedi 24 et dimanche 25 mai 2025.
    Articles XMPP Actualité des logiciels XMPP Clients et applications XMPP
    • Cheogram a publié la version 2.17.10-1 pour Android. Cette version introduit une première implémentation de Spaces (XEP-503), parmi d'autres améliorations, corrections de bugs et plus encore !

    • Conversations a publié les versions 2.18.0, 2.18.1 et 2.18.2 pour Android. Les changements notables incluent la possibilité de choisir un emplacement de sauvegarde personnalisé, une option de restauration de sauvegarde importante pour Quicksy, et une prise en charge améliorée pour plus de types d'URI. Ce dernier inclut les numéros de téléphone tel, les adresses email mailto et, plus intéressant, le schéma web+ap pour ActivityPub proposé par Fedi Links.

    • Dino a publié la version 0.5 avec le cryptage OMEMO par défaut, des transferts de fichiers améliorés, un aperçu de l'image et d'autres détails du fichier avant le téléchargement, et deux boîtes de dialogue complètement retravaillées. Voir la version blog post pour tous les détails.

      • Dans le même temps, Dino a également reçu un financement de NLnet pour commencer le développement d'un grand nombre de nouvelles fonctionnalités. Il s'agit notamment de la modération des messages dans les chats de groupe, de la suppression locale des messages, de la gestion moderne des connexions avec FAST et SASL2, de plus d'options de formatage avec Message Markup, et bien d'autres choses encore ! Visitez la page du projet pour tous les détails.
    • Gajim a publié les versions 2.1.0 et 2.1.1 avec une nouvelle page « Activity feed », des améliorations de la mise en page de son dialogue « Start Chat » et le support de la « Message Display Synchronisation » (XEP-0490) à travers les chats de groupe parmi d'autres améliorations et corrections de bogues. Rendez-vous dans la section News pour plus de détails.

    • Kaidan a reçu un financement de NLnet pour diverses améliorations générales, notamment le chat multi-utilisateurs et la prise en charge de l'ancien protocole OMEMO. Le deuxième point est important, car si Kaidan utilise une version plus récente du protocole de cryptage de bout en bout OMEMO, d'autres clients populaires tels que Conversations, Monal et Dino utilisent toujours une version plus ancienne. Comme les deux ne sont pas compatibles, les utilisateurs de Kaidan ne pouvaient pas utiliser le chiffrement OMEMO avec les utilisateurs de la plupart des autres clients. En implémentant également l'ancienne spécification, Kaidan contribuera à combler ce fossé.

    • Monocles Chat 2.0.6 est disponible pour Android. Cette version apporte la prise en charge initiale des légendes de fichiers, l'option d'épingler un message non chiffré en haut d'une conversation, la prise en charge de la liste des fournisseurs, et l'option d'enregistrement sur votre propre serveur XMPP, parmi beaucoup d'autres nouvelles fonctionnalités et améliorations.

    • Movim a publié la version 0.30 (nom de code « Encke »), la plus grande évolution de Movim depuis de nombreuses années ! Cette version apporte les appels multi-participants, l'affichage des réactions dans la vue détaillée des messages, la prise en charge de l'Unicode 15.1 avec de nombreux nouveaux emojis à utiliser, et des avatars qui changent lorsqu'un contact ajoute des éléments à ses Stories.

    • et dans la foulée, Movim a également publié sa première version de correction de bogues : la version 0.30.1, ajoutant la prise en charge des images animées dans le proxy d'image et un nouveau panneau de configuration des avatars et des bannières, ainsi que l'implémentation (XEP-0392) de la génération cohérente de couleurs, parmi de nombreuses autres améliorations et corrections de bogues. Assurez-vous de consulter les annonces officielles sur le Movim Blog pour tous les détails !

    Serveurs XMPP
    • MongooseIM a publié la version 6.3.3 de sa solution de messagerie instantanée d'entreprise. Cette mise à jour mineure comprend diverses corrections et améliorations. Pour plus d'informations, consultez la documentation.

    • ProcessOne a publié ejabberd 25.04. Cette version apporte un correctif de sécurité important, plusieurs corrections de bogues et une nouvelle commande API.

    • Prosody IM a le plaisir d'annoncer la version 13.0.1, une nouvelle version mineure issue de la dernière branche stable. Elle corrige quelques bugs importants qui ont été découverts après la dernière version. Lisez tous les détails sur la version changelog. Comme toujours, des instructions détaillées de téléchargement et d'installation sont disponibles sur la page de téléchargement.

    • L'application Prosody pour YunoHost a été mise à jour pour fournir un ensemble de XEPs supportés par défaut, configurés pour tous les utilisateurs de YunoHost en un seul clic. YunoHost est un ensemble d'outils permettant de gérer facilement vos propres services auto-hébergés, et bien qu'il ait été fourni par défaut avec le fork de Prosody Metronome, il a récemment regroupé ses fonctionnalités XMPP dans une « application » séparée afin que les utilisateurs puissent y intégrer n'importe quel autre serveur XMPP de leur choix.

    Bibliothèques et outils XMPP Extensions et spécifications

    La XMPP Standards Foundation développe des extensions pour XMPP dans sa série XEP en plus des RFC XMPP. Des développeuses, développeurs et expertes de normalisation du monde entier collaborent sur ces extensions, en élaborant de nouvelles spécifications pour des pratiques émergentes et en affinant des méthodes existantes. Proposées par n’importe qui, celles qui rencontrent un grand succès deviennent Finales ou Actives, selon leur type, tandis que d’autres sont soigneusement archivées comme Reportées. Ce cycle de vie est décrit dans XEP-0001, qui contient les définitions formelles et canoniques des types, états et processus. En savoir plus sur le processus des standards. La communication autour des standards et des extensions a lieu sur la liste de diffusion des standards (archive en ligne).

    Extensions proposées

    Le processus de développement des XEP commence par la rédaction d'une idée et sa soumission à l'éditeur XMPP. Dans les deux semaines qui suivent, le Conseil décide d'accepter ou non cette proposition en tant que XEP expérimentale.

    • Aucune XEP proposée ce mois-ci.
    Nouvelles extensions
    • Aucune nouvelle XEP ce mois-ci.
    Extensions déférées

    Si une XEP expérimentale n’est pas mise à jour pendant plus de douze mois, elle sera retirée de la catégorie Expérimental pour être classée comme Déférée. Si une mise à jour intervient, la XEP sera replacée dans la catégorie Expérimental.

    • Aucune XEP déférée ce mois-ci.
    Extensions mises à jour
    • Version 1.1.3 de XEP-0313 (Gestion des archives de messages)
      • Correction d'une coquille (éditeur XEP (dg))
    • Version 0.4.0 de XEP-0377 (Rapports de spam)
      • Ajout d'un opt-in pour le traitement des rapports de spam.
      • Ajout de Guus der Kinderen comme co-auteur. (gdk)
    • Version 1.0.1 de XEP-0421 (Occupant identifiers for semi-anonymous MUCs)
      • Correction d'une coquille (éditeur XEP (dg))
    • Version 0.3.0 de XEP-0455 (Service Outage Status)
      • Suppression de toute signalisation d'événement in-band. (mp)
    Derniers appels

    Les derniers appels sont lancés une fois que tout le monde semble satisfait de l'état actuel d'une XEP. Une fois que le Conseil a décidé si la XEP semble prête, l'éditeur XMPP émet un dernier appel pour recueillir des commentaires. Les commentaires recueillis lors du dernier appel peuvent aider à améliorer la XEP avant de le renvoyer au Conseil pour qu'il passe à l'étape Stable.

    • Aucun dernier appel ce mois-ci.
    Extensions stables
    • Aucune XEP n’est passée à Stable ce mois-ci.
    Extensions dépréciées
    • Aucune XEP n’a été dépréciée ce mois-ci.
    Extensions rejetées
    • Aucune XEP n’a été rejetée ce mois-ci.
    Partagez les nouvelles

    Veuillez partager ces nouvelles sur d'autres réseaux :

    Consultez également notre flux RSS !

    Vous recherchez des offres d’emploi ou souhaitez engager une personne en tant que consultante professionnelle pour votre projet XMPP ? Consultez notre tableau des offres d’emploi XMPP.

    Contributions et traductions de la lettre d'information

    Il s’agit d’un effort communautaire, et nous souhaitons remercier les bénévoles pour leurs contributions. Le bénévolat et les traductions dans d'autres langues sont les bienvenus ! Les traductions de la lettre d'information XMPP seront publiées ici (avec un certain délai) :

    • Anglais (original) : xmpp.org
      • Contributions générales : Adrien Bourmault (neox), Alexander "PapaTutuWawa", Arne, cal0pteryx, emus, Federico, Gonzalo Raúl Nemmi, Jonas Stein, Kris "poVoq", Licaon_Kter, Ludovic Bocquet, Mario Sabatino, melvo, MSavoritias (fae,ve), nicola, Schimon Zachary, Simone Canaletti, singpolyma, XSF iTeam
    • Français : jabberfr.org et linuxfr.org
      • Traductions : Adrien Bourmault (neox), alkino, anubis, Arkem, Benoît Sibaud, mathieui, nyco, Pierre Jarillon, Ppjet6, Ysabeau
    • Italien : notes.nicfab.eu
      • Traductions : nicola
    • Espagnol : xmpp.org
      • Traductions : Gonzalo Raúl Nemmi
    • Allemand : xmpp.org
      • Traductions : Millesimus
    Aidez-nous à construire la lettre d'information

    Cette lettre d'information XMPP est produite de manière collaborative par la communauté XMPP. Chaque numéro mensuel de la lettre d'information est rédigé dans ce pad simple. À la fin de chaque mois, le contenu du pad est fusionné dans le dépôt GitHub de la XSF. Nous sommes toujours ravis d'accueillir des contributions. N’hésitez pas à rejoindre la discussion dans notre chat de groupe Comm-Team (MUC) et à nous aider à maintenir cet effort communautaire. Vous avez un projet et souhaitez partager vos actualités ? Pensez à partager vos nouvelles ou événements ici pour les promouvoir auprès d’un large public.

    Tâches que nous réalisons régulièrement :

    • recueillir des nouvelles dans l’univers XMPP
    • rédiger des résumés brefs des actualités et événements
    • résumer les communications mensuelles sur les extensions (XEPs)
    • réviser le brouillon de la lettre d'information
    • préparer des images pour les médias
    • traduire
    • communiquer via les comptes sur les réseaux sociaux
    Licence

    Cette lettre d'information est publiée sous la licence CC BY-SA.

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Kernel Recipes 2025 – 12e édition : c’est parti !

    17 juin, 2025 - 06:28

    Nous (NdM: équipe d'organisation de Kernel Recipes) sommes fiers de vous annoncer la 12e édition de Kernel Recipes. Elle aura lieu du 22 au 24 septembre 2025 à Paris. Comme les années précédentes, une vingtaine d'interventions reatives au fonctionnement de la communauté, des outils, la question de l'usage de Rust, de la sécurité… Le programme est en ligne et quasiment complet.

    Le parrain de cette édition : Paul McKenney

    Cette année, nous avons l’immense honneur d’accueillir Paul E. McKenney en tant que parrain de l’édition. Contributeur incontournable du noyau Linux depuis plus de 30 ans, connu pour son travail sur RCU (Read-Copy-Update), Paul proposera un talk sur RCU avec probablement des surprises sur scène au programme.

    Charity auctions

    Comme tous les ans nous mettons à l'honneur une association pour tenter d'apporter une contribution. Cette année, il s'agit des Restos du Coeur. Plus précisément, les fonds récoltés seront destinés à l’entretien et au développement de leur infrastructure informatique, entièrement gérée par des bénévoles, et essentielle au bon fonctionnement quotidien de l’organisation.

    Julien Briault, bénévole qui s’en occupe le soir après son travail, sera présent pour nous parler de son engagement et de son rôle.

    La billetterie est ouverte !

    Les places sont désormais disponibles, alors ne tardez pas à réserver la vôtre. Ne tardez pas, la moitié des places est déjà partie ! Vous êtes étudiants, contactez-nous pour bénéficier d'une remise de 50% sur les entrées.

    Dans la salle

    Notre "flying mic" fait peau neuve et continuera à favoriser les échanges lors des interventions. Frank TIZZONI sera également de la partie pour croquer sur le fait particpants et orateurs. Jean-Christophe Huwette (Uweti) sera à la manoeuvre pour le son et l'image et grâce à lui nous proposerons cette année encore un live stream de la conférence.

    Un grand merci à nos sponsors

    Kernel Recipes ne pourrait pas exister sans le soutien fidèle de ses sponsors : Meta, ARM, Collabora, HAProxy, Igalia, jumptrading, The Linux Foundation, Cyberzen, Linux Pratique. Ils nous permettent de conserver la conférence accessible à tous et proposer un environnement propice aux échanges.

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Agenda du Libre pour la semaine 25 de l'année 2025

    15 juin, 2025 - 09:19

    Calendrier Web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 46 événements (France: 42, internet: 3, Belgique: 1) est en seconde partie de dépêche.

    Sommaire

    Sortie de Datafari 6.2, moteur de recherche open source pour entreprise avec de l'IA

    15 juin, 2025 - 09:19

    Nous (NdM: France Labs qui porte datafari.com) sommes fiers de vous annoncer la mise à disposition de Datafari 6.2

    Pour faire court, la grosse nouveauté vient de l’intégration simplifiée des outils tiers d’IA générative. Ces travaux ont été en partis financés par le projet Européen NGI Search Neural Datafari, qui a permi du coup également d'ajouter la recherche vectorielle bout en bout au projet Apache Solr.

    Pour rappel, Datafari est une solution de recherche pour entreprise. Où que les connaissances se trouvent et sous quelque format que ce soit, elle permet aux employés de retrouver les données utiles.

    Et désormais grâce à l’IA, de « discuter » avec ses connaissances. Plus concrètement, il s’agit de récupérer et d’indexer les données et documents depuis de nombreuses sources différentes et plusieurs formats de fichiers, et de permettre aussi de chercher des documents mais aussi d’utiliser une IA générative pour les questionner.

    Pour cette dépêche, on se concentre sur la version libre et open source (mais il y a aussi d’autres nouveautés sur la version entreprise propriétaire).

    Notre dernière dépêche datant de… Datafari 5.3, voici Les nouveautés et changements principaux par rapport à cette dernière:

    1. Ajout d’un module RAG (Retrieval Augmented Generation)
    2. Passage à Solr 9.8 avec recherche vectorielle
    3. Ajout d’un module d’appel de LLM à l’indexation
    4. Gestion automatique du chunking des documents indexés
    5. Création d’un module autonome d’analytics au lieu de Zeppelin pour optimiser les ressources
    6. Création d’un regex connector à l’indexation
    7. Refonte technique de l’interface graphique, en React
    8. Passage à la V2 des API REST de Datafari
    9. Prototype d’agent autonome pour héberger en local un modèle d’IA
    10. Du bugfix de partout
    Comment démarrer ?

    Pour voir à quoi ça ressemble, nous avons téléversé une courte vidéo de démonstration. Pour démarrer tout de suite, le mieux est d’aller lire le quick start guide. Nous mettons gratuitement à disposition notre documentation Datafari sur Confluence, qui couvre les usages, l’administration et le développement. Attention, les modules d’IA que nous avons développés, nécessitent la disponibilité d’un serveur exposant un modèle d’IA compatible. De base, Datafari n’héberge pas localement une IA. Le plus simple pour débuter est de le connecter par exemple à openAI pour se faire la main, et ensuite de passer à des modèles locaux hébergés par vos soins ou par des partenaires.

    Pour rappel, voici les principales fonctionnalités de Datafari en tant que moteur de recherche :

    Que peut‐on faire avec Datafari ?

    Datafari est un moteur de recherche pour entreprise enrichi à l’IA : membres de la famille des outils de gestion des connaissances, les solutions de recherche fédèrent les connaissances en analysant et indexant tous les documents d’une organisation, aussi bien leur contenu que leurs métadonnées. Pour cela, le moteur de recherche doit être multi‐sources, multi‐formats, et gérer la sécurité. En outre, il faut permettre l’administration de l’outil.

    Dans la version libre, on peut, côté admin :
    1. Administrer les connecteurs aux sources de données vers de nombreuses sources (nous utilisons Apache ManifoldCF avec tous ses connecteurs) dont Sharepoint, Confluence, Alfresco et les partages de fichiers ;
    2. Gérer l’algorithme de pertinence qui classe les documents pour leur affichage suite à une requête ;
    3. Activer les modules de recherche vectorielle et de RAG
    4. Mettre en avant des documents pour des requêtes identifiées ;
    5. Créer des utilisateurs et leur assigner des rôles ;
    6. Voir des statistiques d’usage de l’outil ;
    7. Créer l’équivalent de Google AdWords (appelés promoliens) ;
    8. Gérer des synonymes ;
    9. Plein d’autres choses accessibles depuis la documentation Confluence.
    Côté utilisateur, on peut :
    1. Chercher de façon simple ou avancée ;
    2. Prévisualiser les résultats ;
    3. « Discuter » avec ses documents via le module RAG
    4. Bénéficier de la correction orthographique et de l’auto‐complétion ;
    5. Choisir et utiliser des facettes pour filtrer les résultats ;
    6. Mettre des résultats dans un panier de favoris ;
    7. Créer des alertes par courriel quand des documents modifiés ou nouveaux correspondent à une requête.
    Et ensuite ?

    Pour le reste de 2025, nous allons continuer à ajouter des fonctionnalités se basant sur les IA génératives pour multiplier les possibilités.

    Des commentaires ?

    Nous sommes en permanence à l’écoute des commentaires et suggestions pour faire avancer le produit, alors profitez-en, que ce soit d’un point de vue technique ou fonctionnel, ça nous intéresse. Ha et si vous êtes déjà un utilisateur, n’hésitez pas à en parler sur le web !

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    20 ans de Fedora-fr : huitième entretien avec Jean-Baptiste mainteneur de la traduction française

    11 juin, 2025 - 10:44

    Dans le cadre des 20 ans de Fedora-fr (et du Projet Fedora en lui-même), Charles-Antoine Couret (Renault) et Nicolas Berrehouc (Nicosss) avons souhaité poser des questions à des contributeurs francophones du Projet Fedora et de Fedora-fr.

    Grâce à la diversité des profils, cela permet de voir le fonctionnement du Projet Fedora sous différents angles pour voir le projet au-delà de la distribution mais aussi comment il est organisé et conçu. Notons que sur certains points, certaines remarques restent d’application pour d’autres distributions.

    N’oublions pas que le Projet Fedora reste un projet mondial et un travail d’équipe ce que ces entretiens ne permettent pas forcément de refléter. Mais la communauté francophone a de la chance d’avoir suffisamment de contributeurs et des contributrices de qualité pour permettre d’avoir un aperçu de beaucoup de sous projets de la distribution.

    Chaque semaine un nouvel entretien sera publié sur le forum Fedora-fr.org, LinuxFr.org et le blog de Renault.

    L’entretien du jour concerne Jean-Baptiste Holcroft, un des mainteneurs de la traduction française de Fedora.

      Sommaire

      Bonjour Jean-Baptiste, peux-tu présenter brièvement tes contributions au projet Fedora ?

      Gêné par des traductions partielles de logiciels que je trouve super, j’ai aidé d’abords en signalant des problèmes, puis en traduisant, et ne voyant pas les traductions arriver, à fluidifier le processus de traduction.

      Ayant compris le fonctionnement, grâce à la communauté, j’ai voulu aider cette communauté à être plus efficace, en migrant sur la très bonne plateforme de traduction Weblate, en permettant la traduction de la totalité de la documentation de Fedora (on parle ici de 3,5 millions de mots, de milliers de pages).

      Transifex, la plateforme précédente, ne permettait pas un travail collectif efficace (entre les traducteurices et entre traducteurices-projets de développement).

      Avec l’expérience, j’ai constaté que la communauté du logiciel libre propose une expérience désastreuse pour les traducteurs, le coût de traduction vs l’effort nécessaire pour traduire tout un système d’exploitation est monstrueux, j’ai maintenant voulu rendre cela perceptible et accessible à tous (ce site est moche, sa valeur est la mesure de traduction transverse).

      Qu’est-ce qui fait que tu es venu sur Fedora et que tu y es resté ?

      Ses valeurs en tant que communauté m’ont intéressées.

      Fedora accueille les contributeurs, leur permet de gagner en responsabilité, de financer des initiatives et de grandir en tant que personne. Si mon implication varie dans le temps, ce n’est qu’une question de temps disponible.

      Pourquoi contribuer à Fedora en particulier ?

      La ligne est claire, au plus proche des créateurs de logiciels libre, en collaboration, que du logiciel libre et très fiable.
      C’est une mentalité que je trouve excellente et dans laquelle je me sens à l’aise.

      Contribues-tu à d’autres Logiciels Libres ? Si oui, lesquels et comment ?

      J’ai contribué pendant quelque temps au projet YunoHost sur les thèmes de la traduction, de l’internationalisation et de l’empaquetage de logiciels.
      Ce projet est mature et autonome sur ces deux sujets, ayant moins de temps, j’ai arrêté d’y contribuer.
      Je continue à l’utiliser au quotidien, car je le considère aussi stable que Fedora pour gérer mon serveur personnel avec mes courriels, mes fichiers, mes contacts, etc.
      Aujourd’hui, je m’intéresse plutôt à notre efficacité collective plutôt qu’un projet en particulier.

      Est-ce que tes contributions à Fedora sont un atout direct ou indirect dans ta vie professionnelle ? Si oui, de quelle façon ?

      Toute la culture technique gagnée en lisant l’actualité des projets, en contribuant via des rapports de bugs, des traductions, des développements m’ont aidé pour obtenir mon emploi actuel, et pour mon travail au quotidien.

      Le logiciel libre et le fait d’y contribuer, même modestement est un lien réel, concret et palpable, très loin de l’informatique fantasmée qui ne fait le bonheur que du porte-monnaie et du pouvoir des puissants.

      Dans le travail, qu’il soit lucratif, amical ou militant, je veux du concret qui nous aide à avancer, et c’est une valeur très forte du logiciel libre.

      Tu as maintenu la traduction française de Fedora pendant des années, peux-tu nous expliquer l’importance de la traduction et même de l’internationalisation dans ce genre de projets ?

      Le logiciel libre est un outil de lutte contre l’appropriation des communs par une minorité.
      Si on veut qu’il soit un outil d’émancipation des masses, on veut réduire les barrières à l’utilisation, tout en respectant les singularités de ses utilisateurs et utilisatrices.
      Un utilisateur de logiciel ne devrait pas avoir à apprendre une nouvelle langue pour utiliser un outil émancipateur et respectueux, d’où l’intérêt de ces activités.

      Traduire un logiciel est une activité complexe, quelles sont les difficultés rencontrées lors de cette activité ?

      Traduire est la partie facile, ça consomme très peu de temps, ce qui est compliqué c’est :

      • savoir où traduire - trouver quel logiciel affiche la chaîne, trouver où il est hébergé, comprendre quelle version est à traduire, etc
      • demander de pouvoir traduire un logiciel - tout n’est pas traduisible, notre pouvoir pour faire évoluer ça en tant que traducteurice est faible
      • comprendre comment traduire - l’idéal c’est Weblate directement lié au dépôt de logiciel du dépôt, le pire c’est l’ouverture de Pull Request
      • maintenir les traductions dans le temps - pour chaque projet

      Tu as participé à la migration de la plateforme de traduction Zanata vers Weblate, peux-tu revenir sur cette tâche et les motivations derrière cette décision ?

      Weblate est un outil de traduction performant, qui facilite la vie des créateurices de logiciels et des traducteurices. Cet outil est proche du dépôt de code source et permet beaucoup d’autonomie aux traducteurices pour s’organiser comme iels le souhaitent, tracer les modifications, être notifiés, etc.

      Zanata, ben c’était un objet OK pour traduire, mais c’est tout, tout le reste était déficient.
      À titre d’illustration, pour savoir si une traduction a été modifiée, je devais aller regarder sur chaque phrase l’historique des modifications.
      Sur Weblate, l’historique est transparent et efficace, et permet de filtrer par langue, projet, composants et type de changements. Voici par exemple l'historique des changements de traduction en français sur tous les projets.
      Quand Weblate est arrivé, j’ai activement démontré la pertinence de ce projet et poussé le sujet pour que nous soyons plus efficaces.

      Tu as également participé à obtenir des statistiques de traduction au sein du projet Fedora, quel intérêt à cela et comment cela a été mis en œuvre ?

      C’est un sujet génial, mais c’est légèrement compliqué, voici une simplification :
      Une distribution Linux, c’est l’assemblage de milliers de logiciels, des lignes de code contenues dans les paquets.
      Chaque paquet est disponible au téléchargement sur des miroirs, on y retrouve même les paquets d’il y a plusieurs années (j’arrive à exploiter les données jusqu’à Fedora 7 sortie en mai 2007).

      En suivant de près le fonctionnement de Weblate, je me suis rendu compte que le créateur de Weblate a créé des petits outils pour : avoir des listes de tous les codes de langues connus, et d’auto-détection des fichiers de traduction.

      La mécanique va donc :

      • télécharger chaque paquet existant dans Fedora
      • en extraire le code source
      • lancer l’auto-détection des fichiers de traduction
      • calculer pour chaque fichier le pourcentage d’avancement
      • agréger les résultats par langue grâce aux codes connus
      • puis générer un site web pour afficher les résultats

      Avec mon ordinateur, cela m’a pris plus de dix jours de calcul en continu, et le téléchargement de 2 To de données pour réussir à avoir une vue sur plus de 15 ans de la distribution Fedora. Je n’ai malheureusement pas encore eu le temps d’en faire une rétrospective pertinente dans le cadre d’une conférence, faute de temps pour analyser les données. Pour l’instant, la seule partie visible est le site https://languages.fedoraproject.org. J’espère avancer sur ce sujet pour la rencontre annuelle 2025 du projet Fedora et le FOSDEM 2026.

      La traduction est une activité spécifique pour chaque langue mais tout le monde a des problèmes communs vis-à-vis de l’outillage ou des situations complexes, y a-t-il des collaborations entre les différentes équipes de traduction dans Fedora ?

      D’une façon générale, résoudre un problème pour une langue résous systématiquement un problème pour une autre langue.
      Les traducteurs et traductrices se soutiennent beaucoup notamment pour ces raisons, soutenez-les vous aussi !

      L’absence de centralisation dans cette activité rend la cohérence des traductions dans l’ensemble des logiciels libres très complexe. Peux-tu nous expliquer ces difficultés ? Est-ce qu’il y a une volonté francophone notamment d’essayer de résoudre le problème en collaborant d’une certaine façon sur ces problématiques ?

      Un logiciel est une création, sa communauté peut être plus ou moins inclusive et pointue sur certaines traductions.
      La cohérence vient avec les usages et évolue comme la langue de façon progressive et délocalisée.
      On pourrait imaginer proposer des outils, mais si c’est un sujet très important, ce n’est pour l’instant pas mon combat.
      Je vois ça comme un problème de privilégié, car spécifique aux langues ayant suffisamment de traduction, alors que la quasi-totalité des langues en ont très peu et sont incapables de tenir le rythme exigé par l’évolution de nos logiciels libres.

      Je voudrais d’abord démontrer et faire acter à la communauté du logiciel libre qu’il y a urgence à améliorer notre efficacité avec des changements de processus et de l’outillage. Cet outillage pourrait sûrement permettre d’améliorer la cohérence.

      Fedora n’est sans doute pas le projet le plus avancé sur la question de l’internationalisation malgré ses progrès au fil des ans, qu’est-ce que le projet Fedora pourrait faire à ce sujet pour améliorer la situation ?

      Si on veut faciliter la vie des traducteurices, il faudrait envisager de permettre de traduire à l’échelle de Fedora, de façon distincte des traductions de chaque projet, comme le fait Ubuntu.
      Le problème, c’est qu’Ubuntu utilise des outils médiocres (Launchpad) et n’a pas de moyen automatisé pour renvoyer ce travail aux créateurs de logiciels.
      Fedora pourrait innover sur ce sujet, et réussir à faire les deux avec une bonne plateforme de traduction (Weblate) et beaucoup d’outillage pour partager ce travail avec les différentes communautés, les utilisateurices y gagneraient en confort, les traducteurices en efficacité et les projets en contributions.

      Quelque chose à ajouter ?

      Un grand merci à la communauté francophone de Fedora, à la communauté Fedora et à l’ensemble des communautés qui collaborent tous les jours pour nous permettre d’avoir des outils émancipateurs et qui nous respectent. Le travail réalisé au quotidien est exceptionnellement utile et précieux, merci, merci et merci.

      Gardons à l’esprit que le logiciel n’est qu’un outil au service d’autres luttes dans lesquelles nous devons prendre notre part.

      Merci Jean-Baptiste pour ta contribution !

      Conclusion

      Nous espérons que cet entretien vous a permis d’en découvrir un peu plus sur la traduction de Fedora.

      Si vous avez des questions ou que vous souhaitez participer au Projet Fedora ou Fedora-fr, ou simplement l’utiliser et l’installer sur votre machine, n’hésitez pas à en discuter avec nous en commentaire ou sur le forum Fedora-fr.

      À dans 10 jours pour un entretien avec Nicolas Berrehouc, contributeur de Fedora-fr et mainteneur de sa documentation.

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      Playlist de musiques libres — « Libre à vous ! » du 3 juin 2025 — Podcasts et références

      11 juin, 2025 - 07:28

      249e émission « Libre à vous ! » de l’April. Podcast et programme :

      • sujet principal : playlist de musiques libres
      • chronique de Benjamin Bellamy sur « Wikipédia a monté les marches du Festival de Cannes »
      • chronique de Vincent Calame sur « La guerre de l’information » de David Colon (2e partie)

      Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 MHz en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune. Vous pouvez nous laisser un message sur le répondeur de la radio : pour réagir à l’un des sujets de l’émission, pour partager un témoignage, vos idées, vos suggestions, vos encouragements ou pour nous poser une question. Le numéro du répondeur : +33 9 72 51 55 46.

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      Elpe, un compromis entre NixOS et Ubuntu

      10 juin, 2025 - 11:49

      Je travaille depuis quelque temps sur Elpe, un projet qui vise à obtenir les bonnes propriétés de Nix/NixOS (les mises à jour atomiques, la reproductibilité), mais avec des paquets Ubuntu.

      Le code : https://nest.pijul.com/pmeunier/elpe

      L'idée est de définir des recettes de compilation en OCaml et de les envoyer à un backend Rust, qui se charge de les exécuter dans un conteneur sans réseau, en exposant uniquement le contexte nécessaire à la bonne exécution de la compilation. Les produits du build sont indexés par le contenu de la recette du build, et indexés une deuxième fois par le résultat : c'est ce deuxième hash qui est utilisé dans les dépendants du paquet, ce qui permet de construire un arbre de Merkle du système complet (et non seulement de ses sources), qui rend toute modification ultérieure facilement détectable.

      De plus, le système de base provient des dépôts de paquet Debian ou Ubuntu. Cependant, tous les chemins sont hard-codés (comme dans Nix), ce qui permet de garantir la reproductibilité, au détriment toutefois du coût de mise à jour en termes d'espace et opérations disque.

      Si le choix de Rust devient relativement consensuel par les temps qui courent, OCaml est plus surprenant. Après divers essais avec plusieurs langages, je l'ai choisi parce que c'est le seul langage avec à la fois :

      • Une bonne approximation du système de types dont j'avais besoin: typage nominal et aussi structurel, entre autres.
      • Un système de types relativement simple (pas de typeclasses ni de monades comme en Haskell, de borrow checkers comme en Rust ni de types dépendants comme en TypeScript).
      • Du late binding, nécessaire pour exprimer des "overrides" et des "hooks", courants quand on veut compiler des choses (autoconf et make ont plein d'options de ce type, par exemple).
      • Un compilateur ultra-rapide.
      • Un bytecode, pour (dans le futur) contrôler aussi l'isolation du code de build de façon très légère.

      La simplicité et l'expressivité d'OCaml sont bien adaptés à ce projet: les fonctions simples à concevoir y sont relativement claires à énoncer.

      Pourquoi pas NixOS, me direz-vous ? En tant qu'utilisateur et contributeur depuis environ 10 ans, un certain nombre de problèmes plus ou moins récents m'ont motivé à explorer une alternative:

      • En termes de gouvernance, la communauté a traversé dans la dernière année plusieurs crises de différentes tailles (Anduril, Devenv…). On pourrait y voir un signe de maturation ou au moins de croissance du projet, mais plusieurs éléments me permettent d'en douter, dont les réactions répétées de la fondation Nix, qui semble avoir beaucoup de mal à comprendre les messages pourtant clairs des contributeurs.

      • Je vois aussi les choix de design imposés par les fondateurs du projet depuis quelques années comme un bien mauvais signe: les flakes (en 2020) étaient une première incarnation de cette tendance, et plus récemment la "distribution propriétaire" de Nix est clairement une mauvaise idée, alors que la qualité de code de Nix n'est pas au niveau où on l'attendrait et que le gros du projet repose depuis plusieurs années sur le travail pharaonique des contributeurs de Nixpkgs.

      • On pourrait parler longtemps de la sécurité de Nix, qui me fait de plus en plus peur y compris pour mon usage personnel. Les process de gestion des rapports ne me conviennent pas, de même que l'opacité de certains choix techniques (les flags de compilation désactivés sur certaines plateformes, entre autres), souvent bien cachés dans les entrailles de Nixpkgs.

      • Enfin, le langage trop complexe à utiliser (principalement par manque de typage statique et de messages d'erreurs pertinents) rend Nix difficile à utiliser au sein d'une organisation d'une taille importante, et encourage les comportements peu inclusifs (éviter d'écrire de la doc, inventer des casse-têtes pour faire des choses simples…). Je suis bien sûr conscient que des entreprises (comme Anduril) et des ONGs (comme Médecins Sans Frontières) l'utilisent, mais je ne pense pas que ce soit généralisable aux situations où j'aimerais voir ce genre de projet utilisé.

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      Nouvelles sur l’IA de mai 2025

      8 juin, 2025 - 21:03

      L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

      Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

      Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

      Sommaire Résumé des épisodes précédents

      Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

      • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
      • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
      OpenAI dévoile Codex et codex-1

      Les modèles actuels commençant à être relativement compétents sur les tâches de programmation, la ruée vers l’or arrive : comment en faire de véritables programmeurs, autonomes ou semi-autonomes ?

      La première génération consistait à poser des questions à l’IA sur l’interface de chat, et copier-coller des bouts de code, ainsi que d’assistants à l’auto-complétion.

      La seconde génération, Aider (open-source), Cline (également), Cursor, Claude CLI ou Codex CLI consistait à donner un accès direct à votre projet à l’IA, lui permettant de consulter et d’éditer le code ; soit intégré à un IDE, soit en ligne de commande.

      La troisième génération revient aux racines de la première, où l’interface entre l’utilisateur et l’IA est à nouveau un simple chat dans le navigateur. Mais cette fois, l’IA clone votre projet dans un environnement de développement virtualisé et travaille dans cet environnement. Vous pouvez la superviser, ou la laisser travailler quelques temps.

      C’est en tout cas ce que propose OpenAI avec Codex. L’annonce officielle :

      Today we’re launching a research preview of Codex: a cloud-based software engineering agent that can work on many tasks in parallel. Codex can perform tasks for you such as writing features, answering questions about your codebase, fixing bugs, and proposing pull requests for review; each task runs in its own cloud sandbox environment, preloaded with your repository.

      Traduction :

      Aujourd'hui, nous lançons un aperçu de recherche de Codex : un agent d'ingénierie logicielle basé sur le cloud qui peut travailler sur de nombreuses tâches en parallèle. Codex peut effectuer des tâches pour vous telles que l'écriture de fonctionnalités, répondre à des questions sur votre base de code, corriger des bogues et proposer des demandes de fusion pour révision ; chaque tâche s'exécute dans son propre environnement sandbox cloud, préchargé avec votre dépôt.

      OpenAI couple cette sortie avec un modèle spécialisé pour la programmation, codex-1, avec sa System Card (pas très intéressante, mais notons qu’elle a le mérite d’exister).

      La force de ce mode de fonctionnement est le parallélisme : vous pouvez demander à l’IA de travailler sur plusieurs choses à la fois, voire lancer plusieurs sessions pour la même tâche et choisir le meilleur résultat.

      Les réactions sont mitigées : la fiabilité n’est pas toujours au rendez-vous, mais quand elle l’est, le gain de temps est loin d’être négligeable. Et si vous avez les poches profondes, lancer plusieurs tentatives en parallèle est une bonne manière de pallier au manque de fiabilité.

      Google I/O 2025

      Google I/O est la conférence annuelle de Google, présentant leurs nouveaux produits. C’est à Google I/O 2008 qu’Android avait été présenté.

      Pour cette édition 2025, sans surprise, c’est l’IA qui est sur le devant de la scène.

      Sur la création audiovisuelle, tout d’abord :

      • Veo 3 est un modèle permettant de générer une vidéo (avec son).
      • Veo 2, la version précédente, gagne certaines capacités : en plus d’instructions textuelles, le modèle est maintenant capable de prendre des images ou une vidéo de référence, pour reprendre le style ou les détails d’un personnage (ou d’un objet, ou d’une scène). Un contrôle plus fin de la caméra (zoom/rotation) est également fourni à l’utilisateur.
      • La génération d’image du nouveau modèle d’OpenAI avait fait parler d’elle en mars dernier. Google propose sa propre solution avec Imagen 4.
      • Lyria 2 est un nouveau modèle de génération de musique (paroles comprises).

      Pour lutter contre les nouvelles possibilités de désinformation offertes par ces outils, Google lance également SynthID, un outil pour détecter les contenus multimédia générés par les modèles d’IA de Google (et seulement de Google). Sur invitation uniquement, Google craignant probablement qu’un acteur malicieux puisse juste modifier le contenu jusqu’à ce que SynthID réponde « non-IA » si l’outil est publiquement accessible.

      Sur les modèles plus classiques :

      • Gemini 2.5 Flash, une version plus légère, rapide, moins chère, et moins puissante de Gemini 2.5 Pro.
      • Jailbreaké immédiatement, ce que je ne prendrai pas la peine de noter s’il n’y avait l’ironie que ce jailbreak arrive le même jour que la présentation de Google DeepMind nommée « Advancing Gemini’s security safeguards ».
      • Gemma 3, le modèle open-weights, gagne plusieurs variantes pour des tâches plus spécialisées : Gemma 3n, pour tourner sur des smartphone ; MedGemma spécialisé dans la médecine ; SignGemma pour le langage des signes et… DolphinGemma pour communiquer avec les dauphins ?
      • L’annonce également d’un nouveau mode pour Gemini 2.5 Pro, Deep Think, consistant apparemment à lancer plusieurs chaînes de pensée en parallèle. Apparemment une bonne avancée sur les problèmes mathématiques, moins impressionnant sur d’autres tâches. Accessible sur invitation uniquement également.

      Sur les IA « agentiques », capables d’utiliser des outils pour réaliser des tâches variées :

      Également proposés : plus d’intégration de l’IA dans les services classiques de Google (Search, Mail, Chrome…). Un usage notable : traduction en temps réel dans Google Meet.

      Présenté quelques avant Google I/O, AlphaEvolve est un système pour découvrir de nouveaux algorithmes, utilisant Gemini en tant que sous-composant. L’utilisateur fournit une description textuelle du problème avec une solution naïve et une méthode pour évaluer un solution, et le système se charge de trouver de meilleurs algorithmes pour résoudre le même problème.

      Ce système a trouvé de meilleures solutions relativement à l’état de l’art sur plusieurs problèmes évalués, par exemple en découvrant un moyen de multiplier deux matrices 4x4 à l’aide de 48 multiplications scalaires au lieu de 49.

      Dans la catégorie innovations, Gemini Diffusion explore un paradigme entièrement différent pour les modèles de langage. Les modèles de langage actuels sont basés sur des transformeurs, suivant la méthode maintenant célèbre de « prédire le prochain token à partir des précédents ». Dans la génération d’image, c’est un paradigme complètement différent qui est suivi, celui de diffusion (qui a donné le nom au modèle StableDiffusion), où le modèle est essentiellement un modèle de « dé-bruitage » qui transforme une image bruitée en une image plus claire, et qui commence par du simple bruit blanc. Gemini Diffusion est une tentative d’adapter ce paradigme de « diffusion » à la génération de texte : un texte complet est présenté au modèle, et sa tâche est de l’« affiner » incrémentalement (où le texte initial est complètement aléatoire). Les premiers résultats sont encourageants, ce premier prototype arrivant au même niveau de capacités que Gemini 2.0 Flash.

      Anthropic publie Claude 4

      L’annonce officielle :

      Today, we’re introducing the next generation of Claude models: Claude Opus 4 and Claude Sonnet 4, setting new standards for coding, advanced reasoning, and AI agents.

      Claude Opus 4 is the world’s best coding model, with sustained performance on complex, long-running tasks and agent workflows. Claude Sonnet 4 is a significant upgrade to Claude Sonnet 3.7, delivering superior coding and reasoning while responding more precisely to your instructions.

      Traduction :

      Aujourd'hui, nous présentons la prochaine génération de modèles Claude : Claude Opus 4 et Claude Sonnet 4, établissant de nouveaux standards pour le codage, le raisonnement avancé et les agents IA.

      Claude Opus 4 est le meilleur modèle de codage au monde, avec des performances soutenues sur des tâches complexes et de longue durée ainsi que des flux de travail d'agents. Claude Sonnet 4 est une amélioration significative par rapport à Claude Sonnet 3.7, offrant un codage et un raisonnement supérieurs tout en répondant de manière plus précise à vos instructions.

      Tout comme Google et OpenAI, Anthropic se focalise sur la course aux agents, souligné par le choix des benchmarks présentés par Anthropic pour vendre leur modèle : « Agentic coding » (SWE-bench-verified), « Agentic terminal coding » (terminal-bench), « Agentic tool use » (TAU-bench). Claude Opus 4 donne un nouveau état de l’art sur tous ces benchmarks, tout en restant au niveau de l’état de l’art (OpenAI o3 / Gemini 2.5 Pro) sur les tâches plus classiques. Ne vous attendez pas à un gros bond en avant, il s’agit là d’une amélioration incrémentale, contrairement à ce que pourrait laisser penser la numérotation de version.

      À noter un benchmark sur lequel Claude 4 montre un gros progrès : LoCoDiff, qui cherche à mesurer la capacité des modèles à maintenir de bonnes performances sur un long contexte.

      Une bonne nouvelle : OpenAI o3 avait cassé la tendance « les modèles plus avancés hallucinent moins », où o3 hallucinait plus que ses prédécesseurs. Anthropic a réussi à éviter cet écueil, avec un taux d’hallucinations en baisse. En baisse également (sans pour autant disparaître), la tendance des modèles à « tricher ».

      L’événement le plus intéressant de cette publication se trouve principalement dans la politique de sécurité des modèles. N’ayant pu déterminer avec confiance que Opus 4 ne possédait pas de capacités dangereuses (telles que « capacité à aider significativement à la création d’armes chimiques/biologiques ») nécessitant des précautions supplémentaires (contrairement à Opus 3 ou Sonnet 4), Anthropic a décidé de mettre en place ces précautions (AI Safety Level 3 ou ASL-3), au moins provisoirement (le temps de déterminer plus précisément les capacités du modèle sur ces points), et pour Opus 4 uniquement. Ce qui signifie principalement : surveillance (automatisée) des requêtes et restrictions supplémentaires sur les requêtes acceptées. Pour plus de détails, je vous renvoie à la System Card et à la politique de sécurité des modèle d’Anthropic.

      Ce qui n’a pas empêché Opus 4 d’être jailbreak immédiatement. Pour la défense d’Anthropic, la System Card mentionne explicitement que le but de ces précautions supplémentaires n’est pas de rendre plus difficile le jailbreak sur les requêtes « classiquement » interdites.

      En vrac

      Chatbot Arena est l’un des benchmarks les plus connus, utilisé notamment comme critère d’arbitrage sur les marchés de prédiction. Sa pertinence est de plus en plus remise en question, où le classement ne semble pas réellement refléter les capacités des modèles, sur d’autres benchmarks ou des évaluations privées/subjectives. Un papier publié sur arXiv, The Leaderboard Illusion, analyse l’impact de certaines pratiques pouvant expliquer ces différences. Les mainteneurs de Chatbot Arena répondent sur Twitter.

      Le gouvernement américain ouvre une consultation publique sur la politique à suivre concernant l’IA.

      Un chiffre intéressant: Cursor, un assistant de code, produit actuellement 1 milliard de lignes de code par jour.

      DeepSeek publie DeepSeek-Prover-V2, un LLM spécialisé dans les preuves mathématiques. Surpasse tous les modèles actuels sur PutmanBench.

      Dans la sécurité des modèles, "Scalable Oversight" désigne la technique suivante : utiliser un modèle considéré comme sûr pour évaluer la sécurité d’un modèle plus sophistiqué. Se posent diverses questions comme : "jusqu’à quel point un modèle moins sophistiqué peut juger un modèle plus sophistiqué" ? Ce papier tente de répondre à cette question (et d’autres adjacentes).

      Google DeepMind met à jour son modèle le plus avancé, Gemini 2.5 Pro. De meilleures performances sur les tâches de programmation, mais au prix de moins bonnes sur… presque tout le reste ?

      Le Copyright Office aux US publie un premier brouillon sur l’utilisation de données publiques pour l’entraînement des IA. Verdict temporaire: c’est un usage transformatif (autrement dit: pas du plagiat), mais ne rentre pas dans la doctrine du « fair use » (ce qui permettrait aux développeurs d’IA de ne pas offrir de compensation). Une victoire préliminaire pour les créateurs de contenu s’estimant lésés. Cependant, le directeur du Copyright Office aurait été limogé peu après la publication de ce rapport.

      ARC-AGI-2 est publié. ARC-AGI est un benchmark spécialement conçu pour être dur pour les IA actuelles, se reposant principalement sur des tâches de type raisonnement visuel. Malgré ceci, o3 est arrivé à 75%, dépassant les performances des évaluateurs humains. Cette seconde édition tente un nouveau format mais garde le même objectif, « difficile pour l’IA, facile pour les humains ».

      Quelque chose que je n’ai pas couvert jusqu’ici car un point secondaire dans beaucoup d’annonces plus importantes, mais qui mérite sa mention du fait justement d’être aussi commun : MCP (Model Context Protocol) est une tentative d’uniformiser la communication entre un modèle et d’autres systèmes (IDEs, sites internet,…). Développé par Anthropic (les développeurs de Claude), adopté par OpenAI et Google DeepMind, il devient de plus en plus un standard de fait.

      Dans la série « l’IA fait de la recherche », des chercheurs font leur propre système, nommé Robin, où l’IA propose des hypothèses et des expériences pour les tester, les chercheurs réalisent les expériences, et l’IA se charge de l’analyse des résultats et des prochaines étapes (plus d’expériences, plus d’hypothèses, ou tirer une conclusion). Premier résultat : un candidat pour traiter la forme atrophique de la dégénérescence maculaire liée à l’âge.

      OpenAI o3 découvre une faille de sécurité dans Linux.

      Le mois dernier, nous avions brièvement mentionné que OpenAI 4o était flagorneur, au point d’opiner sur des prompts relevant manifestement de l’épisode psychotique. Un utilisateur anonyme explore la même tendance à un moindre niveau Opus 4, et travaille à mesurer ça plus précisément. Il mentionne que ses résultats préliminaires montrent que les modèles plus avancés ont plus tendance à exhiber ce comportement.

      Dario Amodei, le patron d’Anthropic, prévient que l’IA pourrait supprimer la moitié des postes « débutants » dans des domaines tels que la technologie, la finance ou le droit d’ici 1 à 5 ans.

      Pour aller plus loin

      Non couvert ici :

      En audio/video :

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      Agenda du Libre pour la semaine 24 de l'année 2025

      8 juin, 2025 - 21:02

      Calendrier Web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 46 événements (France: 41, internet: 4, Belgique: 1) est en seconde partie de dépêche.

      Sommaire

      Conférence OW2con'25, 17-18 juin à Paris

      5 juin, 2025 - 13:01

      La 16ᵉ édition d’OW2con rassemble des développeurs, entreprises, universitaires et organisations à but non lucratif. La conférence met également en lumière trois projets OW2 avec les "OW2con'25 Best Project Awards" distinguant des réussites dans plusieurs domaines : technologies, marché, communauté. L'inscription est gratuite et les conférences sont en anglais.

      Thème 2025 : L'IA open source et responsable

      Thème 2025 : L'IA open source et responsable

      Pour cette édition, les organisateurs mettent l'accent sur le thème de l'IA open source et responsable, en abordant des sujets tels que les biens communs, la souveraineté des données, la vie privée, l'explicabilité, le cadre juridique, la pile technique, le financement, la durabilité, la recherche, l'éducation, et l'impact sur le travail et la société. D'autres sujets seront abordés également : gouvernance et financement de l’open source, projets technologiques OW2 ou autres, cloud-edge, les données et la cybersécurité.

      Parmi les temps forts, 5 keynotes :

      • Artur Queiroz, Responsable d’Unité pour la Commission Européenne, partagera une vision prospective d’une Europe portée par l’IA ;
      • Yann lechelle, Fondateur de la startup Probabl.ai, fera une présentation autour du thème « Maitrisez votre IA » ;
      • Alberto Pace, Responsable au CERN, viendra parler de (r)évolution autour de la science des données ;
      • Matthieu Porte, Coordonnateur IA pour l’IGN, abordera les challenges liés à l’Intelligence Artificielle pour l’Institut National de l’information géographique.

      Des « breakout sessions » ponctueront les 3 jours :

      • Le CRA (Cyber Resilience Act) et son impact sur les acteurs open source, le 17 juin de 15h à 18h
      • L'open source dans l'éducation, la science et la recherche, le 18 juin, journée entière
      • Programme Européen NGI : "Success Stories" et NGI Innovators Meetup, le 18 juin, de 9h à 12h30

      Enfin, un débat animé par Clément Oudot de Worteks, sur le thème de “souveraineté et open source” en Europe viendra conclure cette édition 2025.

      Logistique

      Cela se déroulera comme chaque année dans les locaux d’Orange Gardens Innovation Center à Châtillon en banlieue parisienne. L'inscription est gratuite (voir le lien ci-dessous). Pour des raisons logistiques et de places limitées, si vous devez annuler votre présence, merci de nous prévenir pour libérer votre place).

      Sponsors

      L’édition 2025 est soutenue par 12 sponsors proches d’OW2 : Centreon, Dropsolid, Groupe BPCE, Huawei, Linagora, Linphone, MAIF, NGI, OnlyOffice, OpenUp, Thales et Worteks.

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      Nouveautés de juin 2025 de la communauté Scenari

      5 juin, 2025 - 11:50

      Scenari est un ensemble de logiciels open source dédiés à la production collaborative, publication et diffusion de documents multi-support. Vous rédigez une seule fois votre contenu et vous pouvez les générer sous plusieurs formes : site web, PDF, OpenDocument, diaporama, paquet SCORM (Sharable Content Object Reference Model)… Vous ne vous concentrez que sur le contenu et l’outil se charge de créer un rendu professionnel accessible et responsive (qui s’adapte à la taille de l’écran).

      À chaque métier/contexte son modèle Scenari :

      • Opale pour la formation ;
      • Dokiel pour la documentation ;
      • Optim pour les présentations génériques ;
      • Topaze pour les études de cas ;
      • et bien d’autres…

      Open Source Experience : REX de l'édition 2024 et appels en cours pour #OSXP2025

      4 juin, 2025 - 16:03

      Open Source Experience (OSXP), a lancé son appel à conférence pour sa 5e édition autour du thème « L’open source, clé de l’autonomie stratégique de l’Europe ». Profitons-en aussi pour faire l'appel à stand du village associatif ainsi qu'un (petit) retour sur la quatrième édition qui s'est tenue les 4 et 5 décembre derniers au Palais des Congrès de Paris. L'événement était cette fois couplé à DevOpsREX qui a fait son grand retour. Et encore une fois, nous étions là pour vous rencontrer, interagir avec la communauté et vous faire plaisir !

      Cette année, Open Source Experience déménage à la Cité des Sciences et de l'Industrie, porte de la Villette (toujours à Paris) et se tiendra les 10 et 11 décembre 2025. Cela nous permettra d'avoir quelques stands de plus pour le village associatif !

      Sommaire

      (Début de) la fin de Windows (10)

      3 juin, 2025 - 14:56

      La prise en charge de Windows 10 se termine le 14 octobre 2025, forçant ses utilisateurs à passer à Windows 11 qui requiert des performances beaucoup plus élevées tout en poursuivant la prise de contrôle de ses utilisateurs.

      La campagne « End of 10 » (fin de [Windows] 10) initiée il y a quelques mois vise à dénoncer le gaspillage de ressources (en forcant le remplacement anticipé de machines), et incite à un passage à Linux.

      Le lancement de la campagne sur les réseaux sociaux (i.e. Mastodon) a démarré le 28 mai.

      De bonnes raisons

      La campagne est axée sur cinq arguments principaux :

      • les économies financières : pas de coût de licence, pas d'obligation de renouveler son matériel de manière anticipée.
      • l'amélioration du respect de la vie privée : s'affranchir des publicités et logiciels espions intégrées de force dans Windows.
      • l'écologie : éviter un remplacement d'ordinateur a un impact carbone direct.
      • bénéficier d'un support adapté : communautaire ou professionnel, en ligne ou en physique.
      • reprendre contrôle de son ordinateur : bénéficier des libertés des logiciels libres pour utiliser votre ordinateur comme vous le souhaitez.
      La philosophie de la campagne

      La campagne est née du groupe de travail KDE Eco réfléchissant sur les impacts environnementaux des logiciels, cependant il est important de noter que dans le cadre de cette campagne la communication doit promouvoir « Linux » de manière générale et non promouvoir telle ou telle distribution. L'objectif premier est de quitter Windows.

      Le partage sur les réseaux sociaux vise à faire connaître l'initiative de manière plus large, cependant le succès est principalement attendu en s'appuyant sur des acteurs locaux existant : cafés réparation, boutiques informatiques, …

      Le site de la campagne fourni à la fois un registre des lieux et des dates où il est possible de se renseigner et se lancer. Plusieurs dizaines de possibilités ont déjà été ajoutées.

      Participer !

      De nombreuses façons de participer sont possibles :

      • prendre contact avec les structures locales (repair cafés, GULL, associations, …)
      • aider lors d'une install party ou en organiser une près de chez vous (et déclarer l'évènement sur le site)
      • en parler avec vos proches
      • relayer les messages Mastodon

      Microsoft a ouvert la porte pour faire de 2025 l'année Linux ! À nous de mettre le pied dans la fenêtre !

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      20 ans de Fedora-fr : septième entretien avec Johan ancien contributeur à Fedora-fr

      3 juin, 2025 - 14:53

      Dans le cadre des 20 ans de Fedora-fr (et du Projet Fedora en lui-même), Charles-Antoine Couret (Renault) et Nicolas Berrehouc (Nicosss) avons souhaité poser des questions à des contributeurs francophones du Projet Fedora et de Fedora-fr.

      Grâce à la diversité des profils, cela permet de voir le fonctionnement du Projet Fedora sous différents angles pour voir le projet au delà de la distribution mais aussi comment il est organisé et conçu. Notons que sur certains points, certaines remarques restent d'application pour d'autres distributions.

      N’oublions pas que le Projet Fedora reste un projet mondial et un travail d’équipe ce que ces entretiens ne permettent pas forcément de refléter. Mais la communauté francophone a de la chance d’avoir suffisamment de contributeurs et des contributrices de qualité pour permettre d’avoir un aperçu de beaucoup de sous projets de la distribution.

      Chaque semaine un nouvel entretien sera publié sur le forum Fedora-fr.org, LinuxFr.org et le blog de Renault.

      L'entretien du jour concerne Johan Cwiklinski (pseudo trasher), ancien contributeur de Fedora-fr.org et actuel mainteneur du logiciel de gestion Galette.

        Sommaire

        Bonjour Johan, peux-tu présenter brièvement ton parcours ?

        Je suis principalement développeur (PHP, Python, Java), et un peu administrateur système - complètement autodidacte. J'ai découvert le monde de GNU/Linux en 1998 en achetant avec deux camarades de fac une distribution Red Hat 5.2 :D

        Ce n'est que quelques années plus tard, en 2002, que je reviendrai à Linux ; rapidement comme OS principal. J'ai testé durant cette période différentes distributions comme Red Hat, Fedora, Mandrake et Ubuntu - pour revenir définitivement à Fedora en 2006.

        Peux-tu présenter brièvement tes contributions au projet Fedora ?

        J'ai traduit de la documentation et des logiciels pour le projet.
        J'ai rédigé de la documentation pour le projet officiel (un peu) et pour le communauté francophone (beaucoup plus).
        J'ai rédigé des articles pour des magazines divers.
        J'ai empaqueté et maintenu différents logiciels dans les dépôts.
        J'ai participé à la mise en place et maintenance de certaines versions du site internet de la communauté francophone.
        J'ai participé à plusieurs salons informatiques dans le Nord ainsi qu'à Paris et à Bruxelles (FOSDEM), avec d'autres contributeurs francophones de l'époque.
        J'ai été responsable de la mise en place de la documentation "Fedora-fr" pendant plusieurs années.

        J'ai mis en place avec l'aide d'autres contributeurs différents canaux pour apporter des contributeurs francophones à participer au packaging sur Fedora - via la rédaction d'une documentation assez complète, des présentations lors d'évènements sur Paris, un canal IRC dédié, …,

        Et j'ai aidé à monter l'association "Fedora-fr" - pour laquelle j'ai été trésorier la première année d'existence.

        Qu'est-ce qui fait que tu es venu sur Fedora et que tu y es resté (si tu t'en sers encore) ?

        Alors, oui, je tourne encore sous Fedora ; que ce soit sur mon ordinateur personnel ou celui du boulot. J'ai même une Fedora sur un serveur dédié que j'administre

        Nouvelle version de NumCalc, la calculatrice scientifique en ligne de Fabrice Bellard

        3 juin, 2025 - 12:55

        Fabrice Bellard vient de mettre à jour NumCalc, sa calculatrice scientifique et graphique en ligne, qui utilise maintenant un nouveau code indépendant de QuickJS (je vous renvoie à la dépêche qui abordait cette question).

        Le nouveau code est un mix entre Javascript, Python et Julia. Le code Javascript utilise la bibliothèque LibBF (MIT). L'interface a été retravaillée mais reste minimaliste pour être pratique et légère. Elle est devenue responsive et s'affiche très bien sur un mobile. Elle accepte maintenant des entrées en syntaxe Calc et Javascript.

        NumCalc est rapide, ça m'a impressionné. La réactivité vient aussi du navigateur et de l'ordinateur puisque tout se passe sur votre poste, rien n'est envoyé au serveur. C'est surtout une sensation. Par exemple l'application Qalculate! me parait moins nerveuse, comme on dit d'une voiture. Bref, NumCalc est agréable.

        Les deux précédentes versions sont toujours disponibles.

        Télécharger ce contenu au format EPUB

        Commentaires : voir le flux Atom ouvrir dans le navigateur

        Revue de presse de l’April pour la semaine 22 de l’année 2025

        3 juin, 2025 - 09:17

        Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

        Photos et traces gps dans un blog statique

        2 juin, 2025 - 13:51

        Cette dépêche va présenter une méthode pour afficher sur un site personnel les traces, récits et photographies de balades (pédestres, cyclistes par exemple).

        Comme le contenu à afficher est diversifié (texte, photographies, cartes), la solution retenue sera un blog. Dans un soucis de sobriété numérique, le site sera sans base de données.

        Pour l'aspect esthétique, la barre de navigation et les cartes seront situées dans la partie gauche des pages et surtout, la carte ne bougera pas avec la navigation dans la page.

          Sommaire

          N'ayant pas trouvé d'alternative libre à Polarstep, la solution retenue se base sur les briques logicielles libres suivantes :

          • un moteur de blog static : pelican (AGPL v3.0)
          • des thèmes pour le blog
          • des bibliothèques cartographiques : leaflet (BSD 2)
          1 - Préparation de pelican

          Pelican propose d'écrire chaque billet de blogs dans un fichier texte indépendant (au format markdown ou reStructuredText).

          Pelican les convertit en html et l'organisation du site ainsi généré (catégories, mots-clefs, archivage) se fait par le biais de gabarits (qui sont dans un sous-répertoire templates)

          a) Le moteur

          L'installation ne sera pas développée ici, pelican étant disponible dans de nombreuses distributions.

          Il faut créer la structure de travail (dans le répertoire personnel de notre choix) :

          pelican-quickstart b) Installation du thème graphique

          En allant sur le dépôt des thèmes de pelican, il est possible de trouver le style graphique qui nous convient le mieux.

          Nous allons utiliser le thème pelican-blue (sous licence MIT 2.0), qui a l'avantage d'être simple, et commençons son installation :

          • création du répertoire theme dans notre structure de travail
          • décompression de l'archive du thème dans le répertoire « theme »
          • modification du fichier pelicanconf.py pour configurer notre site. Il faut adapter quelques variables :
          SITENAME = 'Mon blog' SITEDESCRIPTION = 'Mes souvenirs de vacances' THEME = "./theme/pelican-blue" STATIC_PATHS = ['images', 'gpx']
          • modifications propres au thème. Souvent l'auteur d'un thème propose de le personnaliser à partir de variables déclarées dans le fichier de configuration.
          c) Écriture du premier billet

          On va créer notre premier billet

          Title: Première sortie Date: 2025-05-01 Modified: 2025-05-01 Category: Lieux Slug: depart Tags: bonjour, balade Bonjour tout le monde ! Quelle chouette sortie j'ai faite. d) Génération de notre site

          On lance la première compilation :

          make clean make html

          On peut voir le résultat :

          • soit en ouvrant directement le fichier index.html (présent dans le répertoire output)
          • soit en lançant un mini serveur web (make serve) et lancer son navigateur web à l'adresse http://localhost:8000/

          Pour plus de renseignements sur pelican, je vous invite à vous rendre sur la documentation du projet.

          2 - Peaufinage de base

          On va maintenant nettoyer le code des gabarits, en supprimant les choses que l'on trouve inutiles ou qui nous déplaisent. Tout se passe dans le répertoire templates de notre thème.

          • il y a les fichiers analytics.html et disqus.html
          • une recherche par mot nous informe des éventuelles références à Google, Twitter, Facebook

          On supprime les parties qui ne nous conviennent pas.

          3 - Gestion cartographique

          Nous attaquons désormais notre objectif : rendre visibles sur des cartes des fichiers de trace.

          a) Gestion des cartes

          On va maintenant configurer la gestion des cartes, par l'intermédiaire de leaflet. Comme l'indique sa page wikipédia, leaflet est très largement utilisé et très pratique.

          On va donc

          • le télécharger,
          • le décompresser dans le répertoire static de notre thème
          • modifier les entêtes de nos gabarits (cela se fait le plus souvent dans le fichier base.html) pour y ajouter au niveau <head> les références à leaflet :
          <link rel="stylesheet" href="{{ SITEURL }}/theme/leaflet/leaflet.css" integrity="sha256-p4NxAoJBhIIN+hmNHrzRCf9tD/miZyoHS5obTRR9BMY=" crossorigin=""/> <script src="{{ SITEURL }}/theme/leaflet/leaflet.js" integrity="sha256-20nQCchB9co0qIjJZRGuk2/Z9VM+kNiyxNV1lvTlZBo=" crossorigin=""></script>

          Comme on a récupéré en local les fichiers, on met des chemins propres à notre arborescence (via {{ SITEURL }}/theme/).

          b) Gestion des fichiers de trace (gpx)

          Elle va se faire par l’intermédiaire d'un module supplémentaire https://github.com/mpetazzoni/leaflet-gpx (BSD 2).

          De la même manière qu'on a intégré dans nos entêtes l'intégration de leaflet, nous allons ajouter une ligne pour faire référence à leaflet-gpx (bien vérifier le nom du fichier javascript) :

          <script src="{{ SITEURL }}/theme/leaflet-gpx/gpx.js"></script>

          Par rapport à la documentation officielle, on retire l'attribut defer (puisque nous utilisons les fichiers locaux et non distants).

          Pour tester notre environnement, on va déposer dans notre répertoire gpx un fichier de trace, puis on va ajouter dans notre billet les éléments de cartographie de notre voyage :

          <div id="map" style="width: 600px; height: 400px;"></div> <script> var map = L.map('map'); L.tileLayer('http://{s}.tile.openstreetmap.org/{z}/{x}/{y}.png', { attribution: 'Carte et données : <a href="http://www.osm.org">OpenStreetMap</a>' }).addTo(map); var gpx = '/gpx/FICHIER.gpx'; new L.GPX(gpx, {async: true}).on('loaded', function(e) { map.fitBounds(e.target.getBounds()); }).addTo(map); </script>

          On regénère notre site web, et on peut visualiser notre billet

          Globalement, ça fait le boulot.

          Mais on peut améliorer la chose : on peut par exemple cacher les marques de début et de fin d'itinéraire en insérant la ligne suivante après le async: true

          markers: {startIcon: null, endIcon: null, }

          Mais surtout, nous souhaitons que pelican génère automatiquement la partie consacrée au fichier de trace (alors que dans notre test, nous avons dû l'ajouter nous-même) !

          c) Modification des gabarits

          Si l'on veut simplement ajouter notre fichier de trace et que notre gabarit le traite, on va ajouter cette information dans les entêtes de notre fichier markdown ! En effet pelican permet de créer des variables qui seront utilisables dans nos gabarits.

          Nous allons donc créer et utiliser une variable (qui s'appellerait… Gpx par exemple), qui stockera le nom du fichier gpx à afficher (les chemins sont relatifs à notre site web)

          Title: Première sortie Date: 2025-05-01 Modified: 2025-05-01 Category: Lieux Gpx: /gpx/monfichier.gpx Slug: depart Tags: bonjour, balade

          Nous modifions ensuite notre gabarit article.html pour qu'il génère la carte à partir de notre variable.

          Pelican est très souple : basé sur Jinja2, il permet les boucles, les conditions et les variables.

          Tous les éléments qu'il utilise sont insérés dans des accolades. Le fonctionnement est facilement lisible et compréhensible.

          On va donc conditonner (avec if) l'insertion de leaflet.

          {% if article.gpx %} <div id="map" style="width: 600px; height: 400px;"></div> <script> var map = L.map('map'); L.tileLayer('http://{s}.tile.openstreetmap.org/{z}/{x}/{y}.png', { attribution: 'Carte et données : <a href="http://www.osm.org">OpenStreetMap</a>' }).addTo(map); var gpx = '{{ article.gpx }}'; new L.GPX(gpx, {async: true, markers: {startIcon: null, endIcon: null, } }).on('loaded', function(e) { map.fitBounds(e.target.getBounds()); }).addTo(map); </script> {% endif %}

          Bien entendu, nous supprimons ces références du fichier markdown correspondant à notre billet de test.

          On regénère notre site web, et on peut visualiser notre billet… qui n'a pas changé : tout fonctionne. Pour chacune de nos sorties, il suffit donc d'indiquer le fichier de trace dans les entêtes pour que la carte soit insérée automatiquement dans notre billet.

          Passons maintenant à l'intégration de nos photos.

          4 - Gestion des photographies associées à notre cartographie

          Nous avons besoin :

          • d'une image
          • de ses coordonnées géographiques (latitude et longitude)

          Pour cela, nous allons procéder de la même manière que pour le fichier trace : nous allons créer et utiliser des variables dans les entêtes des fichiers markdown.

          a) Fichier des billets

          Nous modifions encore une fois les entêtes en ajoutant autant d'informations (image, latitude et longitude) que de photos à afficher en miniatures.

          Title: Première sortie Date: 2025-05-01 Modified: 2025-05-01 Category: Lieux Gpx: /gpx/monfichier.gpx Slug: depart Img: /images/image1.jpg Lat: 49.895517 Lon: 2.295983 Img: /images/image2.jpg Lat: 49.89443 Lon: 2.30137 Tags: bonjour, balade

          On remarque ici que l'on a mis plusieurs images avec les mêmes noms de variables.

          b) Modification des gabarits

          Nous allons ensuite modifier les gabarits de pelican pour qu'ils positionnent des miniatures des photos sur notre trajet.

          Nous allons à nouveau modifier notre fichier article.html, en y ajoutant (à la suite de notre précédente modification, dans la condition {% if article.gpx %}) le code suivant :

          Nous commençons par indiquer l'icône qui s'affichera sur la carte à chaque photo mise en valeur

          var MonIcone = L.icon({ iconUrl: '/images/app-photo.png', iconSize: [36, 36] });

          Puis nous codons l'affichage du marqueur (qui sera géré par leaflet).

          {% if article.img %} {% if article.img is string %} imageTxt = 'Description'; L.marker([{{ article.lat }}, {{ article.lon }}], {icon: MonIcone}).bindPopup(imageTxt + '<br><img src="{{ article.img }}" width="200px"><a href="#bal5">plus de détail</a>').addTo(map); {% else %} {% for n in range(article.img| length) %} imageTxt = 'Description'; L.marker([{{ article.lat[n] }}, {{ article.lon[n] }}], {icon: MonIcone}).bindPopup(imageTxt + '<br><img src="{{ article.img[n] }}" width="200px"><a href="#bal5">plus de détail</a>').addTo(map); {% endfor %} {% endif %}

          La difficulté réside dans la gestion des éléments répétitifs :

          • s'ils sont plusieurs, on peut utiliser les méthodes python des listes.
          • s'il n'y en a qu'un seul, cette méthode renvoie toutes les lettres de notre variable ! Il a donc fallu tester si celle-ci est une chaine de caractères ou une liste.

          Les choix sont ici purement personnels ou démonstatifs :

          • on a laissé une variable imageTxt en dur, elle pourrait être passée dans les entêtes de nos fichiers markdown
          • le texte du popup peut être adapté (on pourrait y ajouter un lien direct vers notre image par exemple)
          • le lien (ancre) est à créer dans notre fichier markdown
          • la taille de l'image du popup est en dur (on peut passer par une feuille de style css)

          On regénère notre site web, et on peut visualiser notre billet :

          Et lorsqu'on clique sur une icône d'appareil photo, on voit bien notre popup :

          c) Gestion des photographies

          Comme indiqué plus haut, la taille des miniatures affichées peut se gérer :

          • par CSS
          • ou créer des miniatures (avec imagemagick) pour diminuer la charge de notre serveur (afficher une photo de 3000 pixels à 200 pixels n'est pas optimal). Dans ce cas, il suffira d'adapter notre gabarit pour lui indiquer où aller chercher les petites images (/images/miniatures/ par exemple)

          Par contre, le point le plus compliqué est la gestion des coordonnées des photographies : il faut les rentrer à la main !

          • Pour les photographies qui n'intègrent pas les coordonnées dans leurs métadonnées, il n'y a pas d'autre solution que d'aller chercher sur une carte (openstreetmap par exemple) et de trouver le lieu de la prise de vue et de repérer les coordonnées.

          • Pour les photographies qui contiennent leurs coordonnées géographiques, on peut utiliser l'outil exiftool pour les récupérer. On peut éventuellement faire un script bash qui affiche les lignes d'entête pour notre billet (on n'a plus qu'à les recopier ou les rediriger vers un fichier texte) :

          for photo in $(ls ./content/images); do echo "" echo "Img: /images/"$photo LAT=$(exiftool -n -s3 -gpslatitude ./content/images/$photo) echo "Lat: "$LAT LONG=$(exiftool -n -s3 -gpslongitude ./content/images/$photo) echo "Lon: "$LONG done

          Nous avons utilisé les options -n qui affichent les valeurs numériques au format décimal (celui utilisé par openstreetmap pour les coordonnées) et -s3 pour avoir la valeur du champ sans le nom de son attribut.

          5) Dernières modifications

          Nous venons de voir les différentes techniques qui permettent d'avoir le rendu que nous souhaitions. Et le résultat est déjà agréable à regarder.

          Nous pourrions nous arrêter ici, mais vous voulons que la carte reste en permanence dans le menu latéral. La solution est de la mettre dans une balise <aside>.

          a) Modifier les gabarits

          Notre thème comporte déjà une telle balise : elle est dans le fichier base.html… ce qui signifie qu'il ne peut pas voir les informations sur les articles (donc nos entêtes) !

          La solution va donc consister à déplacer, à l'intérieur du fichier article.html, tout notre code dans une section (que nous appellerons mamap :

          {% block mamap %} Mettre ici tout le code sur notre gestion cartographique {% endblock %}

          Et dans le fichier base.html, on va insérer à l'intérieur des balises <aside> son appel (qui ne tient que sur deux lignes) :

          {% block mamap %} {% endblock %} b) Ajuster les feuilles de style

          Il faut surcharger le comportement de la carte gérée par leaflet :

          .leaflet-container { width: 400px; height: 300px; max-width: 100%; max-height: 100%; margin: auto; }

          Et vérifier que les largeurs de la carte, et de <aside> soient compatibles.

          Le résultat avec nos dernières modifications est désormais le suivant

          6) Conclusion

          Il est temps de finir cette dépêche, dans laquelle nous avons pu découvrir la souplesse et la richesse des gabarits gérés avec jinja2, ainsi que la facilité d'utilisation de leaflet.

          Désormais, dans notre flux de travail, nos répertoires sont organisé ainsi :

          content + gpx : les fichiers de trace + images : les photos que l'on veut afficher sur notre blog fichierXX.md : les billets output : notre site web (généré par pelican) theme + pelican-blue : le thème choisi + static + css + leaflet + leaflet-gpx + templates

          Et la rédaction de nos billets consiste à :

          • ajouter le fichier gpx de notre trace dans les entêtes
          • ajouter les informations sur chaque photo que l'on veut voir (toujours dans les entêtes)
          • écrire notre billet normalement (en y ajoutant éventuellement d'autres photos ou des ancres de navigation)

          Cette dépêche démontre qu'il est possible d'avoir, avec les outils actuels, un rendu intéressant pour partager ses sorties. Et totalement utilisable en auto-hébergement.

          Les outils utilisés sont très personnalisables et je vous invite à lire leurs documentations ou à parcourir leurs extensions respectives et de vous les approprier selon votre usage.

          Malheureusement, la solution présentée ne conviendra qu'à une minorité d'utilisateurs. En effet, elle se base sur des éléments qui sont le plus souvent rendus invisibles (site web, transfert de fichiers, métadonnées) et elle est inutilisable sur téléphone.

          Télécharger ce contenu au format EPUB

          Commentaires : voir le flux Atom ouvrir dans le navigateur

          Netvibes.com au rancart, Pétrolette au rendez-vous

          1 juin, 2025 - 21:01

          « J'étais tranquille j'étais peinard / je réparais ma mobylette » / la nouvelle a surgi le soir / un truc pas vraiment super-chouette… » Eh oui, le couperet est tombé, les utilisateurs de l'agrégateur de flux Web Netvibes.com ont reçu le 15 avril un courriel de Dassault Systèmes leur annonçant que leur agrégateur préféré aller se désagréger définitivement dans l'atmosphère le 2 juin 2025 à midi, avec toutes leurs données, tel un Starship numérique. Si l'on en croit le début du message, cela est lié au développement d'un nouveau service de l'entreprise nommé 3D UNIV+RSES, avec plein d'IA et tout et tout. Le courriel d'avertissement indique certes comment sauvegarder ses données, mais « et maintenant, Papa / C'est quand qu'on va où ? »

          Sommaire Good vibrations 2.0 ou le cubisme informationnel

          Netvibes.com, lancé par une start-up en 2005 et racheté par Dassault Systèmes en 2012, était un lecteur en ligne permettant d'afficher les flux RSS ou Atom dans des petits cadres qu'on pouvait regrouper dans des onglets thématiques. Chaque cadre était configurable (longueur, affichage d'images ou non…) et déplaçable facilement. Les flux se mettaient automatiquement et régulièrement à jour. On pouvait aussi ajouter de petites applications (listes de choses à faire, accès courriels, accès à différents réseaux sociaux, etc.). Wikipedia décrit Netvibes.com comme « un portail Web personnalisable. Représentatif de ce qu'on appelle le Web 2.0 ». En tout cas, c'était un très bon outil de veille que j'utilisais tous les jours depuis belle lurette.

          Lancé en 1990, donc à peu près en même temps que le World Wide Web, le Courrier international nous permettait d'avoir accès à une pluralité de points de vue issus des journaux du monde entier. Un agrégateur de flux, c'est un peu l'équivalent informatique. Il permet un véritable cubisme informationnel. Avoir un onglet News agrégeant des flux de journaux d'horizons politiques différents et de plusieurs pays, c'est échapper à la bulle informationnelle, à la ségrégation sociale créée par les grands réseaux sociaux commerciaux. Car observer depuis le point de vue d'autrui est un bon exercice, même si ça peut parfois être désagréable comme du poil à gratter. Enfin, avec un agrégateur, l'algorithme c'est vous : votre œil survole l'ensemble des titres et capte au vol ce qui l'intéresse ou le surprend.

          J'ai rencard avec Pétrolette

          L'outil libre qui se rapproche le plus de Netvibes.com est Pétrolette, « la page d'actus qui ne sait rien de toi », développée par YPhil en JavaScript. Comme son nom l'indique, Pétrolette n'est pas un gros SUV qui fait tout, même le café, mais une application libre qui essaie de faire au mieux une seule chose : afficher des flux Web dans des cadres classés dans des onglets. Donc disons le tout de suite, il faut oublier les éventuelles autres applications que vous utilisiez dans Netvibes. D'après son CHANGELOG, Pétrolette est en version 1.7 depuis l'été 2023. Le GitLab de Pétrolette est indiqué comme étant un miroir de son Framagit mais est en fait plus à jour, la dernière activité remontant à Noël 2024. C'est là que le développement se passe.

          D'après le compte Mastodon de Pétrolette, suite à des problèmes d'hébergement, l'instance principale est depuis décembre 2024 https://petrolette.onrender.com/ bien que celle-ci soit considérée comme temporaire. Les plus admin pourront bien sûr héberger leur propre instance, soit en local soit sur le Web, par exemple sur https://place.de.ma.mob/ si le domaine n'est pas déjà réservé.

          Procédure migratoire

          Par défaut, quand on va sur l'instance principale, qui est une instance partagée, on a un certain nombre d'onglets pré-remplis, avec en tout plus de trois cents flux. On peut les personnaliser (ce sera stocké en local), mais ce qui nous intéresse ici, c'est migrer de Netvibes à Pétrolette. Voici la procédure :

          • Dans Netvibes.com, sauvegarder ses données en allant dans « Compte > Sauvegarder vos données », choisir le tableau de bord, cliquer sur Exporter (fichier XML).
          • Dans Pétrolette, supprimer tous les onglets par défaut (croix rouges), importer le XML avec « Flux > Ouvrir ».
          • Tous les onglets et flux sont récupérés. Le titre d'un flux apparaîtra quand on clique sur son icône pour le déployer.
          • Déplier et configurer chaque flux (mais on devrait éventuellement aussi pouvoir travailler à partir du .conf pour réduire ce travail fastidieux).

          La configuration est stockée localement sur l'ordinateur et non pas en ligne (on n'a donc pas de compte Pétrolette, donc elle « ne sait rien de toi », elle ne sait pas ce que tu lis). On peut l'exporter dans un fichier .conf au format JSON et l'importer sur un autre PC pour avoir la même configuration.

          Synchronisation ?

          Mais une telle synchronisation manuelle n'est pas idéale et l'application peut utiliser le protocole remoteStorage pour pouvoir partager la même configuration sur plusieurs PC, et en particulier vers l'application 5apps. D'après l'aide, l'instance principale de Pétrolette ne gère que 5Apps (mais le menu affiche également des icônes pour Dropbox et Google Drive, qu'on devrait donc pouvoir utiliser si on héberge sa propre instance).

          On peut s'enregistrer sur 5apps à partir d'un compte GitHub, Bitbucket, GitLab.com ou en se créant un compte (adresse email, identifiant, mot de passe). 5apps vous fournit une « adresse utilisateur » du type login@5apps.com. On peut alors aller dans le menu de Pétrolette, cliquer sur remoteStorage et entrer l'adresse utilisateur pour faire la connexion. Il n'y a plus qu'à autoriser Pétrolette à y accéder et faire de même sur tous vos PC. Pour cela, sur chaque machine, connectez-vous à votre compte 5apps puis dans la liste des « Connected Apps », cliquez sur le lien petrolette.onrender.com, dont l'URL est du type https://5apps.com/rs/oauth/token/123d3215c5484b9a78987e8/launch_app.

          Nouveaux développements

          Ça c'est la théorie, dans la pratique la synchronisation semble problématique, avec un fonctionnement très capricieux, et après discussion avec l'auteur il pourrait bien s'agir d'un bug où l'application s'emmêlerait les pinceaux entre stockage local et stockage distant. C'est la mauvaise nouvelle. La bonne nouvelle (scoop !) c'est que ça pourrait être résolu dans une future Pétrolette 2 à laquelle réfléchit l'auteur !

          Voilà une bonne raison de réfléchir à l'invitation à faire un don au projet Pétrolette dans la fenêtre pop-up qui surgit de temps en temps. Il est en effet possible de faire un don sur Liberapay ou de prendre un abonnement sur Ko-fi : à partir de 1 €/mois le pop-up disparaît. Au-delà, on peut demander à l'auteur de créer un nombre plus ou moins important de flux RSS pour des sites qui n'en proposent normalement pas. Rappelons-nous que dans surveillance://, Tristan Nitot nous avertissait sur notre fâcheuse tendance à aimer la gratuité.

          Retour d'expérience

          Commençons par les points négatifs, ce qui nous permettra de finir sur le positif !

          Points négatifs
          • Lenteur pour mettre à jour les flux : quand on affiche sa page Pétrolette, tous les flux sont mis à jour simultanément, c'est-à-dire même dans les onglets qui ne sont pas affichés.
          • Pas de mise à jour périodique des flux. On peut certes les mettre à jour individuellement en cliquant sur une icône. Mais malheureusement, recharger la page avec F5 permet certes de mettre à jour tous les flux mais nous remet systématiquement sur le premier onglet. Pétrolette 2 proposera peut-être des fonctionnalités pour faciliter les mises à jour des flux.
          • N'affiche pas l'heure de parution des actualités, contrairement à Netvibes. Mais la date et l'heure sont indiquées dans la fenêtre d'aperçu quand on survole un titre.
          Points positifs
          • Les aperçus du texte qui apparaissent au survol de la souris sont plus longs qu'avec Netvibes, et même parfois très longs, ce qui permet d'avoir un bon aperçu du contenu avant un éventuel clic, voire même de s'en passer.
          • La hauteur (en pixels) des cadres peut être réglée plus finement qu'avec Netvibes (où seules trois hauteurs standards étaient disponibles). Cela peut d'ailleurs être utilisé pour augmenter la distance verticale entre deux cadres, ceux-ci étant par défaut collés de façon un peu compacte.
          • Les titres longs apparaissent en entier sur plusieurs lignes, alors qu'ils sont coupés dans Netvibes. Cela peut-être un avantage mais parfois aussi un défaut avec certains sites qui proposent des titres à rallonge (du genre trois lignes sur Developpez.com !) que l'oeil a du mal à lire au vol.
          • Le menu principal propose de déposer un marque-page dans la barre du navigateur. Il contient un script qui d'un clic ajoutera le site de l'onglet courant dans votre Pétrolette.
          • Le champ de recherche permet de chercher un terme dans tous les titres de l'ensemble des onglets. Les zones où il est trouvé apparaissent encadrées en jaune.
          Prêts pour l’équipée sauvage ?

          « Dès que les vents tourneront nous nous en allerons… » Il le faudra bien, le 2 juin tout s'arrête. Et donc tout recommence. On a maintenant toutes les réponses à la question synthétique et sympathique « c'est quand qu'on va où ? » Quand ? On le sait depuis le début et on l'a répété, c'est le 2 juin ! Où ? On espère y avoir apporter une réponse dans cette dépêche.

          Et puis à l'heure où les algorithmes profiteurs des réseaux sociaux commerciaux tendent à enfermer l'utilisateur dans sa bulle informationnelle au seul motif d'optimiser les profits et où les moteurs IA sapent la sérendipité du Web, se balader humblement en mobylette RSS devient une véritable mesure d'hygiène mentale. En plus c'est libre.

          Figure 1 - « Quand j’me balade en mobylette / On dirait l’équipée sauvage ». Ouais, ça carbure librement avec « La Pétrolette » (Duncan & Suberbie, 1895 - 1898) [source : Wikimedia, domaine public].

          Télécharger ce contenu au format EPUB

          Commentaires : voir le flux Atom ouvrir dans le navigateur