Kagi search engine now has a Fediverse search option.


I apologize if this is old news, but I just noticed it. It looks like Kagi has added Fediverse Forums as a default Web search option.
This entry was edited (3 months ago)

Has anyone else questioned their choice of computers for running Linux?


3 years ago I needed a new computer and decided on an 16 inch M1 Macbook Pro, but did lots of overthinking about if I wanted to stick to it. I tried Asahi Linux didn't have any reasons at the time to use linux over macOS (but there was always the chance I might later), the build quality is 2nd to none, none of my Windows laptops lasted more than a few years.

3 years later, I've really been itching to switch to Linux. Two of several reasons: because its DEs are more customizable, it has better documented accessibility APIs if you want to make keyboard navigation software. I reinstalled Asahi Linux and really tried to make it my daily driver, but the lacks of apps would require me to dual boot: Photoshop and Roblox.

I researching again for computers closest to Macbook Pros but none of them come close to its build quality. I think it would be best for me to make my own desktop PC for linux. I don't think I'd fare well with another windows laptop brand.

Best rootless remote X solution?


Edit: rootless in this context means the remote windows appear like local windows; not in a big "desktop" window. It's nothing to do with the root account. Sorry, I didn't come up with that confusing term. If anyone can think of a better term let's use that!

This should be a simple task. I ssh to a remote server. I run a GUI command. It appears on my screen (and isn't laggy as hell).

Yet I've never found a solution that really works well in Linux. Here are some that I've tried over the years:

  • Remote X: this is just unusably slow, except maybe over a local network.
  • VNC: almost as slow as remote X and not rootless.
  • NX: IIRC this did perform well but I remember it being a pain to set up and it's proprietary.
  • Waypipe: I haven't actually tried this but based on the description it has the right UX. Unfortunately it only works with Wayland native apps and I'm not sure about the performance. Since it's just forwarding Wayland messages, similar to X forwarding, and not e.g. using a video codec I assume it will have similar performance issues (though maybe not as bad?).

I recently discovered wprs which sounds interesting but I haven't tried it.

Does anyone know if there is a good solution to this decades-old apparently unsolved problem?

I literally just want to ssh <server> xeyes and have xeyes (or whatever) appear on my screen, rootless, without lag, without complicated setup. Is that too much to ask?

This entry was edited (2 months ago)
in reply to Possibly linux

WPRS uses the term rootless like this. I didn't come up with it. But I agree it is not a great term. If you can think of a better one I will happily use it. Parallels calls it "coherence mode", which also isn't great.

Actually Xprs uses "seamless mode" which is probably better.

This entry was edited (2 months ago)
in reply to FizzyOrange

Yes that's to much to ask

You are adding a ton of overhead and complexity. Expecting it to just work is underestimating the difficulty of it all. With that being said, Xpra is probably what you are looking for. However, I would suggest that you take a look at your use case as there is probably a better solution. What app are you trying to use?

Also, Xorg is a bit of a dinosaur at this point. It isn't going away but gnome and kde have both made plans to drop support long term. We still have a few years but from a longevity perspective I would start thinking about new solutions. KDE and Gnome both support RDP and there are plenty of modern web interfaces for managing servers like Cockpit.

in reply to OsrsNeedsF2P

You're probably right. But, point by point

  • RISC-V is still in early adopter phase, and probably in, or just starting to come out of, the chasm. Organizations that get in at the ground floor have an advantage in the technology later on, but
  • Early adoption requires resources to survive the early dearth of users. It's a bet on the future, and you only place bets if you have the capital. RISC-V is a sure bet, but it could be 100% guaranteed and you still may not be able to afford to buy in, which it sounds like is happening here.
  • This is a non-point.
  • For now. RISC-V is still extremely young technology.

It was probably the right decision for Chimera. We all have to prioritize. I love RISC architecture, ever since college and CPU architecture classes, and back when I was still writing Assembly on occasion. And, yet, I still don't own a RISC-V computer. I'll probably be in the "early majority" group somewhere.

I don't believe it's a miscalculation to adopt it if you can afford to. Early adopters have later advantages, in experience and mindshare. This may come back to bite them; maybe not.

I will say this, though: although I'm not the target and I really don't understand the appeal of mobile gaming, it's a space where RISC-V really could be an overnight game-changer. Its extensibility and configurability, and low cost of entry for CPU makers, makes it an ideal target for a submarine hardware developer who's focusing on gaming, and releases a core that outperforms ARM in graphics and AI tasks. It makes it a great platform form one of Apple's notorious architecture shifts - they have enough money to develop an in-house powerhouse chip, and they've built bespoke CPUs before. If that happens, this decision will, in retrospect, look like a terrible mistake; Chimera will be a late majority adopter scrambling to add support. No-one who's buying The Thing (whatever it is) will be thinking "Chimera!" They'll be just yet another distribution in a sea of late majority adopters.

Image source credit

This entry was edited (2 months ago)
in reply to cm0002

Oh no, not Discourse :( I never liked Discourse. I guess mainly for the UI and UX/navigation.

Still likely an improvement for approachability. For a mailing list you essentially need pre-knowledge and a client to use reasonably well. A [Discourse] forum may need an account, but is hosted and straight-forward.

Given that it's already established I see why the question of alternative forms and platforms wouldn't even come up.

This entry was edited (2 months ago)

Has anyone else questioned their choice of computers for running Linux?


3 years ago I needed a new computer and decided on an 16 inch M1 Macbook Pro, but did lots of overthinking about if I wanted to stick to it. I tried Asahi Linux didn't have any reasons at the time to use linux over macOS (but there was always the chance I might later), the build quality is 2nd to none, none of my Windows laptops lasted more than a few years.

3 years later, I've really been itching to switch to Linux. Two of several reasons: because its DEs are more customizable, it has better documented accessibility APIs if you want to make keyboard navigation software. I reinstalled Asahi Linux and really tried to make it my daily driver, but the lacks of apps would require me to dual boot: Photoshop and Roblox.

I researching again for computers closest to Macbook Pros but none of them come close to its build quality. I think it would be best for me to make my own desktop PC for linux. I don't think I'd fare well with another windows laptop brand.

Looking For New Distro Recommendation


So I'm looking for a new distro rec and having a hard time landing on one. I started off on PopOS for a couple of years and it was fine, but I wanted something a little different, then I switched to Bazzite and found out I love KDE and dislike immutable distros.

I primarily use my machine for gaming and secondarily for small coding projects and a lil home labbing. And based on my previous selections you can probably tell I don't want to have to mess with a lot of settings or configurations to get coding or gaming.

I'm currently leaning towards EndeavuorOS or Garuda, but wanted to hear some other opinions.

For a little more background I checked out Manjaro and Nobara, but liked Endeavuor a bit more. My GPU and CPU are both AMD and relatively new.

in reply to satansbartender

EndeavourOS and Garuda are the same distro with a different default KDE theme, which you can install on any distro with KDE.

I personally would recommend vanilla arch, use arch-install command if you don't want to do it manually. Then spend some time making it truly yours. At least if you wanna be on Arch, which is the best distro for ricing, finding software easily and having to learn a few things every now and then in case something break, as Arch needs some maintenance.

Now you may argue that EOS and Garuda are easier Arch installs with some defaults, but if you're gonna be on Arch then the first time is best if it's vanilla Arch, learn what you want and what you don't, learn how the Arch way is done on there, and then when you have done that but can't be arsed to do it again and again every time something breaks and you go for a reinstall, then go for the easier way.

If you just want recent software and none if the hassle of Arch then just go with Fedora KDE, OpenSUSE Tumbkeweed/Slowroll, or any of the trillion of distros, including Debian Testing.

in reply to satansbartender

I've been using endeavourOS for 1,5 years already and love it. Most of my games run with little to no tinkering. I've had no major issues that I couldn't resolve with some googling or asking someone who knew better.
Before I ended up with endeavourOS I have tried several distros ( mx Linux, Ubuntu, Garuda, Fedora, nobara, popOS ) and with all of them I had different issues that I was not too keen on troubleshooting. I would avoid Garuda and just go with Arch or endeavourOS for gaming.
This entry was edited (2 months ago)

Any way to remove display resolutions in Mint?


Or is there a way to set a resolution as a default for specific displays?

I have 3 monitors in my setup. Two are on a KVM, and one is always on my Mint PC. That monitor is an old XP era Dell. But it isn't hooked up with DVI, instead I have it connected via HDMI to an audio extractor to the Dell speakers, then HDMI to DVI. It works great. Except when I hit the KVM switch, and for some reason the resolution on the Dell changes from 1280x1024 to 1920x1080, which is unsupported.

How the heck do I get 1280x1024 to be persistent?

in reply to cm0002

Governments and enterprises using these distros should be funding them and paying for security audits. They are really dependent on them.

I'm curious what an attack on NixOS would look like. It would be a good candidate for reproducible builds but it doesn't seem like they really care about that.

Anti Commercial-AI license

Asahi Lina Pausing Work On Apple GPU Linux Driver Development


Why Lemmy is so superior to Reddit: No Karma, Just Value Content


Lemmy's design is focused on quality content by ditching the Karma farmers and addicts. No more chasing upvotes—people here actually focus on real value instead of feeding the ego.

EDIT: I know there are upvotes and downvotes, but the problem with Reddit is you can't post in most communities if your karma or reputation is bad. This is a big problem because herd mentality prevails there and if ypu have unpopular opinions you're basically censored.

Lemmy isn't designed to milk ypur dopamine with notifications every 10 upvotes, so you focus more on posting valuable cont instead of farming for approval and upvotes.

This entry was edited (2 months ago)
in reply to Queen HawlSera

You can't ask a social network to support ideas that involve violence and murders.
I know Luigi is a hero for many but it was an illegal action. You can think any monarchy is anacronyst nowadays, but you can't go and shoot any of those useless humans that think they can be called king or queen like we were living in mediaeval times

And remember that any insurance system is not that different from a national system, you can convert one into the other any time.
The problem is with shitty brains which can go and spread their shitty ideas either here or there. Since national systems can be so corrupted, it's ok to have a private way to clean them up from time to time.

This entry was edited (2 months ago)

A physical sound mixer/audio panel that can be be mapped w/ Linux?


TLDR; post title - does this exist?

Something that can do what OBS can do (compression, gain, volume, etc) but on a physical panel & can be mapped to hotkeys?

I'm checking here in case I'm just bad with picking the right search terms.

Or, have any suggestions for what sound management can use midi keys as hotkeys? I have a midi keyboard, if it can serve as a workaround. This isnt a neeeeed, just a nice-to-have. I worked for a hot minute with a sound mixer for a few panels recently, and it got me interested in getting one but for linux.

I also saw Soundux. It looks like it has all the must-haves of what I'm looking for. I'm just having trouble telling from the website if it can take midikeys as it's hotkeys. Some programs don't, like obs.

(uhh, mint btw?)

Unknown parent

lemmy - Link to source

BlindFrog

an input device that can map to whatever software you want to run


Yes, this actually. What I should've asked then is about what software can adjust sound filters per program running on my pc. Like, if I want to compress someone's audio coming from discord while increasing the lows of the audio coming from vlc. The software would do that. It'd just be up to the its features available whether it'll take my HID's (human interface device) events. Ty

in reply to BlindFrog

The very basic version only allowing for one filter would be EasyEffects.
If you want to use different filters for different programs you can install some LV2-plugins or bundles and then configure LV2-Plugins directly in pipewire (which is a bit of a pain) or use a GUI plugin-host like Calf and probably some patchbay (qpwgraph, patchmatrix, ...)

Or even better: try Carla, it may be a exactly what you want and can be remote controlled via MIDI or OSC

Performance tanking during swapping


Hi guys!

I have what I'd consider a beefy gaming PC. AMD 7700 CPU, 32GB RAM, 7800XT 16GB, NVMe 1TB for OS, mSATA SSD 2TB for storage/games.

So...whenever I get a while using the computer, with a bunch of windows open, say firefox taking 4GB of RAM, total for everything a bit over 16GB...I'm prone to get a whole system slowdown/freeze, which can take a few full minutes until it settles. I can see the storage red led on the whole time without blinking, so it really looks like swapping.

However sometimes I don't see movements in the system process viewer, in usage from RAM/swap, I'd imagine those graphs would change if the data in swap has changed.

Swapping is set in the mSATA, taking 8GB, so I reckon that migth not be the fastest. Still, that's an SSD. I'm not sure how can I check/troubleshoot whatever is tanking my computer performance?

in reply to catloaf

I try to keep in mind that replacement shouldn't mean landfill. When my needs have outgrown an SSD, it gets repurposed, donated, or sold. (Old ones still work great in computers used in education, special-purpose systems, test environments, refurbished laptops, appliance-like machines, etc.) In the long run, conserving SSD life while I own it translates into less waste and pollution in the world.
This entry was edited (2 months ago)
in reply to GolfNovemberUniform

It reduces the drive’s lifespan.


Let's remember that swapping frequency and volume are system-dependent; practically zero on many systems. On a healthy system that doesn't swap much, having swap space on an SSD can be easier on the environment and wallet than buying and powering a separate device for it.

Nevertheless, I agree that minimizing SSD writes is worthwhile., and avoid the mindset of an SSD's useful lifetime ending when I'm done with it. (See my other comment.)

This entry was edited (2 months ago)

Huawei to drop Windows, shifting to HarmonyOS and Linux for future PCs


Huawei's computer business is on the verge of a major shift in the coming weeks. The Chinese company may soon be forced to abandon Windows, leaving it with limited options for continuing to bring new PCs to market.

Starting in April 2025, Huawei will launch new PC models that no longer use Windows as their default operating system. According to domestic sources cited by MyDrivers, the Guangdong-based company may soon lose the ability to sell Windows PCs to Chinese customers. As a result, Huawei appears to be shifting its focus toward Linux and HarmonyOS, its proprietary operating system.

This entry was edited (2 months ago)
in reply to xav

You're right: most companies never respect the law unless they think there will be actual consequences. And, even then, they may disregard the law if the consequences are less expensive than the profits from ignoring laws. As I'm reading this, you're being downvoted, but honestly you're not wrong.

However, there are two issues with the implication of your comment: the first is the assumption that companies outside of China will ignore the GPL, which is not true. Thankfully, in many countries there are foundations with the means and will to pursue and litigate GPL violations, and one silver lining on US DMCA and IP law is that it's likely to be enforced as much for the GPL as any other license. Within China, legal enforcement depends both on what the State thinks is in its best interest, and which organ inside China that is enforcing the law. For example, a few years ago the Chinese DSL was causing foreign companies grief because how it was prosecuted was utterly unpredictable. Literally - as in, documented instances - a company could be visited by a representative of a business-friendly agency on a CSL enforcement issue, have a discussion, agree on a remediation plan and schedule, and have time to fix the issue. Or, they could be visited by the police on the same CSL enforcement issue and their CSO would be arrested and find himself in jail by the end of the day. There were a half dozen different Chinese agencies charged with enforcing the CSL and how it was handled was a roll of the dice based on which organization to which your case was assigned.

The second issue is that your comment is just what-aboutism. The fact that the US has executed numerous illegal, immoral wars does not excuse Israel's genocide in Palestine. A company in the US ignoring the GPL doesn't excuse a Chinese company doing it; the only difference is that if a foundation in the US litigates it, they're more likely to win.

Asahi Lina: For personal reasons, I no longer feel safe working on Linux GPU drivers or the Linux graphics ecosystem. I've paused work on Apple GPU drivers indefinitely.


For personal reasons, I no longer feel safe working on Linux GPU drivers or the Linux graphics ecosystem. I've paused work on Apple GPU drivers indefinitely.

I can't share any more information at this time, so please don't ask for more details. Thank you.

If you think you know what happened or the context, you probably don't. Please don't make assumptions. Thank you.

I'm safe physically, but I'll be taking some time off in general to focus on my health.


Well that's sudden.

Unknown parent

lemmy - Link to source

Axum

Again, all of that is conjecture built on some weird "analysis" that came from the extremist hate filled site known as Kiwi Farms. I would not put much stock on the credibility of that info.

Hector and Lina are their own people. Anyone claiming otherwise has bought into the conjecture spread by a literal hate site.

This entry was edited (2 months ago)
Unknown parent

lemmy - Link to source

Axum

The site is well known for harassment campaigns to the point of driving people to suicide, and users on those sites perpetuating that info are from that site actively introducing misinfo on popular platforms like reddit and hacker news.
This entry was edited (2 months ago)

Dev with old laptop


A dev friend wants to start taking steps away from Windows, starting with their old laptop.

The laptop has 4 GB ram, and an 8th gen i3 CPU, and they mostly will use it to program.

Some have recommended them Lubuntu. Would that be a good choice?

Thanks!

Edit: yeaaah. Definitely away from Windows, not Linux. Time for lunch.

This entry was edited (2 months ago)

@Friendica Support

Hi there,
working on moving old friendica sites from a shared hosting to a VPS, I ran into the following problem I can't find a solution for. This actually happens with one 2021.04 instance but not with another (anymore), so I'm crosschecking all the settings but can't find how to solve this. Both sites were installed as 2012.04 from the start:

not working version wrote:

This is Friendica, version 2021.04 that is running at the web location sub.domain.com/var/www/subdomaincom. The database version is 1413/1413, the post update version is 1400/1400.

working version wrote:

This is Friendica, version 2021.04 that is running at the web location sub.domain.com. The database version is 1413/1413, the post update version is 1400/1400.

As visible in the screen, the site also displays the following path on top of the page, and of course calls that URL:
sub.domain.com/var/www/subdomaincom

Different intents to fix this by changing or deleting the following settings from the console didn't work out:

system.basepath => /var/www/domaincom
system.urlpath => /var/www/domaincom/

Even more astonishing, sending the following setting with the console:
/bin/console config system url https://sub.domain.com
.. the site is displayed and works as it should be for a few minutes, and than falls back into the wrong behavior, like if the worker changes something when ever the cron kicks in. In that time span I can log in and even go thru the admin settings but this setting is not available.

Intents to modify the following specifications in local.config.php didn't work out either:

'system.basepath' => '',
'url.basepath' => '',
'system.urlpath'=> '',

At least I figured out/ realized that url. and system. actually shouldn't be used at all as:
'config' => [
        ],
'system' => [
        ],

.. are actually "in charge" of defining that. So now I'm not sure either if those wrong lines somehow made it from local.config.php into the DB and are now part of the problem.

I found this conversation by @Hypolite Petovan on github:

Table config, cat = "system" AND key = "basepath"


and it actually looks like this is exactly te problem but I have no experience at all with mysql over CLI SSH and don't know what commands to use to delete the apparently wrong setting in the DB.

Screen of the front page showing the error

Is there a way to delete entries with bin/console?
I did manage to change some settings from there but couldn't find any hint how to "delete" an entry entirely from there:

/var/www/inversioncom/bin/console config -h
console config - Manage site configuration
Synopsis
bin/console config <category> <key> <value> [-h|--help|-?] [-v]

bin/console config system basepath /
system.basepath <= /

This entry was edited (2 months ago)
in reply to utopiArte

Also, this is a btop from an 18 core machine with 256GB of RAM with the major load being friendica, a secondary load is hubzilla, mastodon, and miskey, but friendica represents more load than the latter three combined, but it also gets more traffic than the latter three combined. But what I am getting at here, you may want to consider dedicating a physical server. I'll grant you it's busier than usual as we've just returned the server to service after three months of downtime, 7 motherbords, three power supplies, and two CPU's later.

[

Friendica Support reshared this.

in reply to utopiArte

@Hypolite Petovan

Not mentioned in the inicial post or answers as of now is the setting of /sites-available/sub.domain.com-le-ssl.conf

sub.domain.com-le-ssl.conf
<IfModule mod_ssl.c>
<VirtualHost *:443>
ServerAdmin admin@domain.com
ServerName sub.domain.com
DocumentRoot /var/www/subdomaincom
<Directory /var/www/subdomaincom>
Options Indexes FollowSymLinks MultiViews
AllowOverride All
Order allow,deny
allow from all
</Directory>
<FilesMatch \.php$>
# 2.4.10+ can proxy to unix socket
SetHandler "proxy:unix:/run/php/phpXy4-fpm.sock|fcgi://localhost"
</FilesMatch>
# DirectoryIndex index.php
ErrorLog ${APACHE_LOG_DIR}/subdomaincom_error.log
CustomLog ${APACHE_LOG_DIR}/subdomaincom_access.log combined
# RewriteEngine on
# Some rewrite rules in this file were disabled on your HTTPS site,
# because they have the potential to create redirection loops.
# RewriteCond %{SERVER_NAME} =sub.domain.com
# RewriteRule ^ https://%{SERVER_NAME}%{REQUEST_URI} [END,NE,R=permanent]
Include /etc/letsencrypt/options-ssl-apache.conf
SSLCertificateFile /etc/letsencrypt/live/subX.domain.com/fullchain.pem
SSLCertificateKeyFile /etc/letsencrypt/live/subX.domain.com/privkey.pem
</VirtualHost>
</IfModule>

Friendica Support reshared this.

28 mars 2025, 16:00:00 CET - GMT+1 - Infini, 29200, Brest, France
Mar 28
Atelier Terminal, Shell
Fri 8:00 AM - 9:00 AM
Infini


Dans le cadre de Libre en Fête 2025,

l'association Infini vous propose de venir linuxer dans la salle informatique d'Infini.

Entraide et convivialité vivement recommandé.

L'atelier est ouvert à tout le monde.

--

Il y a des arceaux à vélo à proximité

L'arrêt de bus le plus proche est : Cosmao Prétot, ligne 2B

L'arrêt de tramway le plus proche est : Polygone

This entry was edited (3 months ago)

Florent Cayré – Co-fondateur de COMMOWN


Nous partons à la découverte de la société coopérative d’intérêt collectif Commown avec Florent Cayré, un de ses fondateurs.

podcast.projets-libres.org/@pr…

Sommaire

Interview de Florent Cayré – Commown


Walid : chères auditrices, chers auditeurs, bonsoir, on est le le 21 juin, le jour de la Fête de la Musique, et c’est avec un grand plaisir que je reçois Florent Cayré. Florent est un des fondateurs d’une coopérative, d’une SCIC (société coopérative d’intérêt collectif) qui s’appelle Commown. Je dois dire que je suis un des sociétaires, même si je suis plutôt quelqu’un de dormant. Il y a quelques années, j’avais fait la rencontre de Commown, j’avais trouvé le concept super et donc j’étais devenu sociétaire. Et c’est aussi, on va en parler, grâce à Commown aussi que j’ai découvert /e/OS qui est un OS dont on va parler après, qui est un OS dégooglisé. J’avais vraiment envie de parler avec un des fondateurs de la coopérative. Florent, écoute, bienvenue sur Projets Libres. J’espère que tu vas bien et merci beaucoup de prendre du temps pour parler avec nous.

Florent : merci à toi. C’est super d’avoir la parole.

Présentation de Florent


Walid : écoute, j’ai essayé de chercher sur Internet des interviews, je n’en ai pas trouvé beaucoup de toi. Est-ce que tu peux commencer par te présenter un petit peu pour nos auditrices et nos auditeurs ?

Florent : oui, effectivement, je ne fais pas beaucoup d’interviews, je ne suis pas très visible dans les médias, mais j’essaye quand même d’être assez présent sur un certain nombre de tables rondes. Moi, je suis Florent Cayré, je suis un ingénieur de formation, ingénieur en aéronautique à la base, même pas informaticien, mais j’ai pris assez rapidement la tangente de l’informatique et notamment de l’informatique libre, ayant un ordinateur sous Debian depuis 1994. Je suis un peu dans la bande vieux cons. Et du coup, j’ai assez rapidement fait de l’informatique dans mon métier, puisque dans l’aéronautique, j’ai commencé par faire beaucoup de simulations numériques en mécanique des fluides, qui est ma spécialité scientifique de départ. Et puis, assez rapidement, ce milieu ne m’a pas tellement plu, notamment en termes d’ambiance. C’est quand même très vertical comme mode de management. C’est des boîtes anciennement militaires. D’ailleurs, on travaillait sur aussi des projets militaires. Et donc, moi qui étais passionné d’aéronautique, petit à petit, la passion a diminué. Celle de l’informatique est restée. Et j’ai rejoint un petit groupe de copains de promo qui voulaient monter une boîte. Je me suis dit: Allez, c’est parti. Je me lance là-dedans avec, à la base, aucune fibre entrepreneuriale.

Mes deux parents sont fonctionnaires. Ce n’est pas du tout une culture familiale, donc ça a été assez compliqué au début. Par contre, j’y ai trouvé un petit peu plus de sens. Je me suis mis à utiliser beaucoup de logiciels libres puis à y contribuer. Et petit à petit, j’ai utilisé des technologies assez innovantes qui étaient développées à l’époque par Logilab, que j’ai fini par rejoindre après avoir beaucoup, beaucoup utilisé le framework cubicweb pour mes projets dans ma boîte précédente.

Ici, chez Logilab, j’ai beaucoup travaillé sur la partie informatique scientifique pour essayer de mettre des technologies du Web dans la gestion des données scientifiques, donc faire de la gestion de données scientifiques propres pour faire des belles chaînes de calculs, problématique que j’avais très bien abordée dans le domaine de l’aéronautique. Petit à petit, je me suis mis à beaucoup contribuer sur du logiciel libre, à ne plus pouvoir m’en passer vraiment. J’ai participé chez Logilab à de superbes projets, et notamment dans le domaine de la production d’énergie. J’ai fini par partir, notamment pour Strasbourg, quitter Paris et partir pour Strasbourg. Et là, je me suis mis en quête d’un projet qui était vraiment très aligné avec mes valeurs.

Donc, je voulais du libre, je voulais de la coopération aussi, parce qu’une des grandes frustrations que j’avais en travaillant chez Logilab, c’est qu’on avait tellement de boulot qu’il était assez difficile de collaborer avec d’autres entreprises. Donc, j’avais essayé de bosser avec une une jolie boîte d’une copine qui faisait de la simulation numérique en mécanique des fluides. Et ça avait été très compliqué parce qu’on n’arrivait pas à trouver des façons de coopérer et des intérêts à coopérer suffisamment solides pour que la relation dure longtemps et ça a été une grande frustration. Je me suis mis à chercher un projet qui alliait logiciel libre, coopération et écologie. Et en fait, en me baladant dans les groupes d’utilisateurs de Linux, j’ai fait la connaissance d’Élie. On s’est assis l’un à côté de l’autre, on s’est dit : Toi, tu fais quoi dans la vie ? Toi, tu fais quoi ? On a raconté un petit peu nos histoires et on s’est rendu compte qu’Élie, qui portait un projet associatif à l’époque, qui était celui de Commown, cherchait des associés pour passer en SCIC. Un des rôles qui lui manquait était un rôle de technicien et beaucoup sur les aspects de logiciel libre.

Moi, j’ai carrément flashé pour le projet. Le lendemain, j’étais bénévole pour l’association et puis, quelques mois après, après avoir complété l’équipe, on s’est lancé en SCIC tout début janvier 2000.

Walid : le logiciel libre, qu’est-ce que ça représente vraiment ? Qu’est-ce qui fait que tu ne peux plus t’en passer ?

Florent : pour moi, c’est simplement de la connaissance. C’est-à-dire que je m’imagine mal garder secret des théorèmes de mathématiques. Pour moi, le logiciel, c’est pareil. C’est de la connaissance à l’état pur. C’est un commun qui est un bien public, qui est un bien d’intérêt général. Je n’ai pas du tout envie que ce soit privatisé. Et puis, il me paraît totalement contre-intuitif d’utiliser quelque chose dont on ne sait pas ce qu’il fait. Donc, le logiciel privateur, c’est exactement ça. On installe un truc sur son ordinateur qui n’est même plus vraiment son ordinateur quand on installe du logiciel pas libre dessus, puisqu’on ne sait pas ce qu’il fait. Moi, je veux bien donner ma confiance à des choses, mais que je puisse ouvrir le capot est strictement nécessaire pour accorder ma confiance. C’est ce que permet le logiciel libre. En plus, il a un rôle d’émancipateur énorme, notamment notamment dans des pays du tiers monde, les pays en voie de développement. Aujourd’hui, sans le logiciel libre, je pense qu’ils auraient zéro compétence en informatique. Aujourd’hui, je trouve que ça donne une chance à des gens qui n’en avaient aucune.

Le modèle économique de Commown


Walid : tu as évoqué le nom de Commown. Moi, je l’ai présenté aussi au tout départ en t’introduisant. Est-ce que tu pourrais commencer par nous expliquer ce qu’est le projet Commown ? Je vais appeler ça dans un premier temps un projet. Quelle était votre idée de départ ? Est-ce que l’idée de départ est toujours la même que maintenant ou est-ce que ça a évolué depuis le temps ? Vous avez monté ça quand ?

Florent : on l’a monté en 2018, la SCIC, sous forme de société, mais en réalité, c’est un projet qu’Élie avait déjà lancé un an et demi avant, sous forme associative. Son idée de départ, elle est vraiment restée au cœur de Commown. Évidemment, elle a un petit peu mûri et tout, heureusement, mais en réalité, tout était déjà extrêmement fouillé, extrêmement bien pensé. Le projet, il est articulé essentiellement autour de trois piliers vraiment principaux. Le premier, c’est un modèle économique. En réalité, c’est-à-dire que le modèle économique a été choisi pas du tout par hasard, en partant du constat que l’obsolescence du matériel électronique, qui est vraiment une catastrophe, parce que produire du matériel électronique, ça fait beaucoup de dégâts à la fois humains et écologiques, et donc avoir avoir une obsolescence sur ces produits, c’est vraiment un gâchis phénoménal de ressources, essentiellement de ressources naturelles. Il faut savoir ce que c’est qu’une mine pour avoir une idée de ce que c’est que de mettre un téléphone à la poubelle, c’est vraiment catastrophique. Donc, le point de départ, c’est : il faut lutter contre l’obsolescence pour produire beaucoup moins de ces appareils, arrêter de les jeter par les fenêtres. Et donc, pour ça, il faut revenir à la racine du problème.

La racine du problème, c’est que les gens qui produisent du matériel aujourd’hui, ils les vendent. Et comme ils les vendent, ils ont un intérêt à en vendre plus. Et pour en vendre plus, il faut qu’il y en aient qui partent à la poubelle quelque part.


Et donc, quand on est un gros acteur, notamment, on n’a pas d’autre choix pour survivre que d’avoir des stratégies d’obsolescence. Et donc, les stratégies d’obsolescence sont extrêmement variées et extrêmement astucieuses parce que de toute façon, la survie de ces grands acteurs en dépend. Il n’y a pas que l’obsolescence programmée technique qui fait régulièrement la une des journaux grâce à l’association Halte à l’obsolescence programmée (HOP), qui a vraiment mis un beau coup de pied dans la fourmilière. Mais il y a plein d’autres mécanismes, notamment la pub, le marketing, qui n’arrête pas de toute la journée de vous glissez à l’oreille que quand même, vous avez vraiment un appareil de naze. Il faut absolument changer si vous voulez avoir l’air cool quoi. Donc la pub est vraiment le plus gros mécanisme d’obsolescence qui puisse exister. Et le deuxième, vraiment de très près, c’est le logiciel. Et notamment, le logiciel est non libre. Le logiciel est vraiment le truc qui permet… Même le logiciel libre, en réalité, même si ça me fait mal de dire ça, c’est vraiment le truc qui rend les appareils obsolètes par manque de mise à jour, essentiellement, de mise à jour de sécurité, puisque les mises à jour de sécurité, ça coûte cher. Puis, les acteurs n’y ont pas intérêt, encore une fois, notamment les Qualcomm, les fabricants Mediatek, les fabricants de puces n’ont pas du tout intérêt à ce que le logiciel soit maintenu trop longtemps parce qu’à ce moment-là, leurs puces, ils ne peuvent pas les remplacer, ils ne peuvent pas vendre des nouvelles puces. Commown part de ce constat-là et dit : Il faut arrêter de vendre. Quand on a dit ça, on n’a rien dit. Il reste à construire tout un tas de trucs. En fait, en réalité, ça fait déjà 30 ou 40 ans qu’il y a des gens qui ont fait ce constat, notamment Rank Xerox par exemple, qui s’est mis à vendre non pas des photocopieuses, mais des photocopies. Et du coup, la solution à ça, c’est de vendre l’usage d’un appareil au lieu de vendre un appareil, ce qui oblige le fournisseur à réparer son appareil au lieu d’en vendre un nouveau, parce qu’en réalité, il n’a plus d’intérêt économique à mettre un nouvel appareil sur le marché.

Il vaut mieux réparer l’appareil parce que ça coûte moins cher, puisque ce qu’on vend, c’est l’usage. En fait, c’est une sorte de location.


Alors attention, il y a des acteurs de la location qui ne font vraiment pas le job. On transforme le modèle pour que l’intérêt écologique et l’intérêt économique coïncident. L’intérêt écologique est de faire durer l’appareil et c’est exactement pareil pour l’intérêt économique. Plus il dure, plus on aura rentabilisé l’investissement de dépenses.

Walid : donc, c’est de la location sans option d’achat.

Florent : voilà. Ça, c’est le deuxième truc ce qui est assez important, c’est qu’effectivement, à partir du moment où on donne une option d’achat, on retombe dans les mécanismes d’obsolescence, on les a juste retardés, c’est tout, mais on n’a pas vaincu le mal à la racine. On trouve même aujourd’hui des offres de location complètement hallucinantes, du genre, je crois que c’est Samsung qui fait ça. C’est écrit sur notre site Web quelque part. On vous offre un nouveau téléphone tous les quatre mois. On arrive quasiment à l’exact opposé de l’objectif, alors que le modèle économique reste officiellement de la location. En réalité, évidemment, il y a beaucoup de revente derrière tout ça. Donc, ça devient juste un jeu purement financier. À partir du moment où on achète et où on revend, l’étape de location, c’est quasiment du financement. En réalité et donc on se transforme en banque, ce qui n’est pas du tout, évidemment, notre métier à nous. Nous, on fait beaucoup de services pour arriver à faire durer les appareils le plus longtemps possible en conseillant les gens, en faisant en sorte de réparer les appareils, en faisant en sorte de les protéger, en sorte de les mettre à jour, de les mettre à niveau s’il faut les mettre à niveau, augmenter la RAM, ce genre de choses, augmenter l’espace de stockage, aider les gens à transférer leurs données, à ne pas les perdre, etc. C’est ça qui permet de faire durer les appareils, de conserver les appareils entre les mains de leurs usagers.

Walid : je fais une première digression avant d’oublier, parce que quand je t’entends parler, j’ai l’impression d’être au boulot. On bosse dans l’électroménager et on travaille sur le reconditionnement. Il n’y a pas très longtemps, le gouvernement a sorti un truc qui s’appelle le bonus réparation. Je voulais juste savoir, parce que c’est un de mes sujets actuels, si c’était quelque chose dont vous bénéficiez du bonus réparation ou pas. Est-ce que vous y avez droit ou pas ? Qu’est-ce que tu en penses ? En gros, l’idée, c’est que le gouvernement applique un bonus. C’est-à-dire, en gros, quand tu fais réparer ton appareil, s’il est cassé et s’il répond à un certain nombre de critères, la personne qui le répare et qui est agréé va appliquer une réduction et ensuite va s’adresser à un éco-organisme pour récupérer le bonus pour soi.

Florent : ok. Clairement, nous, on n’en bénéficie pas et on ne peut pas en bénéficier. La coopérative reste propriétaire des appareils qu’elle achète. Je dis bien la coopérative et non pas les salariés ou non pas les cofondateurs. Il y a aujourd’hui 600 actionnaires environ dans la coopérative qui possède toute la flotte. Donc, clairement, on ne peut pas bénéficier de ce genre de mécanisme. Qu’est-ce que j’en pense en réalité ? Je suis assez dubitatif là-dessus parce que je me dis que ça va produire essentiellement un effet d’aubaine et que les réparateurs vont juste augmenter leur tarif du montant de la subvention. Mais c’est l’expérience qui me fait parler, essentiellement parce que j’ai vu exactement la même chose quand j’étais étudiant et qu’on a dit : Regardez, on va augmenter les APL. Les loyers ont augmenté exactement du même montant que les APL quasiment instantanément. Donc, en réalité, c’est un peu des subventions déguisées à une certaine industrie. Après, ce n’est quand même pas l’industrie qui me déplaît le plus. La réparation, je trouve que c’est une activité extrêmement saine. Je serais très content qu’un grand nombre de réparateurs voie le jour. Je préfère qu’on subventionne ce genre de choses plutôt que les industries polluantes comme Total, en, je ne sais pas, moi, par exemple, en ne faisant pas payer le prix du carburant des avions à leur juste prix.

Walid : on est d’accord. Je referme cette parenthèse pour revenir sur Commown. Moi, j’ai connu Commown en 2019 et à l’époque, de mémoire, vous étiez très focus sur les smartphones, sur les téléphones. Et puis après, vous vous êtes diversifiés aussi. Mais à l’époque, c’était très axé autour des smartphones et autour des Fairphone, en en particulier. C’est un peu comme ça aussi que ça a attiré un peu mon attention. C’est toujours une des activités principales, la partie smartphone chez vous ?

Les activités autour des smartphones


Florent : oui, ça reste une activité principale. Ça reste l’activité principale. Effectivement, aujourd’hui, on s’est un peu diversifié dans plein de directions. Notamment, on fait d’autres appareils électroniques, des ordinateurs en particulier, des ordinateurs portables comme des ordinateurs fixes. Et aussi, maintenant, on travaille pas mal sur l’audio. Mais il y a plein de raisons historiques d’avoir commencé par Fairphone. Une des raisons, c’est qu’Élie a un des tout premiers Fairphone 2, vraiment « One of the first« , c’est écrit dessus, sur son téléphone. Il s’est assez rapidement rendu compte que c’était un téléphone quand même ultra innovant et du coup, qu’il y a quand même un certain nombre d’inconvénients dus à cette jeunesse de conception, et notamment plein de petits faux contacts, plein de de subtilités qui font que c’est un appareil difficile en réalité pour le grand public. Il s’est dit : C’est justement le bon appareil pour montrer la plus-value d’un service comme celui de Commown. Parce que ce n’est pas facile de garder un Fairphone 2 longtemps. Il faut disposer des pièces détachées, il faut connaître tous les petits défauts qu’il a, il faut être capable de bien connaître l’appareil. Et du coup, Commown pouvait gagner cette expertise et on a gagné cette expertise assez rapidement.

On a aidé plein de gens du coup à garder des Fairphones 2 pendant longtemps. Et puis, évidemment, l’autre vraie bonne raison, c’est celle de base, c’est que Fairphone est l’acteur de très, très loin, le plus innovant et le plus vertueux en matière de fabrication de matériel électronique. Ils ont une transparence vraiment très importante. Si on lit les rapports qu’ils font, ils sont extrêmement détaillés, extrêmement précis. Ils ont une activité intense pour convaincre le reste de l’industrie qu’il faut être plus propres, qu’il faut grosso modo, faire mieux dans tous les domaines : la conception, la fabrication, le transport, le packaging même. C’était un acteur naturel. On n’a pas envie de distribuer des appareils qui sont fabriqués dans des conditions lamentables par des gamins et éventuellement avec plein de morts dans les mines. Évidemment, Fairphone s’est imposé comme étant le premier constructeur avec lequel on avait envie bosser. Depuis, ce n’est pas évident de choisir des nouveaux constructeurs parce que devant, en Fairphone, ils sont tous vachement moins bons. Mais on essaye quand même de trouver des critères qui nous permettent de s’ouvrir à d’autres gens. Et notamment, on essaye de trouver des acteurs qui ont une taille raisonnable qui nous permet d’avoir une influence sur eux et de leur dire : Regardez, il faut augmenter les durées de garantie, il faut améliorer tel point de conception, il faut permettre d’installer du logiciel libre dessus.

Ce genre de critères. On a tout un tas de critères internes pour choisir du matériel qui reste pour nous ce qui se fait de mieux ou avec les meilleurs acteurs du marché. Cette ouverture, elle est quand même très maîtrisée, cette ouverture en termes de produits. En termes de marché, on s’est aussi ouvert depuis aux entreprises, ce qu’on ne faisait pas au tout début. On faisait que des particuliers. Maintenant, on fait des entreprises, on a beaucoup de clients entreprises, ça représente maintenant plus de la moitié de notre chiffre d’affaires. Et puis, on a aussi des clients collectivités territoriales. Et puis, on est en train d’essayer de développer ce marché. C’est beaucoup plus difficile, beaucoup plus long, mais on pense que c’est intéressant.

Walid : avant qu’on rentre plus en détail, parce qu’il y a un sujet qui m’intéressait vraiment très fortement, c’était comment on gère une flotte d’appareils et comment on la fait durer le plus longtemps. Mais avant, j’aimerais bien que tu nous re détailles un peu, le modèle économique.

Florent : le modèle économique, il est assez clair, on commence par acheter des appareils. C’est nous qui faisons l’investissement. On emprunte de l’argent, essentiellement. On se fait aussi aider par tout un tas de sociétaires comme toi, par exemple, qui nous aide à financer nos appareils. Ils nous aident comment ? En nous prêtant de l’argent, en prenant une partie du capital, ce qui nous permet d’arriver et de dire aux banques : Regardez, on a beaucoup de capital, vous pouvez nous prêter beaucoup d’argent et pour pas cher. On est globalement assez bien suivis par les banques, pas trop par les capitaux-risqueurs, sauf des particuliers. La première difficulté, c’est trouver de l’argent. Une fois qu’on a trouvé de l’argent, on achète ces appareils, on les met en location avec service, en faisant bien attention à plein de choses, notamment qu’ils soient à jour si possible, avant de les envoyer. On les met à jour, on installe dessus une protection écran. On essaye de faire en sorte que l’appareil arrive dans de bonnes conditions et si jamais il était un peu malmené, qu’il soit toujours en vie le plus longtemps possible et le moins abîmé possible par son usager.

Par exemple, les protections à écrans, c’est des choses qu’on abîme souvent. Nous, on les change gratuitement, c’est inclus dans le service parce qu’on y a un intérêt économique.


En réalité, encore une fois, on a de la bonne volonté aussi, mais on a aussi un intérêt économique qui coïncide. Ce qui veut dire que c’est durable, même si les cofondateurs finissent par un jour quitter le projet, par exemple aller à la retraite, même si c’est dans très longtemps. Mais si un jour tout cela arrive, en réalité, l’intérêt économique restera là et du coup, le projet, il sera pérenne. Ça, c’est un des trucs importants. Ce modèle économique-là, pour nous, il est extrêmement stable. Une des subtilités qu’on a apportées relativement récemment à tout ça… Non, je n’ai pas fini sur les clients. Les loyers, comme on a intérêt à ce que le client garde le plus longtemps possible son téléphone, on fait des loyers dégressifs. C’est-à-dire que plus le client garde l’appareil longtemps, moins il paiera cher. Ce qui est logique, d’une part, vis-à-vis de l’amortissement comptable des appareils, mais c’est aussi logique pour qu’il ait un intérêt à le garder un petit peu plus longtemps. Si le loyer a considérablement baissé, ce qui est le cas chez nous, je vais donner des chiffres après, évidemment, le client aura du mal à se dire : Tiens, je vais reprendre un nouveau téléphone tout neuf et payer quatre fois plus cher qu’avant.

Pour vous donner un exemple, aujourd’hui, si vous allez sur notre site web, que vous allez regarder le Fairphone 4. Vous avez un engagement sur un an minimum. Les mensualités sont de 29,60 € et au bout de cinq ans, vous tombez à 11 € par mois. Le modèle économique, il permet d’inciter les gens à garder l’appareil et à chaque fois, on rajoute des réductions s’il n’y a pas eu de casse, par exemple, s’il n’y a pas eu de vol, ce genre de choses. C’est-à-dire si, grosso modo, vous prenez soin de votre appareil, le tarif diminue encore un petit peu. Voilà le modèle économique. Après, on a rajouté une petite subtilité, mais qui, pour nous, est porteuse d’énormément de sens.

Aujourd’hui, on a un accord avec Fairphone, dont on a parlé sur notre blog d’ailleurs, qui consiste à reverser une partie des loyers à Fairphone.


Pourquoi est-ce que ça, c’est un peu structurel et c’est vraiment, pour nous, le modèle ultime ? C’est qu’en réalité, Fairphone eux-mêmes, ils ont une contradiction puisqu’ils font de la vente. Eux, ils n’arrêtent pas de travailler pour la durabilité de leurs appareils en faisant des appareils modulaires, réparables, ils font un boulot extraordinaire.

En réalité, un jour, s’ils ont vraiment le succès qu’ils méritent et c’est en train d’arriver, ils feront face à la même difficulté que les autres, c’est-à-dire que leur modèle économique de la vente rentrera en contradiction avec leur objectif de faire durer les appareils. Du coup, nous, on a conscience de ça aussi depuis le début, mais eux aussi, ils ont une grande maturité vis-à-vis de ces sujets. On les a titillés, pour ne pas dire harcelés pendant un paquet de temps pour monter ce genre de modèle économique où en réalité, eux, ils ont un intérêt à ce que l’appareil dure longtemps, y compris financier, puisqu’on leur reverse une partie des loyers, donc ils vont gagner avec nous, avec Commown, ils vont gagner plus d’argent que s’ils avaient vendu leur appareil à un particulier ou à une entreprise grâce à la pension des loyers qu’on leur reverse. L’objectif final, notre rêve absolu, ce serait qu’en réalité, l’argent gagné par les fabricants puisse leur servir à faire de la R&D pour améliorer encore leurs appareils. Donc, qu’ils ne gagnent pas d’argent par la vente, mais qu’ils gagnent de l’argent par la durabilité, dans le temps, avoir une source de revenus extrêmement stable grâce à la location.

Et dans ce cas-là, il pourrait se concentrer sur un métier et le faire bien, c’est-à-dire concevoir des téléphones et le logiciel qui va avec et le maintenir, parce que c’est aujourd’hui un centre de coûts phénoménal, alors qu’en réalité, ça devrait être plutôt un gain et non pas une charge. Dans notre modèle à nous, faire durer les appareils, c’est un gain. On essaye de transférer une partie de tout ça aux fabricants. Et on a mis en place ça avec d’autres gens comme why! open computing, par exemple, qui nous fournit une bonne partie de nos ordinateurs portables sous Linux. On a mis en place le même genre de mécanisme et ils ont exactement la même conscience de tout ça que Fairphone. Ils ont bien compris aussi l’intérêt de ce modèle sur le long terme.

Walid : c’est intéressant parce que pour avoir parlé aussi à un moment avec les gens de Fairphone, le logiciel, ça demande un nombre incroyable d’ingénieurs et ils suivent les versions d’Android. C’est quelque chose qui est extrêmement complexe. C’est toujours courir après derrière. À un moment, ils avaient fait leur propre version d’Android. Je pense que derrière, après, ils l’ont abandonnée, finalement, parce que je suppose qu’ils ne devaient pas avoir forcément les reins assez solides pour pouvoir la maintenir, qui était déjà à l’époque dégooglisé.

Florent : Open OS, Fairphone Open OS, oui, tout à fait.

Le hardware et les pièces détachées


Walid : à l’époque, j’avais un Fairphone 2 avec, c’était assez cool. Vous avez commencé par les téléphones, après, vous avez fait les ordinateurs. Maintenant, vous êtes sur typiquement des casques audio, ce genre de choses, ça, c’est quand même assez cool parce que quand on a un casque, je ne sais pas, un casque Bluetooth, par exemple, et qu’on doit le démonter, souvent, on le casse. Et puis, ce n’est pas quelque chose qui est du tout mis en avant par les constructeurs, la réparabilité. Là, c’est aussi, je suppose, un travail permanent de sourcing de nouveaux matériels que vous allez pouvoir mettre, puisque dans tous les cas, il y a un moment ou un autre, on arrive, on a beau faire de la non-obsolescence programmée, il y a un moment ou un autre, c’est juste comme, je ne sais pas, moi, un Fairphone 2, il n’y a plus de pièces. Là, je suppose que vous vivez avec vos pièces.

Florent : ça, c’est vachement intéressant que tu abordes cette question des pièces détachées. En réalité, nous, des pièces de Fairphone 2, on en a encore plein. Pourquoi est-ce qu’on en a encore plein ? Parce qu’on a encore plein de téléphones. Contrairement aux constructeurs, tout simplement, Fairphone eux-mêmes, ils plus de pièces de Fairphone 2. Ils en ont moins que nous. Ils pourraient nous en demander. On les garderait pour nous, d’ailleurs. On les garde jalousement parce que c’est ce qui nous permet de réaliser la promesse qu’on fait à nos clients de faire durer les appareils le plus longtemps possible. Une des choses qu’on fait et pour lesquelles on limite notre diversification en termes de nombre de modèles, c’est que justement, on a un intérêt à avoir la flotte la plus uniforme possible pour pouvoir prélever dessus le plus longtemps possible des pièces détachées sur notre propre flotte.

Notre propre flotte devient un réservoir de pièces détachées.


Quand on ne peut plus acheter de pièces détachées à l’extérieur, chez le constructeur en particulier, on démonte des appareils. Il y a toujours des appareils qui ont une panne donnée, mais dont la grande majorité des composants restent parfaitement opérationnels. On peut les démonter et les remonter sur d’autres téléphones qui sont cassés, qui sont en panne, etc. Et on prolonge comme ça la vie de vieux appareils.

Walid : sur cette partie purement hardware, est-ce que vous, vous faites des réparations ? Je ne sais pas, des soudures, des trucs comme ça, etc. Ou est-ce que vous avez juste un ensemble de pièces et puis il y en a une qui ne marche pas, on change le module caméra, puis on en met un autre à la place ?

Florent : c’est une excellente question. Parce qu’on est en plein en train de travailler sur ce sujet-là. Je ne sais pas comment tu fais d’ailleurs, parce que c’est vraiment extrêmement d’actualité pour nous. Je vais même dans 15 jours à un congrès à Grenoble qui s’appelle Sustainable ICT, qui justement parle de durabilité dans l’électronique. On va y rencontrer un super prof d’électronique de Grenoble, Vincent Grennerat, avec qui on va discuter justement de la possibilité de monter en compétence sur des réparations un peu de bas niveau, j’ai envie de dire. Aujourd’hui, nos compétences sont extrêmement limitées en la matière. On Il n’y a pas encore dans l’équipe de grosses pointures en électronique qui serait capable de nous mettre au point des réparations, de déboguer des problèmes difficiles, etc. Honnêtement, c’est encore un peu tôt pour nous. On n’a pas un volume suffisant d’appareils avec des pannes de ce type pour justifier un emploi à plein temps dans ce domaine, clairement pas. Mais du coup, on commence par coopérer avec d’autres gens dont c’est le métier. Donc, de temps en temps, on sous-traite une réparation. Clairement, à terme, on a envie de monter en compétence parce que ça va faire partie du métier de base.

On attend aussi d’avoir les reins suffisamment solides financièrement pour être capable de payer quelqu’un à faire ça plus ou moins plein temps chez nous. Mais clairement, on a bien ça en tête. Aujourd’hui, on ne sait faire que des réparations, des soudures extrêmement simples. Et encore, ça perturbe beaucoup les opérations aujourd’hui, donc on a plutôt tendance à les sous-traiter à des gens qu’on connaît bien et dont on sait qu’ils vont nous faire du super boulot, comme l’association Déclic Eco Teaching. Bref, on essaye de trouver une situation suffisamment stable pour à la fois réparer nos appareils et monter en compétence en parallèle.

Les logiciels libres


Walid : j’ai encore des tonnes de questions sur la partie hardware, mais comme je fais un podcast sur le logiciel libre, on va revenir un peu sur la partie soft. Là, ce qui est vachement intéressant, c’est qu’on se retrouve avec des téléphones sous Android, des ordinateurs sous Linux. Là, on comprend bien d’où vient cette influence maintenant. Je voudrais que tu nous racontes votre rencontre avec, je ne sais pas si on dit /e/OS.

Florent : /e/OS, oui tout à fait.

Walid : juste pour les auditeurs et les auditrices qui ne connaîtraient pas, /e/OS, c’est un OS basé sur Android Open Source Project, sur lequel toutes les couches Google ont été enlevées et qui a été monté par quelqu’un d’assez connu qui s’appelle Gaël Duval, qui est quelqu’un qui a monté à l’époque Mandrakesoft, donc distribution Linux, que nous avons connu quand nous étions jeunes, et qui a fait plein d’autres trucs. Moi, je l’ai essayé la première fois en 2019 sur un Moto G de 2015 et mon téléphone a retrouvé une seconde jeunesse, j’ai halluciné. Ça explique aussi comment on peut faire tenir assez longtemps un téléphone par le fait aussi qu’en changeant d’OS, le téléphone retrouve des performances correctes.

Florent : oui, tout à fait. Il y Il y a beaucoup de choses dans ce que tu viens de dire. Effectivement, on a commencé par faire du Fairphone OpenOS. C’était avant que e Foundation existe. Aujourd’hui, si vous voulez les trouver sur Internet, il vaut mieux taper Murena, qui est le nom commercial de l’entreprise. /e/OS, c’est impossible à trouver sur les moteurs de recherche. Donc, tapez Murena comme une murène, mais avec un A à la fin. Aujourd’hui, on est partenaire, c’est-à-dire qu’on a même monté un collectif ensemble. On a cofondé un collectif qui s’appelle FairTech, à la fois avec Fairphone, TeleCoop qui est un acteur très intéressant et très important pour nous aussi, la fondation e et Commown. Ensuite, on a aussi d’autres opérateurs téléphoniques coopératifs dans d’autres pays, WEtell par exemple en Allemagne. C’est effectivement un partenariat qui est vraiment intéressant pour nous. On s’est rencontrés comment ? Tout simplement quand nous, on a vu ce que c’était que maintenir du Fairphone Open OS. C’était un OS purement à OSP, donc très basique, avec très peu de fonctionnalités un petit peu avancées. Le GPS ne marchait pas bien. Il y avait un paquet de difficultés à utiliser Fairphone Open OS pur.

Nous, on avait, côté Commown, fabriqué une image vraiment avec des moyens techniques extrêmement faibles, sachant qu’on n’a pas de compétences en développement logiciel mobile en interne, ou très peu. On avait fait une image en installant tout un tas de softs qu’on voulait voir sur les téléphones pour les rendre plus pratiques. On avait installé microG.

Walid : attends, microG, est-ce que tu peux expliquer ce qu’est microG ? Parce que c’est un peu la pièce maîtresse.

Florent : c’est carrément la pièce maîtresse, tu as raison. microG en gros c’est un logiciel qui va émuler les API de Google, c’est-à-dire les services de Google, qui va émuler les services de Google de telle façon que même les applications qui sont installées sur le téléphone ne s’en rendent pas compte, ne se rendent pas compte de la différence. C’est-à-dire qu’elles croient faire appel à un service de Google du genre : Localise-moi ou il y a bien d’autres choses dans microG, mais je m’arrête là et puis, je ne suis pas forcément très compétent pour rentrer dans le détail. Et du coup, microG cache aux applications le fait que Google n’est pas là. Ce qui fait qu’un certain nombre d’applications qui, avant d’installer microG, plantaient carrément instantanément parce qu’elles faisaient appel à un service Google qu’elles ne trouvaient pas, grâce à microG, déjà, elles plantent pas. Voire, elles restituent un fonctionnement rigoureusement similaire et avec le même genre de performance qu’avec les services de Google. Et donc ça, c’est la pièce maîtresse parce que ça permet d’installer des applications parfaitement standard sur un téléphone sans Google. Donc, /e/OS est aussi reparti de là : Lineage plus microG, plus une grosse quantité de travail, donne /e/OS.

Nous, on avait fait ce constat que ce n’était quand même pas facile de distribuer à nos clients du Fairphone Open OS, mais ça avait rencontré un succès phénoménal. On ne s’attendait pas du tout à ça. Il faut dire qu’on a eu une bonne couverture presse, on a eu un super article dans les DNA (Dernières Nouvelles d’Alsace), avec même un encart en une des DNA, le journal emblématique de la région Grand Est. Ça nous avait fait une super pub et on avait à un moment un tiers de nos commandes qui étaient sous Fairphone Open.

Walid : j’aurais jamais pensé. Je pensais que ça allait être un truc pour les geeks.

Florent : oui, nous, au début, on s’est dit : Allez, on va tenter le coup. De toute façon, on est des libristes, on a envie de le faire, allons-y. Et on a été hyper surpris du succès. Et pas que nous, c’est-à-dire que c’est des stats qu’on a remontés à Fairphone, ils étaient ébahis. Et du coup, on espère que grâce à ça, que c’est un petit peu grâce à nous, qu’ils ont monté ensuite un partenariat avec /e/OS. Il ne faut pas se leurrer, on a eu une influence assez faible là-dessus. Je pense que l’influence principale, c’est Agnès Crepet, qui est une super développeuse française qui a rejoint Fairphone, qui avait probablement déjà connaissance de Gaël Duval ou en tout cas, ça a dû faciliter un petit peu les premières prises de contact. En tout cas, ils ont monté un partenariat aujourd’hui avec /e/OS et /e/OS est quasiment sorti sur Fairphone 4 dès le début, au bout de deux mois, quelque chose comme ça. On voit qu’ils travaillaient depuis longtemps, que ce partenariat, il marche du feu de dieu. Au sein de FairTEC, il y a des réunions quasiment toutes les semaines. C’est vraiment super. Là, on a décidé de lâcher notre incompétence sur Fairphone Open OS, au bénéfice de la super compétence de l’équipe de Murena, qui est vraiment, en plus, qui est une force de frappe complètement hallucinante par rapport à ce que nous, on aurait été capable de développer.
Et puis, des compétences au top dans le domaine du développement en informatique mobile.

Walid : c’est quoi votre stratégie par rapport à ça ? L’idée, c’est quoi, c’est d’avoir une partie de votre parc… C’est majoritairement des Fairphones, je suppose ?

Florent : oui.

Walid : vous allez avoir, il y a une partie de votre parc qui est en Android stock, enfin en Android, Fairphone, et puis une partie qui est avec e. Comment ça va se passer pour vous ?

Florent : la façon dont ça se passe aujourd’hui et depuis longtemps maintenant, et ça marche très bien, c’est qu’on reçoit tous les téléphones avec l’OS du constructeur, évidemment. Souvent, de toute façon, on est obligé de les mettre à jour parce qu’au bout d’un moment, nous, comme on en achète en grande quantité, forcément, l’OS, il a déjà reçu deux ou trois mises à jour avant qu’on les mette sur le marché, parfois. De toute façon, on va flasher les téléphones. On offre la possibilité à nos clients de dire : Moi, je ne veux pas Fairphone OS, je ne veux pas que tu mettes à jour faire Fairphone OS. Oui, je veux /e/OS. On facture ça 25 €, ce n’est quand même pas très cher, pour les gens qui n’ont pas encore commandé leur téléphone. On leur installe /e/OS et on leur envoie le téléphone direct.

Après, il y a aussi les gens qui se disent : Moi, je veux passer à /e/OS et j’ai déjà un Fairphone de chez vous, mais qui a été sous Fairphone OS. Est-ce que vous pouvez m’aider à passer à /e/OS ? Là, on offre un autre service qui peut apparaître complètement délirant à certains à certains, mais c’est : On prend un téléphone, on installe /e/OS dessus, un téléphone identique au leur, on leur envoie et on récupère le leur. On leur laisse 15 jours entre les mains qu’ils puissent jouer avec les deux, transférer un petit peu des données et tout ça, et hop, ils se font la main sur /e/OS et puis ils nous renvoient le téléphone sous Fairphone OS et c’est réglé. Nous, ça ne nous pose aucun problème. De toute façon, nos clients, ils peuvent installer le logiciel qu’ils veulent sur le matériel de Commown. C’est pareil sur les ordinateurs, s’ils veulent installer autre chose qu’Ubuntu, ils ont parfaitement le droit de le faire. Après, ça peut poser quelques problèmes au support. En pratique, ça ne pose pas de problème. On demande juste aux gens de nous dire : Si vous avez installé un autre OS que celui de base, dites-le nous. Comme ça, au moins, on ne perdra pas trop de temps à vous expliquer un truc qui n’a pas lieu d’être sur votre OS. Et puis après, si l’OS que vous avez installé, on ne le connaît vraiment pas, vous aurez un service de moins bonne qualité, c’est-à-dire qu’on pourra moins vous aider sur l’usage.

Mais par contre, on garde évidemment tous les services liés au matériel, changement de batterie, quand elles sont usées, etc. Prise en charge des pannes, des casses, etc. Ça marche très bien. On est content de faire la promotion du logiciel libre. C’est pour nous notre ADN. Et en réalité, aujourd’hui, par exemple, des Fairphone 2, on a refait une opération il n’y a pas très longtemps qu’on a appelé FrankenPhone pour faire revivre des téléphones qui sont morts pour tout le monde, ou presque, mais pas pour nous. Donc, on a pris des Fairphones 2 qui étaient encore sous Fairphone OS, donc Googlisés et tout ça. On a viré Google parce que ça ne marchait plus et c’était devenu vraiment trop lourd pour un Fairphone 2. En installant /e/OS dessus, l’appareil il revivait. C’est exactement l’expérience que tu décrivais tout à l’heure. C’est tellement plus léger qu’un Android de base, que ça fonctionne beaucoup mieux sur des appareils moins puissants. Donc, ça prolonge la vie des appareils de manière…

Walid : en fait, ce qui ce qui est intéressant dans votre modèle, c’est que si on va sur le site de Murena et qu’on regarde, moi, j’ai choisi mon téléphone parce que je voulais mettre /e/OS dessus. J’ai pris un téléphone qui était supporté, je l’ai acheté en reconditionné et j’ai mis moi-même comme un grand le truc. Mais vous, en tant que, on va dire, gestionnaire d’une flotte assez conséquente, vous pouvez à l’avance, en gros, savoir et potentiellement peut-être avoir un peu de poids pour avoir le support d’un certain nombre de matériels que vous auriez. Et l’autre question c’est, parce que ça j’ai pas creusé, c’est quelle est la politique de /e/OS ? Je pense que j’essaierai un jour d’inviter Gaël Duval pour qu’il en parle plus…

Florent : oui, ce serait super.

La durée du support


Walid : quelle est la politique en termes de durée de support ? Parce que pour vous, c’est quand même le nerf de la guerre. Si vous avez des Fairphone qui ont déjà cinq ans ou je ne sais pas combien et que vous voulez faire durer encore deux, trois ans, mais que l’OS en lui-même, il ne peut plus être mis à jour, c’est l’OS qui devient limitant, ce n’est plus le hardware qui devient limitant.

Florent : c’est exactement ça. Aujourd’hui, pour nous, le problème, c’est le logiciel. C’est pour ça que les efforts que font Fairphone en maintenant… Là, ils ont quand même arrêté le support du Fairphone 2, mais après un nombre d’années considérable. Je veux dire, c’est les seuls de loin à avoir fait tous ces efforts-là.

Walid : parce qu’il n’y a plus de pièces…

Florent : il n’y a plus de pièces, mais surtout, quel intérêt financier ? Comme tu disais, c’est un coût énorme de porter sur des vieux appareils des nouvelles versions d’Android parce qu’en réalité, il n’y a aucune coopération des autres acteurs. Fairphone a dû se débrouiller tout seul. C’est une boite minuscule par rapport à Qualcomm. N’empêche que c’est eux qui ont fait tout le boulot de reverse engineering de certains trucs de Qualcomm pour être capables de les porter sur leur appareil sous Android 11, je crois, sur Fairphone 2. Ils ont fait un effort qui est absolument délirant par rapport au reste de l’industrie. Éventuellement, tu pourrais inviter Agnès Crepet, qui a beaucoup de choses à raconter là-dessus et qui est vraiment super. On bénéficie de leurs efforts. C’est pour ça qu’on n’a pas envie d’acheter des téléphones de n’importe qui, parce que des gens qui font des efforts comme ça, c’est à eux qu’il faut acheter le matériel. Ils sont rares. En réalité, nous, on ne peut pas faire grand choses par rapport à ça. C’est-à-dire qu’on n’a pas la possibilité de développer un OS aujourd’hui. Puis, en réalité, il y a des gens qui le font très bien et qui le font beaucoup mieux que nous on le ferait.

On est une coopérative, coopérons. On coopère avec les meilleurs acteurs du secteur. Aujourd’hui, c’est Fairphone et Murena, clairement.


On a aussi beaucoup de discussions avec d’autres constructeurs. On sait aujourd’hui que Crosscall est quand même… Qui est un autre type d’appareil qu’on fournit, qui a d’autres caractéristiques que le Fairphone. Notamment, il axe sa durabilité beaucoup sur la robustesse. Eux, ils sont quand même très intéressés aussi pour essayer de fournir du support logiciel sur le long terme. On n’a pas encore les retombées significatives par rapport à ce que fait Fairphone, mais on voit qu’il y a un intérêt. En France, en plus, il y a l’indice de réparabilité et l’indice de durabilité qui mettent quand même une bonne pression sur les constructeurs. Ça nous aide. Alors je dis « Ça nous aide », en réalité, on ne regarde pas ça de manière passive. On participe de manière très active au groupe de travail sur l’indice de réparabilité à l’époque et sur l’indice de durabilité aujourd’hui, parce que pour nous, c’est la clé en réalité. On s’est battu pour faire intervenir la communauté du libre et même certains services de l’État qui étaient complètement négligés dans cette affaire pour que le logiciel libre figure dans la notation de l’indice de durabilité, c’est-à-dire que les constructeurs, ils aient idéalement des obligations, mais aussi un intérêt, une incitation à permettre l’installation propre de logiciels libres sur leur matériel pour pouvoir les faire durer longtemps.

On a Adrien qui travaille de manière extrêmement intense dans ces groupes de travail-là, toujours en coopération avec les grands acteurs du libre et les grands experts du libre qui nous aident à fournir et à construire des argumentaires, etc.

Open Hardware


Walid : deux questions. Il y en a une qui est sur le côté hardware, une qui est sur le côté software. Sur le côté hardware, à ma connaissance, il n’y a pas vraiment d’open hardware, de choses en open hardware qui tiendraient vraiment la route pour tous les jours pour faire du téléphone. Autant pour les ordinateurs, les problématiques sont un peu différentes puisqu’un ordinateur, à part le passage de 32 à 64 bits qui fait qu’il y a des OS qui ne tournent plus. Pour le reste, moi, j’ai des ordinateurs qui ont 10 ans, ils tournent toujours. On peut toujours changer le disque dur ou la RAM, ça se passe bien. Autant pour les téléphones, c’est quand même vachement différent. La première question, c’était : Est-ce que vous regardez un peu côté open hardware ? Est-ce que vous avez repéré des trucs qui, potentiellement, demain pourraient être intéressant. Et la deuxième, c’est côté plutôt software, c’est : Est-ce qu’il y a des outils libres, des services libres qui vous manquent pour mieux gérer toute cette flotte de matériel que vous avez ?

Florent : sur le premier point, l’open hardware. On est intimement convaincu, bien sûr, comme libristes, qu’il faudrait du open hardware dans beaucoup de domaines et qu’en réalité, c’est une des solutions clés pour lutter contre le gros boom qui va nous arriver avec la crise climatique, qui risque de nous empêcher de fabriquer du nouveau matériel, ou au moins de manière centralisée. Il y a beaucoup d’enjeux autour de l’open hardware et de la crise climatique. On essaye de favoriser tout ce qu’on peut dans ce domaine, mais en réalité, il y a assez un peu d’initiatives. Côté téléphone, à ma connaissance, il n’y en a à peu près aucune. Fairphone avait quand même publié un certain nombre de choses très intéressantes, notamment sur le Fairphone 2 à une époque. Aujourd’hui, je crois qu’ils ne le font plus, essentiellement, à mon avis, plus par manque de temps qu’autre chose. C’est un peu dommage. Peut-être qu’on va leur en parler bientôt puisque c’est les 10 ans de Fairphone. Ils nous ont invités, donc on va préparer tout un tas de petites réunions et essayer de leur faire du feedback. Dès qu’on peut, on fait du feedback.

Sur ces aspects-là, côté téléphonie, il n’y a quand même pas grand-chose qui se passe. Côté ordinateur, nous, on a un petit peu participé, même plutôt beaucoup, à un moment, à l’aventure de Cairn Devices. Cairn Devices, qui est une entreprise strasbourgeoise aussi, c’est vraiment nos voisins, qui ont comme ambition de fabriquer un portable très modulaire, des composants extrêmement faciles à changer, etc. Ils ont beaucoup de difficulté à démarrer ce genre d’activité qui est vraiment très difficile et très intense en capital. C’est très difficile en France de monter ce genre de de boîtes. Aujourd’hui, ils se sont, entre guillemets, rabattus pour le moment sur le développement d’un clavier en open hardware. Ce projet est quand même vachement intéressant. Là, on a mis un peu des efforts là-dedans. On espère que le clavier va sortir bientôt. Je crois que là, on est vraiment tout proche parce qu’ils ont réussi à le faire produire. Il y a des initiatives, on les suit et on essaye de les soutenir avec nos moyens. Évidemment, on est Commown, on n’est pas une multinationale. Si, techniquement, on est une multinationale, on fournit aussi nos services en Belgique et en Allemagne, mais on n’est quand même basé qu’en France, on n’est pas une multinationale et on n’a aucun moyen financier.

Mais en réalité, on arrive à monter des projets pour aller chercher des subventions ensemble. On a fait ça avec Cairn Devices. On a réussi à récupérer une subvention de 30 000 € pour eux et pour nous, pour essayer de faire avancer leur projet et le nôtre en même temps. Donc on s’entraide et on espère que ça va donner des résultats. Aujourd’hui, il y a framework au niveau des ordinateurs qui a quand même un peu tué le jeu, c’est-à-dire que pour nous, leur produit, il est absolument extraordinaire et unique au monde pour le moment. On aimerait bien qu’ils aillent beaucoup plus loin. Et là, je pense que par contre, on aura une influence extrêmement limitée sur eux parce que c’est quand même une boite américaine très, très… montée par des anciens de Facebook. Bref, ce n’est pas du tout le même monde que le nôtre, clairement. Pour l’instant, ils ne vendent pas encore à des entreprises. On est en discussion avec eux depuis un certain temps. On va essayer d’acheter leur matériel pour le tester sur une flotte assez importante pour voir un peu si ça tient la route dans la durée, mais en tout cas, le concept est top.

Il n’y a pas mal d’open hardware là-dedans. Ils ont publié un certain nombre de leurs travaux, notamment le châssis. On peut facilement construire un châssis, ils ont quand même bossé dans ce domaine-là et c’est cool. Maintenant, il n’y a pas que l’open hardware qui compte. Pour faire durer les appareils, il n’y a rien de mieux qu’être capable de les réparer et d’avoir une une bonne doc de réparation, des schémas, des boardviews, etc. Aujourd’hui, il y a très peu de constructeurs qui fournissent du matériel de qualité pour aider les réparateurs à travailler. Commençons par le commencement. Ce serait déjà chouette que tous les constructeurs fassent ça.

Les outils logiciels


Walid : la deuxième question, c’était au niveau logiciel. Est-ce qu’il vous manque des… Hardware, tu viens d’expliquer un peu, mais sur la partie logiciel, est-ce qu’il vous manque des services ? Est-ce qu’ils vous ont des logiciels libres pour boucher vraiment des trous dans votre offre ou de manière générale, pour proposer un service de location ? Est-ce qu’il y a des choses qui manquent vraiment ?

Florent : plein. On a même recommencé de zéro. C’est-à-dire qu’aujourd’hui, nous, comme on est très culturellement axé logiciel libre et pas que culturellement, on a de bonnes raisons, que j’ai essayé d’exploser, de l’être. Malheureusement, on a plein de clients qu’il faut aller chercher là où ils sont, et en particulier, justement, les entreprises. Nos offres en direction des entreprises, elles comprennent Linux. Bien sûr, on serait très content de fournir plein de Linux à des entreprises, mais en réalité, aujourd’hui, la plupart de ces entreprises prennent des machines sous Windows. Donc, on leur fournit des machines sous Windows. Parmi les choses qu’on a envie de faire, c’est vraiment du conseil de transition de façon vraiment qualitative. Aujourd’hui, on a assez peu les moyens de faire ça. C’est-à-dire qu’on aimerait être capable de dire à tous ces gens : Qu’est-ce que vous utilisez comme logiciel sous Windows ? Ça, ça et ça. On a des remplacements en libre. Ça, on sait déjà faire. Et on va vous aider à les mettre en place chez vous. Ça, par contre, on fait moins. On aimerait bien mettre en place des partenariats, mais faute de temps, on n’a jamais réussi. Mais on aimerait bien avoir des acteurs qui nous aident à aller prendre nos clients entreprises par main et essayer de les amener à utiliser de plus en plus de logiciels libres sans forcément d’un coup les faire passer à Linux.

Mais logiciel par logiciel, petit à petit, leur faire désinstaller tous les logiciels non open source de leurs Windows. Et puis, un jour, franchir le pas. Parce qu’une fois qu’on n’utilise plus que du logiciel libre, changer d’OS, c’est hyper facile. Il n’y a même que des bénéfices à le faire puisque c’est vachement mieux foutu. Honnêtement, sous Linux, toute objectivité évidemment. Ça nous manque beaucoup, mais ce n’est pas tout à fait du logiciel, c’est plus de la compétence, du conseil, une offre de services qu’il faudrait mettre en place. Ensuite, l’étape d’après, même si techniquement, nous, on a envie que ce soit avant et moi le premier, on aimerait mettre en place de l’infogérance, comme on dit, sous Linux, c’est-à-dire être capable de fournir des services vraiment de haut niveau à nos clients sous Linux. Typiquement, de la télédistribution de logiciels, de la télé-configuration de logiciels, de la mise en place de tout leur système d’information. Ce que j’imagine aujourd’hui, c’est utiliser des technologies qui sont vraiment faites pour ça, de configuration de machines. Ça peut être très sobre, ça peut être du script qu’on exécute à distance via des ponts SSH, via des serveurs de rendez-vous… enfin bref, on peut faire des trucs chouettes.

Walid : en 2023, tu as des outils de gestion de conf qui permettent de faire ça. Mais gérer un Desktop Linux, comparé à gérer un serveur Linux, pour avoir vu mes collègues, il y a très longtemps, gérer le Desktop Linux de l’Assemblée nationale, c’est un métier quoi.

Florent : oui, tout à fait. C’est un métier, mais c’est celui qu’en réalité, on a envie de faire. C’est-à-dire qu’aujourd’hui, notre support, c’est ce qu’il fait en pratique, mais il le fait avec des moyens techniques qui sont limités. On fait des petites prises de contrôle à distance, etc. On a quand même des compétences en la matière, mais en réalité, ça, c’est bien pour des petites entreprises ou pour des particuliers, mais on commence à avoir des clients un peu plus gros ou qui ont des besoins, qui ont besoin que ça marche au top lors desktops sur Linux et on a envie de leur fournir du service de meilleure qualité. Oui, clairement, il y a Ansible, Salt, etc, toute une stack technique que de toute façon, moi, j’utilise tous les jours puisque j’ai aussi mes ordinateurs en interne à gérer. On a quand même pratiquement une trentaine de salariés aujourd’hui. On ne peut plus gérer ça avec des bouts de ficelle et on ne l’a jamais fait du reste. Évidemment, on a quand même une certaine technicité. Sauf qu’il faut construire toute une équipe pour être capable de faire ça. Aujourd’hui, c’est des moyens financiers de recrutement qu’on n’a pas.

Mais on a recruté des jeunes quand ils étaient encore vraiment jeunes. On a essayé de prendre des bons en devenir et ils ont été bons. On a bientôt des gens qui vont être ingénieurs en informatique, qui vont avoir des masters en informatique et tout ça et qui ont bien l’expérience de comment ça marche le support chez Commown et du coup, pourraient mettre en place ce genre de service de haut niveau ou en tout cas, acquérir les compétences qui sont nécessaires pour le faire. Voilà, donc tout ça est clairement la direction dans laquelle on va, mais on y va tout doucement, malheureusement. Ou heureusement, parce que c’est peut-être la meilleure façon de faire. En tout cas, on y va résolument.

Les prochains défis de Commown


Walid : c’est bien parce que ça introduit ma question suivante qui est : Quels sont les prochains défis qui attendent Commown ?

Florent : ça, c’est un intérêt à l’instant aussi. Les prochains défis, c’est grosso modo de devenir extrêmement efficace pour reconditionner nos propres appareils et les relouer, notamment les ordinateurs. La relocation d’ordinateur portable, c’est vachement compliqué parce qu’un ordinateur portable qui a eu une première vie, il faut vraiment qu’il soit en très bon état pour être capable de le relouer comme ça sans rien faire dessus. Ça, ça arrive, mais mine de rien, c’est des appareils mobiles et du coup, ça tombe, ça prend des coups, etc. C’est pour ça qu’on essaye de favoriser les ordinateurs fixes, d’ailleurs, parce que eux, pour le coup, ils sont vraiment, vraiment, vraiment durables. Les portables, c’est vachement moins durable. Donc, on récupère des portables qui sont parfois dans un très mauvais état. On n’a pas mis en place toute l’architecture qu’il faut aujourd’hui pour les gérer efficacement, c’est-à-dire notre magasin en ligne, il ne permet pas facilement de mettre en place des ordinateurs reconditionnés avec différents grades, de gérer le stock des ordinateurs reconditionnés, même si aujourd’hui, on sait gérer les stocks de neuf, mais pas trop les stocks de reconditionnés sur le magasin en ligne. On a quand même tout un outillage, toute une base de données bien foutue.

On connaît tous nos appareils, on sait où ils vont, on les gère parfaitement dans notre ERP, open source en passant, Odoo, mais on sous-exploite cette cette gestion de stock pour la mise en place des ordinateurs reconditionnés sur le magasin en ligne. Un des gros défis qui nous arrive, c’est toute cette chaîne à la fois informatique et logistique de gestion efficace et rapide pour remettre le plus vite possible sur le marché – pour qu’ils soient de nouveau utilisés et qu’ils ne dorment pas dans un placard trop longtemps – les appareils, les ordinateurs reconditionnés, et notamment les portables sur lesquels, franchement, économiquement, des fois, c’est compliqué de s’y retrouver. Changer un châssis, par exemple, ça prend beaucoup trop de temps pour être rentable économiquement. Donc, on a plutôt intérêt à louer l’ordinateur vraiment pas cher s’il est en très mauvais état. Tout ça reste un peu à affiner, on va dire. Évidemment, on a tout un tas d’idées, on a déjà de la pratique parce qu’en réalité, avec les téléphones, on fait ça depuis longtemps. Mais en réalité, le téléphone, c’est plus facile. Ils nous reviennent en moins mauvais état ou en tout cas, on a une facilité à changer l’équivalent du châssis, changer la coque d’un téléphone c’est en général facile et rapide, alors que changer le châssis d’un ordinateur, c’est très coûteux et très inefficace et très lourd. On est moins avancé sur les ordinateurs que sur les téléphones.

Walid : oui, j’ai l’impression d’être au boulot et d’entendre mes collègues parler des cycles de reconditionnement du gros électroménager. Je comprends tout à fait. Avant de terminer, je voulais aborder une dernière question. C’est les logiciels où vous étiez en interne. Vous utilisez un logiciel que j’aime qui s’appelle Odoo et dans lequel vous pouvez gérer toute la partie reconditionnement avec le magnifique module de réparation, ce que j’avais déjà fait ailleurs aussi. Qu’est-ce que vous utilisez juste comme ça, comme palette de logiciels en interne, un peu emblématiques, mais un peu représentatifs ?

Florent : pas grand-chose, parce qu’aujourd’hui, Odoo fait beaucoup de choses. Ça fait beaucoup de choses chez nous. Il faut savoir que nous, on a beaucoup, beaucoup, beaucoup développé de modules Odoo custom. Un peu trop d’ailleurs, parce que malheureusement, c’est souvent la facilité au début, quand on ne connaît pas les milliers de modules qui existent dans la communauté open source de Odoo. Ceci dit, notre activité, elle est quand même assez atypique et du coup, on a quand même du mal à trouver des modules généraux, génériques qui correspondent à nos besoins. On fait vraiment beaucoup de choses dans Odoo aujourd’hui, à la fois le support, le magasin en ligne, la compta, la facturation, tout, à peu tout, la gestion de projet, enfin… On utilise vraiment beaucoup de choses de Odoo.

Walid : vous n’utilisez pas les modules de production pour générer des heures de fabrication, des heures de réparation, des trucs comme ça ?

Florent : j’ai fait une grosse expérimentation sur le Fairphone 2 avec, qui a duré quand même longtemps. J’avais mis en place tous les modules au-dessus qui sont liés à ça pour assembler les Fairphone 2 chez nous, pour avoir la traçabilité au niveau de la pièce. Je n’ai pas raconté tout parce que ce serait sans fin, mais quand on recevait les Fairphone 2, quand on a démarré Commown, les Fairphone 2, on les démontait tous un par un. On relevait l’intégralité des numéros de série de tous les modules des téléphones. On avait une base de données intégrale de tous les modules de chaque téléphone.

Walid : ça, tu ne peux pas l’avoir par du soft ?

Florent : même Fairphone l’a pas en fait. On était capable de traquer les modules par module et de dire : J’ai démonté tel module de tel téléphone, je l’ai remonté dans tel autre pour le réparer. Ou: J’ai démonté tel module du téléphone, je l’ai envoyé à un client qui m’a renvoyé le module équivalent en panne et que je renvoie au constructeur sous garantie. On était capable de gérer tout ça. En réalité, aujourd’hui, on n’a plus besoin de tout ça. C’était une machinerie extraordinaire. C’était très beau techniquement, mais on avait beaucoup de données à récupérer qui, initialement, étaient gérées avec des feuilles de calcul et la récupération de ces données a été un enfer sur terre pendant longtemps. C’est à un moment où notre activité explosait. J’étais le seul informaticien et j’ai explosé en vol sur ce projet-là parce que c’était trop ambitieux à faire tout de suite. Donc, peut-être qu’on refera ça un jour, ce n’est pas sûr. Aujourd’hui, on ne trace plus au niveau du module et du coup, on n’a plus besoin des modules d’assemblage, des modules de fabrication et des recettes, des BOMs, des fameux BOM de fabrication pour tracer au niveau des modules, donc on ne s’en sert plus.

Le modèle coopératif d’une SCIC


Walid : on va arrêter ce sujet-là parce que je pense qu’on pourra en parler pendant des heures. On arrive à la fin de cette entrevue. Je voulais te donner une tribune libre. Si tu as un message à faire passer avant qu’on se sépare, quel serait-il ?

Florent : ça, c’est intéressant parce qu’il y a un trou dans la raquette, parce que je suis un peu trop bavard. Un des sujets de Commown dont on n’a pas du tout parlé, c’est le fait qu’on ait une SCIC. C’est la gouvernance d’une SCIC. En réalité, quand j’ai démarré par les trois piliers au début de l’interview, je n’en ai donné qu’un. Il en restait deux autres. C’était le choix du matériel, éthique, tout ça, construire pour durer, éco-conçu, etc. On en a quand même parlé après. Le troisième point, c’était : On est une SCIC. Et « On est une SCIC » ce n’est pas rien.

Walid : attends, SCIC, c’est Société commune d’intérêt collectif ?

Florent : c’est Société coopérative.

Walid : coopérative, pardon. Coopérative.

Florent : je vais juste parler de ce modèle qui, pour moi, est un modèle extraordinaire et un modèle d’avenir pour notamment faire face aux crises qui nous arrivent. Premièrement, c’est une coopérative. Ça veut dire quoi ? Ça veut dire que ce n’est pas le capital qui gouverne. Et ça, c’est vachement important.

C’est-à-dire que c’est un modèle qui n’est pas un modèle capitaliste. Donc, ce n’est pas un euro égale une voix, c’est une personne égale une voix.


Qu’une personne ait les moyens de mettre 5 000 € sur la table et les moyens d’en mettre 100, elle a la même valeur en termes de gouvernance pour nous. Donc, ça, c’est vachement important. C’est-à-dire que ce n’est pas l’argent qui gouverne. C’est vachement important à plein de points de vue. Dont un, la stabilité de la société, parce que si quelqu’un arrive avec un million d’euros, il ne peut pas dire : C’est bon, je rachète toutes vos parts, allez vous faire voir. De toute façon, il pourra racheter toutes nos parts. Ce sera avec plaisir qu’on lui vendra, mais il aura une voix comme tout le monde. On accueillera par contre son capital les bras grands ouverts parce que ça nous permettra d’acheter du matériel. Et ça, c’est toujours bienvenu. Par contre, ce qui va avec le « Dégagez tous et je change votre projet », ce n’est pas possible. Donc, une SCIC, on ne peut pas changer son projet comme ça. Et donc nous on a des statuts dans lesquels sont gravés plein de choses dans le marbre, notamment le fait que notre objectif est de faire durer le matériel. Et donc, on ne pourra pas changer ça, même avec tout l’argent du monde.

Le deuxième point, c’est que c’est une coopérative, mais d’intérêt collectif. Là, on touche à un point très intéressant, c’est-à-dire qu’une coopérative classique, c’est que, grosso modo, les salariés qui peuvent devenir des coopérateurs, à peu près, ce n’est pas tout à fait exact, mais vraiment pas loin, et donc ne participent à la gouvernance que les salariés. Dans une SCIC, ce n’est pas du tout le cas, puisque les salariés sont une composante comme une autre. Nous avons plein d’autres collèges et notamment dans une SCIC, il est légalement obligatoire de rendre possible, voire facile, la prise de part par des utilisateurs du service. Donc, les clients doivent pouvoir devenir des actionnaires et du coup, gagner du pouvoir. Ça, c’est vachement important.

Ça veut dire que les utilisateurs peuvent diriger l’entreprise et l’amener là où ils veulent qu’elle aille. Et donc, l’entreprise, elle se met forcément au service des utilisateurs et non pas, comme on le voit avec un paquet de grosses entreprises notamment, je cite les GAFAM parce que c’est ce qui nous agace le plus en tant que libriste. En gros, ils ne rendent pas service à leurs utilisateurs, ils se rendent service à eux avant tout. Et donc, quitte à piquer des données à leurs utilisateurs sans leur dire, etc. Nous évidemment, on ne peut pas faire ça, et de manière structurelle. C’est-à-dire que ce n’est pas juste notre bonne volonté, c’est légal, on ne peut pas faire autrement. Et ça, c’est vachement important aussi pour nous, pour la stabilité du projet. C’est-à-dire que le jour où nous, on s’en va, on a un accident, un machin, un truc, ce n’est pas grave. Ce n’est pas grave, merci, pour nous, mais pas pour l’entreprise. Donc, l’entreprise ne changera pas, elle restera stable. Ce modèle de SCIC qui doit consigner des intérêts potentiellement divergents est vachement intéressant parce que ça oblige à construire un modèle économique qui satisfait tout le monde en réalité, et non pas celui qui a le pouvoir à l’instant T.

Nous, au sein de la SCIC Commown, on a des clients, c’est obligatoire, des salariés et des porteurs de projets. On est dans le même collège, on a le même poids. Nous, cofondateurs, on a le même poids qu’un salarié ou une salariée qui serait dans le même collège que nous. On a des producteurs, des fabricants de matériel, donc why! open computing, par exemple, fait partie de la SCIC et a son mot à dire sur la gouvernance. Vous voyez que rien qu’en citant ces trois-là, ils ont potentiellement des intérêts divergents. Les salariés vont dire : Nous, on voudrait avoir un salaire plus élevé. Les utilisateurs vont dire : Vous êtes gentils, mais si vous avez un salaire plus élevé, les prix vont augmenter. Nous, on a envie que les prix diminuent, au contraire. Et les producteurs, ils vont dire : Oui, mais vous êtes gentils, si vous nous mettez la pression pour acheter les ordinateurs moins chers, on vit comment nous ? Pareil, j’ai oublié les financiers. Et les financiers, c’est pareil, ils ont un rôle vachement important. Puisqu’on doit commencer par acheter des appareils, eux aussi, ils ont un intérêt à être dans la SCIC et on a un certain nombre d’investisseurs dans la SCIC qui nous permettent d’avoir de l’argent.

Ce modèle-là de société coopérative d’intérêt collectif est un modèle qui est un modèle non-capitaliste dont on veut faire la démonstration de l’efficacité. Je pense qu’on y arrive aujourd’hui puisqu’on a des sociétaires qui sont tous contents, ils sont très nombreux. Globalement, le modèle est plébiscité à la fois par tous les sociétaires. On aimerait bien aujourd’hui augmenter la visibilité de ce modèle et favoriser la participation de nos sociétaires. On y travaille d’arrache-pied en espérant, pour la prochaine AG, montrer qu’on a beaucoup progressé dans ce domaine et qu’on va donner encore plus de pouvoir à des gens de l’extérieur de l’entreprise pour avoir de l’expertise, pour avoir des intérêts divergents et innover en termes de modèle.

Conclusion


Walid : c’est une bonne conclusion. C’est un éloge de la SCIC. On n’a pas parlé des Licoornes qui est un regroupement des différentes SCIC, mais on pourra en reparler dans une autre émission à un autre moment parce que c’est un sujet vraiment passionnant. Et aussi pareil, on n’a pas parlé de Telecoop, mais on pourrait en reparler aussi.

Florent : ça fait plein de gens à inviter, ça va être super. Tu vas pouvoir avoir plein de super émissions avec des Licoornes.

Walid : je vais faire un deuxième podcast qui va s’appeler Projet SCIC ou Projets Licoornes, il faudra faire ça. Florent, merci beaucoup d’avoir pris ton temps pour parler avec nous.

Florent : merci à toi.

Walid : je suis tombé amoureux de Commown la première fois que j’ai vu Adrien parler. On a parlé après la présentation que j’avais vue et j’ai trouvé ça super. Je voulais vraiment faire découvrir ce modèle parce que je trouve que c’est hyper intéressant. Et puis votre approche du logiciel libre, votre approche de combattre l’obsolescence programmée par justement le logiciel libre aussi. En tout cas, moi, je suis super content d’avoir pu échanger avec toi sur ce sujet-là. Je vais encore une fois te remercier et je vais dire pour nos auditeurs et nos auditrices que j’espère qu’ils ont aussi apprécié cet échange et que si c’est le cas, qu’ils n’hésitent pas à partager cet épisode autour d’eux sur les réseaux sociaux, à nous faire des commentaires aussi sur les plateformes de streaming puisque le podcast est disponible sur toutes les bonnes plateformes de streaming. On a d’autres épisodes qui vont venir pour parler d’autres métiers et d’autres projets aussi et que ça va être très sympa. Florent, écoute, merci beaucoup et puis à bientôt, j’espère.

Florent : un grand merci à toi. Continue ton émission, elle est super. J’en ai écouté quelques unes, du coup, c’est vraiment chouette. Bon travail. Bon courage à toi pour continuer. Merci.Au plaisir.

Walid : et à bientôt !

Cet épisode est enregistré le 21 juin 2023.

Transcription réalisée par Raphaël Semeteys.

Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (10 months ago)

Agnes Crepet – Head of software longevity & IT chez FAIRPHONE


Agnes Crepet, responsable IT et longévité logicielle chez Fairphone, nous emmène à la découverte de la conception et maintenance d’un smartphone Android sur le long terme.

podcast.projets-libres.org/@pr…

Sommaire

Interview d’Agnès Crepet – Fairphone


Walid : bienvenue sur Projet Libre et c’est avec plaisir qu’aujourd’hui je reçois Agnès Crépet dans l’épisode numéro 4. Florent Cayré, qui est un des fondateurs de la coopérative Commown, m’encourageait fortement à contacter Agnès car il m’avait dit qu’elle aurait des choses passionnantes à me dire. Elle a bien voulu accepter de parler dans Projets Libres!.

Agnes travaille chez Fairphone, elle est la responsable de l’informatique et de la longévité logicielle. Avec elle on va parler donc de ce que ça veut dire que de maintenir un système d’exploitation et des applications sur la durée, et aussi avec les relations avec les autres acteurs de l’écosystème. Et si vous voulez connaître plus en détail son parcours alors je vais vous mettre en description le lien vers l’excellente épisode du podcast de l’APRIL, Libre à vous numéro 180 dans lequel Agnès décrit très bien tout son parcours.
Agnes merci beaucoup d’être avec nous j’espère que tu vas bien aujourd’hui. Tu m’as dit que tu avais chaud.

Agnes : exactement. Dans mon espace de coworking, il fait extrêmement chaud.

Le parcours d’Agnes


Walid : mais écoute, ça ne va pas nous empêcher de parler. Est-ce que dans un premier temps, tu pourrais nous expliquer assez rapidement ton parcours et ce qui a fait que tu en es arrivée à travailler chez Fairphone?

Agnes : oui, bien sûr. Mon parcours rapide : comme tu l’as dit, dans Libre à vous je vais un peu dans les détails de mon parcours. Donc je ne vais pas te le faire maintenant, mais j’ai principalement bossé en France quand même jusqu’à mes 40 années. J’ai fait des études assez classiques en informatique, en commençant par faire des boulots assez corporate et puis petit à petit en m’éloignant un peu des formules corporate, donc en lançant ma propre boîte avec des potes qui s’appellent Ninja Squad et tout.
Mais bon, en restant on va dire dans l’écosystème français, et en 2018 j’ai rejoint Fairphone, qui est aux Pays-Bas, donc qui m’a donné la possibilité de voir ce que c’était de l’intérieur de bosser pour une boîte qui fait un produit numérique, éthique, on va dire. On va en parler intensivement aujourd’hui, je suppose.

Et puis qui m’a donné aussi la possibilité d’avoir une expérience avec des cultures très différentes. Sortir un peu de mon écosystème franco-français, donc c’était aussi chouette. Et donc je bosse toujours pour cette boîte, 5 ans après, en full remote (NDLR : télétravail complet), enfin almost full remote, c’est-à-dire que j’y vais quand même une petite semaine par mois pour boire des cafés avec mes collègues, juste pour garder un lien. Je trouve que parfois le full remote c’est un peu challenge.
Donc voilà, mon parcours brièvement, et à côté de mes jobs, depuis le début, donc une vingtaine d’années, depuis que j’ai commencé à bosser, et même avant, j’ai toujours fait partie de collectifs militants, politiques, autour d’une certaine forme de numérique plus inclusive, plus libre, plus diversifiée. Donc je fais partie de l’équipe fondatrice de MiXiT, qui a une conférence à Lyon, qui œuvre pour plus de diversité et d’éthique dans la tech. Je fais partie du collectif Duchess France, qui est un collectif qui travaille pour plus de visibilité des femmes tech dans la tech.

Et j’ai aussi cofondé sur Saint-Etienne, la ville où j’habite, un web média, on va dire, qui s’appelle le numéro zéro et qui fait partie de la vague des Indie-Médias. J’en parle aussi dans Libre à vous, donc je ne vais pas trop en parler aujourd’hui. Mais en gros, c’est toute la vague des médias alternatifs qui a apparu à la fin des années 90, début des années 2000, qui était une forme de militantisme pour trouver une alternative aux médias de masse. Voilà. Et tout se passait en ligne. Donc, c’est aussi ce qui m’a donné envie de faire des études dans l’informatique. Donc voilà un petit peu mes actions militantes en dehors de mon job. Mais c’est vrai que depuis que je bosse chez Fairphone, on va dire que j’ai un peu aligné les planètes sur ce truc-là.

L’arrivée chez Fairphone, les débuts de Fairphone


Walid : moi, la première fois que j’ai découvert Fairphone, c’était à une conférence au FOSDEM en 2016 déjà. Donc toi, comment tu es arrivé chez Fairphone?

Agnes : je suis arrivée comme une personne qui n’est absolument pas connue de Fairphone. Donc j’ai postulé une annonce en ligne parce que j’avais l’impression que j’avais un profil qui correspondait au poste, et pas un recruteur qui m’a contacté en disant « on a un super poste pour vous ». Déjà d’une, parce qu’on n’a pas la thune chez faire fun d’avoir des recruteurs, en tout cas on le fait très rarement, ponctuellement, et aussi parce que ce n’est pas forcément dans notre philosophie. On a envie aussi que n’importe qui puisse postuler.
Donc je suis arrivée juste parce que j’avais envie d’avoir une expérience quand même en dehors de la France, ça c’est sûr. Et puis ça faisait longtemps que j’avais envie de bosser pour une boîte produit, numérique éthique, numérique responsable. Donc voilà, il n’y en a pas tant que ça finalement en Europe. Donc je l’ai suivi depuis longtemps, depuis la campagne de sensibilisation qu’il et elle avaient fait autour des minerais de conflits en 2010-2011. J’avais suivi ce projet, j’avais vu le Fairphone 1 et le Fairphone 2 sortir.

Je suis arrivée 5 ans après le début de l’histoire, après le début de la boîte, parce que la boîte c’est en 2013 : je suis arrivée en 2018. On vient de fêter nos 10 ans, donc tu vois, je suis arrivée sur la deuxième moitié de vie de Fairphone, ce qui n’est sûrement pas la plus compliquée, on va dire. Je ne dis pas que c’est simple de bosser aujourd’hui chez Fairphone, parce que rien n’est acquis. C’est toujours très compliqué, chaque mois tu as des nouveaux problèmes qui arrivent, il faut les résoudre, et puis on n’a pas une assise financière qui nous permet de prendre des risques, même si on en prend beaucoup.


Mais ce n’est rien en comparaison aux personnes qui ont fait les 5 premières années, je pense. Toute humilité parce que ces personnes-là, elles étaient sur un projet qui était naissant, ou sur les premiers produits qui étaient compliqués. Fairphone 1 et Fairphone 2, ce sont des produits dont la qualité n’était pas exceptionnelle, parce que l’on apprenait. Donc du coup, beaucoup, beaucoup de stress, je pense, pour cette équipe de personnes sur les 5 premières années.
Je n’ai pas vraiment connu, j’en ai vu quand même quelques aspects quand je suis arrivée en 2018 sur les premières, les 1 ou 2 premières années. Et ça s’est un peu stabilisé quand on a sorti le Fairphone 3. C’est quand même un produit de bien meilleure qualité, qui montre que, au bout d’un moment, on a su faire quand même des téléphones très corrects. Je suis un peu dure avec nous-mêmes, mais on se le cache pas vraiment et puis c’est important de pas le cacher aussi. De là où on en est, de là où on a commencé quoi.

Fairphone est un succès aussi par les utilisatrices, utilisateurs qui ont supporté ce projet dingue de faire un téléphone éthique en ayant des problèmes techniques sur les premiers opus quoi. C’est à dire qu’en fait il y a des gens qui utilisaient le Fairphone 2 en ayant des gros soucis mais qui étaient contents d’utiliser parce qu’ils participaient à un projet différent. Donc ça c’est un truc à souligner, l’importance de la communauté sur ce genre de projet.


Walid : toi t’avais déjà travaillé avec du matériel ou c’était quelque chose de nouveau pour toi ?

Agnes : non, non, c’était complètement nouveau et je connaissais rien d’Android quand je suis arrivée. Donc si tu veux j’avais quand même des marches à monter. J’étais développeuse back-end, je faisais du back-end. Donc je venais un peu de loin, après j’avais fait un peu de management de projet, des choses comme ça, d’équipe, plus que de projet d’ailleurs.
Oui j’étais quand même sur une stack technique très différente. J’avais quand même fait un peu de Linux au tout début de ma carrière, du développement C, donc ça, ça m’a aidée. Parce qu’aujourd’hui, c’est vrai que c’est quand même…

On fait ça, une partie de mon équipe fait ça. Mais c’est vrai que c’était quand même un beau challenge quand je suis arrivée. J’avais très peu de compétences en électronique, donc voilà. Tout ce qui est processeur Qualcomm, etc., il a fallu que j’apprenne beaucoup de trucs. Ça va mieux aujourd’hui, mais je t’avoue que les premiers mois ont été bien remplis.

La mission de Fairphone


Walid : si je reviens sur Fairphone, l’entreprise en général, est-ce que tu peux juste nous décrire quel est l’objectif que vous cherchez à atteindre ?

Agnes : la mission de l’entreprise, c’est de changer l’industrie électronique pour la rendre plus responsable, pour faire en sorte qu’on ne se cache plus la face sur les exactions commises dans la construction de téléphones, exactions sociales ou environnementales. Et pour faire en sorte de changer l’industrie pour qu’elle devienne meilleure, et que les gens soient mieux payés dans la supply chain (NDLR : la chaîne d’approvisionnement) et que le téléphone dure plus longtemps pour éviter trop de déchets électroniques. Je fais court, mais c’est quand même le principal axe de Fairphone et en ce sens c’est vrai que ça reste un projet assez unique parce que nos KPIs, par exemple, les indicateurs de performance, ne sont pas uniquement basés que sur la rentabilité financière, mais aussi sur toutes les zones d’impact que j’ai un peu citées.
Donc, est-ce qu’il y a beaucoup de personnes qui bénéficient de nos programmes sociaux en termes de salaire ? Est-ce qu’il y a des fair matériaux (NDLR : matériaux responsables) qui sont inclus dans le téléphone ? Est-ce que l’on recycle comme on prétend le faire ? On a plein d’indicateurs de performance qui existent et qui permettent de suivre les critères de réussite qu’on se fixe. Ces critères de réussite ne sont pas évidemment que financiers.

Mais la finance est aussi importante parce que l’on n’est pas une NGO (NDLR : une ONG). On est une boîte, même si on est une entreprise sociale : c’est un statut un peu similaire au SCOP en France. Les Pays-Bas l’appellent Social Enterprise, mais c’est similaire au SCOP. On est aux Pays-Bas, donc c’est des capitalistes, c’est des libéraux absolus, donc c’est quand même moins classe que des SCOP, je dirais. Mais quand même, ça ressemble un peu, avec notamment le fait de ne pas inclure uniquement la rentabilité financière de la boîte. C’est quand même important qu’on vise la rentabilité financière parce que si on prétend influencer l’industrie électronique, il faut qu’on montre que ce projet est viable. Il faut qu’on montre à Samsung et à d’autres que si vous faites des téléphones en payant des living wage, des revenus convenables, décents aux personnes qui assemblent le téléphone, c’est possible. Vous allez y arriver, vous n’allez pas mettre votre boîte à risque. Donc tout ça, c’est important aussi pour nous.

L’équipe d’Agnes et ses missions


Walid : si je prends maintenant ton équipe, combien de personnes êtes-vous ? Quelle est l’étendue de vos différentes missions ?

Agnes : mon équipe, tu parles juste de mon équipe.

Walid : oui, ton équipe.

Agnes : alors j’ai une quinzaine d’ingés, enfin de personnes dans mon équipe. J’en ai deux tiers sur le non exotique, on va dire l’IT pur : Dev, Backend, Kotlin, Spring ou des choses beaucoup encore moins exotiques qu’implémenter un ERP. Quand je suis arrivée dans la boîte, si tu veux, il n’y avait pas toute la stack IT que tu trouves dans des boîtes classiques. Donc il y avait pas un logiciel de finance, un helpdesk, rien pour gérer les stocks et tout ça. Donc il a fallu qu’on mette en place des solutions, qui ne m’excitent pas tant que ça,
Mais qu’il faut faire pour scaler : ERP et compagnie. On a changé de webshop la semaine dernière.
Enfin voilà, on assainit la stack technique IT.
J’ai aussi des développeurs et développeuses qui travaillent sur tout ce qui est collecte de data très spécifique pour faire de l’analytique sur les KPIs qu’on prétend suivre. Donc typiquement, on avale toutes les data qui viennent d’usines, qui viennent des repair centers (NDLR : centres de réparation) pour faire de l’analytique sur c’est quoi qui break (NDLR : casse) le plus, là où il faut qu’on s’améliore, ce qu’on appelle les fields failure rates, les taux d’échec dans le champ.

Donc quand ton téléphone est shippé (NDLR : envoyé), c’est un hardware (matériel), donc c’est compliqué. Tu ne peux pas faire une mise à jour facilement, enfin une mise à jour software (logiciel), on ne peut pas tout résoudre, notamment pas le hardware. Et donc on suit dans le field toutes les erreurs, hardware et software, grâce au fait que le téléphone peut revenir dans un centre de réparation. Donc tout ça, on le suit. Et tout ça, c’est des solutions techniques à mettre en place. J’ai des gens qui font ça chez moi.

Et j’ai un tiers de l’équipe qui travaille vraiment sur tout ce qui est longévité logicielle du téléphone, comment lutter contre l’obsolescence des téléphones Android. Donc là, c’est vraiment des gens plutôt embedded development (NDLR : développement embarqué). J’ai une personne à temps plein sur le noyau Linux, voilà, des choses comme ça qui nécessitent des compétences qui sont assez particulières, un peu niches. Parce que si je te parle du noyau Linux, par exemple, aujourd’hui il n’y a personne qui fait beaucoup d’upgrades de noyau Linux sur une stack Android de téléphone.

L’industrie est faite dans la stack Android. Gros, tu shippes ton téléphone avec une version d’Android, tu fais, allez, au pire une ou deux versions, un ou deux upgrades, et c’est tout. Tu n’as même pas besoin de toucher ton noyau. Mais si nous on veut faire 5, 6, 7, 8 ans de support logiciel, il faut qu’à un moment donné on mette à jour le noyau Linux ou qu’on trouve des solutions similaires. Tout ça, ça nécessite des compétences assez particulières, de mainlining, d’upstream Linux, kernel, des choses comme ça.

Et donc, j’ai une personne à temps plein là-dessus dans ce petit tiers-là. Je te parlais, un tiers, c’est-à-dire cinq personnes : on n’est pas une équipe de 100 ingénieurs. Fairphone, c’est 140, 150 personnes aujourd’hui et donc je gère ces 10% en charge de la stack technique software.

Faire sa propre version d’Android avec un support long terme


Walid : si je prends la partie Android, comment vous faites pour faire votre propre version d’Android pour Fairphone ? Qu’est-ce que ça veut dire, en gros, schématiquement, les différentes étapes ?

Agnes : on essaye de rester au plus proche du vanilla Android, donc du stock Android, c’est-à-dire de l’Android normal délivré par Google. Mais évidemment que ce n’est pas possible, enfin disons que ce n’est pas possible. Forcément entre ce que livre Google et ce que tu vas avoir sur ton téléphone, tu as des différences. Tu as des différences qui sont liées au hardware, en fait, les composants que toi tu as choisis en tant que fabricant de téléphone. Et puis tu as des différences qui concernent plutôt la stack haute, ce qui va, par exemple, toucher des apps ou des choses comme ça, au regard de ce que te demandent tes opérateurs réseau : Orange, Vodafone, Dutch Telecom et compagnie. La customisation Fairphone, ce sont des choses qui ne se voient pas forcément auprès de l’utilisatrice utilisateur final, sauf si l’opérateur veut délivrer des apps particulières. Mais si jamais tu squeezes cette exception sur les opérateurs, ce qu’on fait c’est tout le temps au plus proche de ce qu’est Android, de ce qu’est la version Android qu’on implémente.

Walid : donc là on parle de l’AOSP (Android Open Source Project) ?

Agnes : oui. Alors, on va dire dans Android, si jamais je reprends un peu la base, tu as plusieurs couches. Tu as le noyau Linux : Android tourne sur un noyau Linux. Tu as ce qu’on appelle l’Hardware Abstraction Layer – HAL (NDLR : la couche d’abstraction matérielle) – , donc c’est vraiment tout ce qui colle à ton hardware, j’y reviendrai. Tout ce qui est Android Runtime, les librairies natives, graphiques, etc.

Tu as l’Android Framework et t’as les applications. Et dans toutes ces couches-là, t’as du closed source et de l’open source.

Dans tout ce que je viens de dire, il y a une partie qui s’appelle AOSP, qui s’appelle Android Open Source Project, et qui touche grosso modo au cœur open source d’Android.

Walid : mais ça veut dire quoi ? Ça veut dire qu’il y a beaucoup de closed source ?

Agnes : typiquement, toute la partie HAL, l’implémentation HAL, elle n’est pas open source. Tu as l’interface qui est open source mais l’implémentation n’est pas, c’est ça qui va te permettre d’adapter, de faire tourner ton Android sur des processeurs particuliers qui sont ceux que toi tu as choisis par rapport au design de ton téléphone. Et donc là, on parle de code propriétaire, on parle de ce qui va tourner sur les seconds processeurs, la partie modem, etc.

Et typiquement, on parle potentiellement de code Qualcomm pour nous, puisqu’on a un processeur Qualcomm. Mais on peut parler aussi d’autres types de firmwares, tout ce qui est caméra firmware, fingerprint sensor (NDLR : capteur d’empruntes digitales), enfin voilà. Dans tes notes de podcast, je te mettrais un article qui a été écrit par des académiques récemment, là que j’aime bien, qui explique à quel point c’est compliqué de maintenir en fait un produit qui tourne sur un processeur, notamment quand c’est de la mobilité, parce que tu as plein de firmware que tu ne contrôles pas forcément en fait. Android est contrôlable parce que le cœur est open source, ce que tu appelles AOSP, d’accord ? Mais il y a plein d’autres bouts de code qui sont très compliqués à maîtriser et qui sont à l’origine de certaines obsolescence.

Typiquement on vient de rollout (NDLR : publier) Android 13 sur Fairphone 3. Fairphone 3 est sorti en 2019 avec Android 9. Donc tu vois c’est cool, on a fait plein de upgrade. Et tu vois, un truc moins cool, c’est que le fingerprint sensor, on a eu un drop (NDLR : abandon) du support du fabricant, donc plus de firmware. Et là typiquement, on est bloqué. On a des livres Android 13, on a la certif’ Android, Google, etc.
Mais ce fingerprint sensor n’a plus de mise à jour firmware. Donc ça veut dire que tout ce qui est Android vérifie ça. Dans Android, tu as une spec qui dit, bon, ton sensor, s’il répond à ces requirements-là, il a un level de sécurité OK, un level de sécurité faible, un level de sécurité strong, etc. Et avant, on avait le level strong, et on a dû passer au level d’en dessous. Parce qu’on n’avait pas pu faire la mise à jour firmware de ce… Je suis un peu longue, mais tu vas comprendre que ça répond à ta question.

On a dû passer au niveau d’en dessous parce que justement, on n’avait pas la mise à jour du firmware de ce Fingerprint Sensor. On a quand même la certification Android, mais ça veut dire que concrètement, pour l’utilisatrice finale, elle va devoir en fait, typiquement, ne plus utiliser le fingerprint sensor pour faire cette transaction en bancaire et utiliser un PIN, password ou ce que tu veux.

Typiquement, le fait de potentiellement perdre le contrôle de certains firmware, même si tu fais du téléphone qui dure dans le temps, du software qui dure dans le temps, même si tu contrôles ta puce, je parlerai longuement de la puce plus tard si tu veux, ton processeur pardon. Il y a des bout de code qui sont compliqués à garder sous contrôle et typiquement ce genre de trucs.

Du software long terme sur du téléphone, ça veut dire potentiellement des compromis pour le end user, pour le consommateur ou la consommatrice finale. C’est pas facile forcément à expliquer commercialement ou en termes de marketing marketing un client qu’en fait il gagne un support long terme mais il perd des fonctionnalités qu’il avait au départ. Potentiellement il peut perdre des fonctionnalités exactement. Tu vois on a un public quand même qui est conscient de ça, on vient du Fairphone 2, tout à l’heure je te disais le Fairphone 2 qui était un téléphone de qualité moyenne, beaucoup d’issues hardware où les gens quand même nous ont soutenus. C’est vrai que sur le Fairphone 3 on a élargi un peu notre base d’utilisatrices, d’utilisateurs et du coup les gens étaient un peu plus exigeants, et ça c’est devenu encore plus vrai sur le Fairphone 4.
Bah ouais c’est super chiant. Là tu te connectes sur le forum de Fairphone, tu regardes l’upgrade Android 13 qu’on a fait la semaine dernière, t’en as plein qui gueulent sur ces sortes de fingerprints. On n’a pas été très bons sur la communication avant l’upgrade, sur les releases notes, etc. On s’est vautré sur un truc de quelques jours, on a pu dire le truc un peu en retard, on n’est pas parfait.
Mais oui, mais carrément c’est compliqué. Après évidemment qu’on veut s’améliorer, et typiquement, moi ce que je veux faire, c’est le fingerprint sensor de notre téléphone de dernière sortie. Il faut absolument qu’on arrive à les convaincre de signer pour 8 ans. Même s’ils n’ont pas l’habitude, même s’ils ne savent pas faire, on s’en fout, il faut qu’on garde le contact avec eux le plus longtemps possible. Toute l’explication que Fairphone a l’habitude de faire sur les fair materials, donc les métaux qu’on inclut dans notre supply chain qui sont conflict free, qui respectent les conditions de travail, qui n’ont pas d’enfant, tout ça. On sait que c’est une longue journée et que sur 50 métaux, pour le moment, on n’en est qu’à 15.

Quelque part, sur le corps, la stack technique de notre téléphone, on en est au même point. C’est-à-dire qu’on essaye, entre guillemets, de se frayer un chemin pour avoir quelque chose de plus éthique, de plus responsable pour faire de la longue durée, mais c’est un chemin. On ne peut pas gagner sur tous les aspects. Je suis très contente de ce qu’on fait aujourd’hui avec Qualcomm par exemple, ça va beaucoup mieux qu’il y a quelques années. J’espère vraiment qu’on va continuer à avoir un partnership (NDLR : partenariat) fort pour que vraiment on puisse avoir le support du modem, le support de Qualcomm jusqu’à la fin. Mais sur d’autres aspects, ce n’est pas facile, le fingerprint sensor, c’est un vrai échec sur le Fairphone 3.

Faire du support long terme sans perdre de fonctionnalités


Walid : Cette équipe qui n’est pas une très grosse équipe, finalement de ce que je comprends, peut-être à demi-mot, une bonne partie de votre temps vous le passez à travailler sur le matériel existant pour le faire durer le plus longtemps possible. Ça doit vous occuper une grosse partie du temps finalement, non ? Sur la partie vraiment Android, je parle.

Agnes : sur la partie Android, les nouveaux produits, les produits récents sont gérés par ce qu’on appelle un ODM. Donc l’ODM, c’est ton usine en fait. C’est la boîte qui assemble les téléphones. Voilà, donc en gros, c’est ceux qui font et le hardware et le software. ODM ça veut dire Original Design Manufacturer : l’usine d’assemblage en Chine. Et donc l’ODM fait souvent le premier upgrade Android et puis après nous on prend le relais in-house (NDLR : en interne) quoi, on in-source les développements avec l’équipe dont je te parle, que je gère. Et par définition, évidemment qu’on est plus focalisé sur les produits qui sont déjà sortis, mais ça veut pas dire qu’on intervient pas sur les produits qui vont sortir. Là typiquement le fingerprint sensor, si jamais je rétrospecte un peu sur pourquoi on en est là aujourd’hui, c’est typiquement qu’à l’époque on n’a pas été nous dans mon équipe assez… moi, allez j’assume, je take ownership (NDLR : je prends la responsabilité) sur l’erreur là. J’ai pas été peut-être sûrement assez vigilante à l’époque quand on a designé le Fairphone 3 pour sécuriser l’agrément avec le fabricant du fingerprint sensor, pour faire en sorte qu’il s’engage bien avec nous sur 7 ou 8 ans. À l’époque, parce que j’y arrivais… Enfin bref, le téléphone est sorti en 2019, moi je suis arrivée fin 2018, du coup on a dû sûrement avoir un loupé là.
Mais grosso modo, mon équipe est aussi incluse dans les premières étapes de conception des téléphones à venir pour justement garantir ce genre de trucs. Toute l’architecture logicielle d’Android, là je t’ai fait les layers vite fait là, c’est vachement essentiel qu’on audite le code en fait, qu’il sorte de l’ODM, pour éviter de faire en sorte que le code soit pourri, parce que c’est nous qui allons nous taper la maintenance derrière.

Donc on fait des audits, on leur dit ça ça va pas, il faut le faire comme ça. Tous les changements au niveau d’Android que Google pousse depuis quelques temps sont plutôt pas mal, plutôt designés pour la longévité, Treble, GSI, tout ça on pourra en parler si tu veux. Et bien tous ces trucs là, les usines en Chine, je ne vais pas faire de racisme, de discrimination, mais toutes ne sont pas très tenue, on ne bosse pas avec les plus grosses usines. Quand on leur parle des nouveautés d’Android pour assurer la longévité, donc GSI, Treble, parfois elles connaissent, parfois non, donc il faut qu’on soit vigilant là-dessus pour faire en sorte que si dans trois ans on doit faire un upgrade de kernel, on doit faire dans un an une nouvelle mise à jour en dehors de nous-mêmes, ce soit possible et qu’on ne passe pas trop de temps à le faire. Qu’on optimise aussi le temps de dev qui sera nécessaire à faire ces futurs upgrades.

Donc on est de plus en plus impliqué, mon équipe, sur les futurs produits, mais c’est vrai qu’une grosse partie de notre quotidien, c’est de faire durer les produits qui sont déjà sortis. On vient de finir le support du Fairphone 2 en mars dernier. Ça faisait 7 ans et 3 mois qu’on y bossait dessus. Donc, le Fairphone 2, pour nous, encore l’année dernière, c’était le gros de notre quotidien. Un téléphone qui avait déjà, à l’époque, l’année dernière, 6 ans. Donc, beaucoup d’argent, beaucoup de temps, pour zéro retour sur investissement, puisque quelque part, le téléphone a déjà été vendu, il n’était même plus vendu. Donc ça c’est des choses qui sont compliquées en fait à maîtriser au sein d’une boîte comme Fairphone qui n’est pas très grosse. C’est toujours compliqué d’estimer ce que va coûter un support logiciel long terme.

Les leçons apprises du Fairphone 2


Walid : Justement on parlait du Fairphone 2, quels sont vos retours aussi bien au niveau matériel que logiciel ? Quelles sont les grandes choses que vous avez apprises avec le Fairphone 2 et qui vous ont permis de faire le Fairphone 3 et après le Fairphone 4 ?

Agnes : Au niveau hardware, on a beaucoup appris sur la modularité. Chez Fairphone, on fait ce qu’on appelle une analyse du cycle de vie, donc ce que va coûter le téléphone d’un point de vue environnemental, sur toutes les étapes de vie du téléphone, sa production, son usage et sa fin de vie. Et en fait, sur le Fairphone 2, en comparaison au Fairphone 3 et au Fairphone 4, on était bien moins bon sur le Fairphone 2 sur le surcoût environnemental lié à la modularité.

C’est-à-dire qu’on a fait de la modularité sur le Fairphone 2, mais que quelque part, ce que ça a coûté sur toute la production, il y a 80% du coût environnemental des téléphones qui sont liés à la production du téléphone, et en fait, le fait de faire un design modulaire, ça peut te coûter plus cher en termes d’émissions de gaz à effet de serre et compagnie quand tu designes ce genre de téléphone : sur le Fairphone 4, si je dis pas de conneries, le surcoût de faire un design modulaire est de 1%, sur le Fairphone 3 il était de 3%, sur le Fairphone 2 il doit être de 12%, 12-13%. Donc on s’est amélioré là-dessus, puisqu’on ne voulait pas se tirer une balle dans le pied, on ne voulait pas dire « c’est cool, on fait un téléphone modulaire, mais regardez, ça coûte 12% plus cher en termes de coût environnemental ». Parce que tu vois, le coût d’avoir des composants spéciaux etc, un assemblage des composants spéciaux peut avoir effectivement un impact sur la footprint (NDLR : emprunte), le CO2, tout ça. On s’est amélioré grandement là-dessus, c’était un gros point de focus qu’on avait.

Sur la partie, bon un peu moins importante, mais quand même, la manière d’assembler, sur la modularité toujours, la manière d’assembler les composants. Sur Fairphone 2, tu avais un clip écran là, on s’était dit « ah c’est trop cool, on va pas mettre deux vis, on va faire un clip écran et du coup c’est trop bien, les gens vont trouver ça très accessible parce que dès que tu prends un tour de vis, ça fait un peu déjà, tu perds des gens ». Cool. Par contre, le fait de faire ces clips-là, et bien sur le temps, il y avait un peu de jeu qui se créait et du coup ton écran avait tendance à se désolidariser du rest de téléphone. Donc c’est pas top quoi. Parce que du coup t’avais des défects quand même assez importants là-dessus.
Grosse erreur sur le bottom module, le module du bas, qui a vraiment un taux d’échec incroyable qui nous a coûté énormément d’argent, parce que le téléphone était sous garantie, même étant sous garantie il y avait énormément de défects. Donc matériellement parlant, on a changé du tout au tout entre le Fairphone 2 et le Fairphone 3. Sur le Fairphone 2 on n’avait aucune validation opérateur, je n’ai pas eu le temps de t’en parler, mais au-delà de l’approuval Google Android, quand tu fais un téléphone Android, à chaque release software, il te faut aussi un approuval des opérateurs, Orange, SFR, ce que tu veux. On n’avait pas ces approuvals-là vraiment sur le Fairphone 2 parce qu’on n’avait pas de deal avec les opérateurs à part sur le Fairphone 3 avec Orange.
Sur le Fairphone 3, on a vraiment on-boardé plein d’opérateurs parce qu’on s’est dit que si on n’était pas chez les opérateurs, c’est compliqué pour que les gens nous connaissent.
Non pas que les gens achètent tout le temps chez les opérateurs, mais en tout cas il fallait être rangé chez eux. Pour être rangé chez eux, ça te demande de faire des tests techniques de malade. T’as des opérateurs de drop test, donc tu vois ton téléphone qui tombe et qui se casse pas, ça peut être 1 mètre, chez les opérateurs ça monte à 1,30 mètre.

Donc pour nous, le Fairphone 3 qui a été rangé (NDLR : mis dans la gamme) chez plein d’opérateurs, ça a été un gros boulot tech au niveau matériel pour avoir quelque chose de robuste malgré qu’il soit modulaire. Je ne te dis pas de challenge… Et sur le Fairphone 4, on s’est beaucoup amélioré sur le côté waterproof, résistance à la poussière, plein d’aspects sur lesquels il fallait qu’on devienne meilleur.

Donc le Fairphone 4 est un très très bon téléphone au niveau matériel. La caméra aussi, beaucoup d’améliorations caméra. La caméra sur le Fairphone 2, bof, la caméra sur le Fairphone 3, so so. Et la caméra sur le Fairphone 4, elle est cool. Évidemment qu’elle pourrait être encore meilleure. Je pense que ce sont les prochains produits qu’on sortira. La caméra, c’est un gros gros sujet. Moi, j’ai des potes autour de moi qui ont acheté un Fairphone, des numéros au-dessus du Fairphone 2, je ne vais pas citer lequel, parce que je ne sais pas, je ne me souviens plus, qui ont renvoyé le téléphone parce que la caméra (c’était des gens fous d’iPhone qui trippaient sur les Fairphone, sur le modèle éthique du Fairphone) mais la caméra était un point bloquant. Donc le Fairphone 4 a une très bonne caméra, mais c’est vrai que pour se comparer à Apple, c’est toujours compliqué.

Par contre, on peut être aujourd’hui similaire à des bons Samsung. Donc c’est déjà pas mal, mais il faut qu’on s’améliore encore là-dessus. Donc voilà, niveau hardware c’est sûr.

Walid : et niveau software, qu’est-ce qu’on a appris avec le Fairphone 2 ?

Agnes : on a énormément appris sur l’obsolescence logicielle. Tout ce que je t’ai décrit, là tu vois, je t’ai parlé de toutes les merdes qu’on a sur le fingerprint sensor du Fairphone 3, donc on continue d’apprendre. Sur le Fairphone 2 on avait des problèmes logiciels quand même assez forts, qui avaient des impacts aussi au niveau consommateur, consommatrice.

Mais on a fait un truc cool sur le Fairphone 2, on a fait Fairphone Open OS, je crois que ça fait partie de tes questions, mais on en parlera un peu plus longuement. Mais ça c’était cool quoi, on a beaucoup appris sur le Fairphone 2. Ce que l’on avait moins sur le Fairphone 1 mais qui existait déjà. Toute la stack open source, comment open sourcer de l’Android correctement. Ça on l’a beaucoup appris.

Le retour d’expérience sur Fairphone Open OS


Walid : c’était une de mes questions en fait. Le Fairphone Open OS, pourquoi vous l’aviez fait ? Pourquoi vous l’avez arrêté ? Qu’est-ce que vous avez appris en fait de cette expérimentation, de cette version d’Android ?

Agnes : alors pourquoi on l’a fait ? Parce que de toute façon, premièrement, ça correspond à notre éthique. Si tu ne peux pas l’ouvrir, tu ne le maîtrises pas. C’était la quote (NDLR : citation) qu’on citait toujours d’un des fondateurs de Fairphone, qui citait toujours l’exemple de ce pourquoi il avait décidé de se lancer dans Fairphone, de lancer le projet Fairphone. Il citait tout le temps l’exemple de son fils qui avait une console cassée. Il ne pouvait pas l’ouvrir cette putain de console parce que tout était propriétaire et tout ça. Et la personne dit « Ouais, je ne voulais pas ça en fait. Je voulais essayer de bosser sur un produit différent qui soit ouvert, que tu puisses réparer toi-même, que tu puisses changer l’écran si tu le casses toi-même, etc. À moindre coût. Et bien quelque part tu peux l’appliquer au software ce truc-là. If you can’t open it, tu peux pas l’ouvrir, you don’t own it, tu le possèdes pas.

Donc là, le fait d’ouvrir la stack software pour faire en sorte que les gens puissent s’approprier le software, éthiquement parlant, politiquement parlant, c’est pour nous essentiel. Ça l’est toujours, même si mon père ne va pas builder le software Android lui-même, avec tout le respect que j’ai pour lui. Je sais que ma tante Ginette, qui habite en Haute-Loire, qui a 83 ans, je ne pense pas qu’elle fasse, mais peu importe, éthiquement parlant, c’est important.

Et après, l’intérêt qu’on a vu dans le fait de faire une version open source : tu avais aussi le côté privacy (NDLR : vie privée), moins de tracking (NDLR : traçage), on parlera de /e/, parce qu’évidemment ça a aidé /e/, Lineage, PostMarketOS, CalixOS. Il y a d’autres communautés qui ont pu nous aider en fait par la suite. Et le fait d’avoir fait à un moment donné notre propre OS, ça nous a aussi permis de discuter avec ces communautés de manière un peu plus sérieuse. Et le troisième aspect, c’est le côté longévité. C’est-à-dire que le fait de planter des graines, d’ouvrir ton code et d’avoir des gens qui s’intéressent à ce que tu fais, la communauté LineageOS qui continue à maintenir le téléphone. Même si toi tu ne le fais plus, comme le Fairphone 2 : on s’est arrêté Android 10, Android 11 est disponible sur Lineage. C’est très positif d’un point de vue longévité. C’est-à-dire qu’en fait, tu donnes les communautés construire leur propre OS et après tu peux avoir une solution décente pour les utilisateurs et utilisatrices qui veulent continuer à utiliser leur device, même quand toi tu droppes le software.

Et, chose aussi cool, tu peux aussi cherry-pick (NDLR : sélectionner) des parties de code que la communauté a faites dans ton stock Android.

Walid : ah, voilà, c’est ça qui m’intéresse aussi.

Agnes : dans l’Android que tu fais toi, quoi. Et ça, on l’a fait, sur le Fairphone 2, c’est ce qu’on a fait.

Les relations avec les communautés libres (LineageOS, etc)


Walid : tout à l’heure, tu disais que tu as des firmwares (NDLR : micrologiciel), tu as des parties qui sont fournies par des fabricants qui ne sont pas libres. Mais si tu fais ta propre implémentation 100% open source d’Android, il faut bien que tu remplaces ça ?

Agnes : oui, tu as plein de drivers open source. Si je parle des drivers plutôt graphiques et tout ça, évidemment, tu as des choses qui existent. Donc on s’est beaucoup inspiré de Lineage, de ces fameuses versions open source d’Android. Lineage est un fork d’Android, basé sur Android. Donc pour nous, c’est à l’inverse de Ubuntu Touch ou PostMarketOS qui ne sont plus basés sur Android, où là c’est un peu plus éloigné on va dire.

La stack technique, LineageOS est vraiment basée sur Android, donc pour nous c’était quand même « pratique » de pouvoir s’inspirer de ce qu’il et elle ont fait. Il y a certaines parties qui ne seront pas solvables par la communauté open source. Donc tout ce qui est pure close source, notamment autour du modem ou des choses comme ça, il y a des choses qui ne sont pas solvables.

Donc typiquement, ce que font les communautés comme ça, ils récupèrent des binaries (NDLR : binaires) de ces bouts de code là, des firmware qui tournent autour du modem et ils touchent pas le truc. Mais ils sont pas trop emmerdés dans le temps parce qu’ils ont pas de certif’ Android à passer. Tu vois? Nous en fait à chaque release qu’on va shipper dans le field, Google nous certifie notre Android. Donc t’as 500 000 tests à passer voire même plus maintenant. C’est ce qu’on appelle la CTS. Donc c’est à l’approval (NDLR : approbation) de Google. Et parmi ces tests, tu as les tests de sécurité qui vont contrôler en fait si c’est sécurisé ou pas, ce que tu as fait.

Et évidemment, tu as de plus en plus de tests qui vont regarder ce qui se passe sur les close source components (NDLR : les composants propriétaires) qui appartient au chipset. Donc pour nous, Qualcomm. Et grosso modo, s’il manque quelque chose, le test est rouge et t’as pas la certif… Je caricature, mais c’est un peu ça, même si tu peux demander des process d’exception. LineageOS, ils ont pas ce truc-là. Ils vont pas se faire certifier leur Android à Google.

C’est un peu… c’est à l’antithèse de ce qu’ils veulent faire. Donc si tu veux, ils sont un peu plus libres de faire… et c’est pareil pour /e/, ils sont un peu plus libres de faire ce qu’ils veulent. Et nous, sur Fairphone OS, c’était la même chose. On avait pas ce truc-là. On faisait les deux. On faisait pas que du Fairphone OS à l’époque de Fairphone 2, on a tout le temps fait un stock Fairphone OS, donc un OS certifié par Google. Le fait d’avoir Fairphone Open à côté nous permettait quand même d’avoir un petit peu de liberté. Et les choses qu’on a reprises de la communauté Lineage OS, en gros t’avais forcément certains drivers, mais aussi le kernel, ce fameux kernel dont je parlais tout à l’heure, il y a des choses qui sont faites au niveau de la communauté sur lesquelles on s’est quand même aussi appuyé. Et aussi des petits fixes issues (NDLR : des problèmes fixés). Il y a des patches qu’on a repris Lineage pour tout ce qui est fixe Issue, des User Facing Issues, des issues qui étaient un peu chiantes pour l’utilisateur ou l’utilisatrice. On les a chopés ces patches-là.
Ça, c’est quand même la magie de l’open source. Il y a des éléments sur lesquels on a pu s’appuyer pour faire notamment les derniers upgrades dans le temps du Fairphone 2, le 9 et le 10.

Walid : et le Fairphone OpenOS, vous l’avez développé pendant combien de temps ?
Agnès : jusqu’à la fin du Fairphone 2.

Walid : ah d’accord!

Agnès : on n’en a jamais fait pour le Fairphone 3 ni le Fairphone 4. Donc la stack open source de Fairphone 2 était dispo, mais après sur le Fairphone 3, on a décidé de faire une autre stratégie parce que le truc c’est que on garde l’open source, le fait d’open sourcer, etc. ça on continue de le faire.
On peut être un peu long sur les derniers produits d’ailleurs, mais en général on essaie de publier autant qu’on peut. Mais par contre en termes de disponibilité d’un vrai OS pour les utilisateurs et utilisatrices finaux, Fairphone Open n’était pas dingue non plus en fait. Tu n’avais pas beaucoup d’apps par défaut qui permettent à la personne qui installe l’OS d’avoir tout de suite une app prête, etc.

Ça peut servir à des gens qui sont un peu loin de la technique. Ça, on n’avait pas dans Fairphone Open. Donc, après réflexion, et puis ça demande du temps de faire son propre OS. Donc, après réflexion, je t’ai dit, là, on avait cinq personnes, à l’époque, je devais même en avoir une de moins. On a choisi plutôt de faciliter le travail des communautés open source, peut-être au plus proche d’elles, on va dire, pour qu’elles lancent leurs propres OS et qu’il y ait des vraies alternatives dispo pour les personnes qui souhaitent switcher d’un stock Android à un Android alternatif.

On va même mettre une option sur notre site web, notre webshop en ligne là, où tu vas pouvoir choisir entre /e/OS et le stock Android. Donc tu peux même, tu pourras même acheter un Fairphone 4 avec /e/OS directement flashé dessus. Tu peux déjà le faire chez eux, si tu vas sur leur webshop Murena, tu peux déjà acheter un Fairphone 4 pré-flashé. Mais toujours pour aller dans le sens de faciliter l’adhésion des utilisateurs et utilisatrices finaux à ce genre d’alternative /e/OS qui peut, au premier abord, rebuter certaines personnes, parce que ça paraît difficile.
Le flashage est toujours un truc compliqué pour des gens. C’est toujours compliqué de se dire « putain, qu’est-ce qu’il faut que je fasse, là? Il faut que je delock mon bootloader (NDRL : déverrouille l’amorceur de démarrage), après il faut que j’installe ça, oh mon dieu, ça y est, je garde ».
Mais je crois que je peux comprendre, je ne blâme personne là-dessus. Donc d’avoir quelque chose de prêt, un téléphone préflashé, ça peut enlever des barrières pour plein de gens pour passer le pas d’utiliser ces OS-là.

La collaboration avec /e/OS (Murena)


Walid : alors si on revient sur /e/OS, ce qu’on n’a pas dit, c’est que /e/OS, c’est une version d’Android qui a été créée par Gaël Duval, donc qui est un français qui est connu pour avoir fait il y a bien longtemps MandrakeSoft, donc une des premières distributions Linux assez user-friendly. Comment se fait un peu, j’allais dire, votre rencontre et comment vous commencez à travailler avec eux sur cet OS qui est donc focalisée plutôt sur le respect de la vie privée ?

Agnes : Gaël, je l’ai rencontré à une conférence en Belgique en 2019, 2020, je ne sais plus. Il avait déjà essayé de rencontrer en contact avec des gens de Fairphone, enfin bon bref. Et du coup on s’est dit, essayons de faire un partenariat un peu plus fort pour avoir cette alternative-là. Vu qu’eux sont basés sur LineageOS, quelque part ça faisait sens aussi de pouvoir aller un peu plus loin dans cette optique-là. Et après, on a juste continué le partenariat. Donc on a commencé en 2020, on est en 2023, on vient de lancer Fairphone 4 aux US avec /e/. Voilà, on continue ça.
Après, moi personnellement, j’aimerais bien essayer aussi de bosser tout ce qui est Linux-based OS (NDLR : OS basé sur Linux), pour sortir un peu de la stack Android. J’aime beaucoup un OS qui s’appelle PostMarketOS, qui est Linux-based mais qui n’est pas feature complete (NDLR : qui n’a pas encore toutes les fonctionnalités nécessaires).

Tu flashes PostMarketOS sur ton Fairphone, la caméra ne marche pas, il y a des choses à faire. Mais, pour l’avenir, je crois aussi beaucoup au Linux Based OS. On a aussi un lien avec Ubuntu Touch, qui est revenu à la vie grâce à UBports, c’est une fondation allemande. On est aussi en rapport avec eux, pour essayer de voir ce qu’on peut faire sur la stack pure Linux.

Walid : c’est quoi les premiers retours sur Fairphone + /e/ ?

Agnes : chez Commown, tu as reçu Florent il n’y a pas longtemps, chez Commown c’est 25% de leur leasing. Tous les téléphones qu’ils louent, tu as 25% de gens qui choisissent /e/OS. Et nous, à l’heure actuelle, /e/ – Murena, ça c’est le nom de leur marque derrière, Murena est un partenaire qui nous achète des téléphones au final et qui flash le truc, leur OS. À l’heure actuelle, ce n’est pas encore sur notre webshop, donc à l’heure actuelle, ils achètent des téléphones 4, ils flashent les téléphones 4, ils les mettent en vente sur leur site web.

Et donc ils nous achètent des téléphones. Contractuellement, ils achètent des téléphones tous les mois. En termes de sell-in, sell-out, c’est notre partenaire numéro 5 en Europe. Donc je ne sais pas si tu vois, ils sont le 5e partenaire européen qu’on a. Donc c’est énorme. Ils ont vendu à peu près le même nombre de téléphones qu’Orange nous a achetés l’année dernière. Je n’aurais pas pensé. Pour donner une comparaison, donc Orange 500 magasins en France, qui font aussi certainement peut-être des efforts pour mettre en avant Fairphone et, bon, noyer au milieu de plein d’autres devices, quoi, tu vois.
Je ne peux pas te dire par cœur le nombre de téléphones, mais je retiens cette comparaison-là. /e/ a vendu autant en Europe, hein, on vante en Europe et… Donc on verra pour les US, on vient de lancer aux US le 5 juillet, donc c’est un peu trop récent pour dire où on en est. En gros, /e/ – Murena a vendu autant de Fairphone 3 et de Fairphone 4 en 2022 qu’Orange. C’est assez impressionnant.

Walid : c’est fou! Pour utiliser /e/ – Murena depuis plus de 6 mois, moi mon retour c’est que tu as un petit peu le meilleur des deux mondes. Tu n’as pas toute la stack Google. Et donc en fait, je l’utilise par exemple sur un vieux téléphone de 2015 qui est revenu à la vie grâce à ça. C’est quand même plutôt cool et à la fois sur mon téléphone de tous les jours en utilisant MicroG et les magasins d’applications tu peux avoir toutes les applications de l’Android Store plus de F-Droid enfin t’as tout en fait c’est vraiment utilisable tous les jours quoi c’est ça que je trouve vraiment très chouette.

Agnes : Bien sûr pour le côté facilité d’utilisation c’est quand même chouette ça c’est sûr, y’a pas photo.

Les relations avec la coopérative Commown et la location d’appareils


Walid : il y a deux sujets que je voulais aborder, le premier c’est une petite phrase que m’a dit Florent Cayré quand on a parlé un peu du modèle économique de Commown et que je voulais te poser. Il nous disait « en fait nous ce qui nous intéresse c’est aussi d’inciter des acteurs comme Fairphone à travailler sur le sujet de la location et donc pour ça on leur reverse régulièrement de l’argent pour l’utilisation des téléphones ». En fait, finalement, plus il y a de téléphones chez eux qui sont en circulation et finalement plus c’est intéressant pour vous sur le long terme.

Agnes : oui, c’est sûr. Après, je ne connais pas l’agrément en détail. Moi, je ne m’occupe pas de la partie commerciale. C’est mon collègue commercial qui gère ça avec Commown. Donc sûrement, si Florent le dit, ça va être sûrement vrai. Mais tu vois, je n’étais même pas au courant. Mais au-delà de l’aspect financier, ce que je trouve chouette dans ce qu’on fait avec Commown, c’est le lobbying européen autour de… Parce que pour moi, ils sont au top, pour moi, des gens comme Common, c’est des gens qui sont les défricheurs de l’électronique responsable, qui sont très radicaux dans le bon sens du terme, et qui vont pousser les utilisateurs à vraiment changer de comportement. Fairphone aussi, évidemment, puisqu’on veut essayer de faire en sorte que les gens comprennent comment les téléphones sont fabriqués, à quel point c’est problématique et pourquoi c’est important qu’ils gardent leur téléphone et pas qu’ils en achètent un chaque année, ça c’est sûr. Donc on est dans la même logique, mais eux sont encore, on va dire, expérimentent des choses encore plus compliquées et que je trouve encore plus intéressantes pour l’économie circulaire.

Pour moi, la solution ultime, celle qui fait le plus sens du point de vue de l’économie circulaire, puisque c’est eux qui prennent la problématique de la réparation, de la fin de vie, de tout ça, quoi, tu vois, qui facilite vraiment le fait que la personne peut garder son téléphone longtemps. Donc ça, c’est vraiment cool ce qu’ils font et c’est ça qui m’intéresse de bosser avec des gens comme Commown. On a exactement le même but, c’est pour ça qu’on a monté Fair TEC, ce collectif autour de la…

Walid : on peut en parler, hein. C’était ma question suivante. Transition parfaite.

Le collectif Fair TEC


Agnes : donc Fair TEC, c’est un collectif qu’on a monté avec Common, mais aussi avec des MVNO, des opérateurs alternatifs comme Telecoop en France, YourCoopMobile au UK, WEtell en Allemagne, etc. et /e/ – Murena, l’OS dont je viens de te parler.

Faire TEC, l’objectif, c’était de sensibiliser les gens à un numérique plus responsable, des solutions mobiles plus responsables, et que quelque part, l’offre parfaite de ce point de vue là ce serait d’avoir un hardware responsable comme un Fairphone avec un OS alternatif comme /e/, potentiellement que tu loues via Commown et avec une carte SIM d’un opérateur comme Telecoop qui ne te pousse pas à la consommation de data. L’objectif de ce collectif là c’était de montrer, d’apporter de la sensibilisation auprès du grand public sur les impacts écologiques, sociaux et vie privée du numérique, donc on sensibilise et on montre qu’il y a des solutions.

On montre qu’à travers ce qu’on fait nous, potentiellement aussi ce que font d’autres, qu’il y a des solutions possibles. Quand on intervient dans des conférences avec des gens comme Adrien par exemple de Commown, évidemment qu’on ne s’arrête pas à parler que de nos solutions à nous. Moi je parle souvent d’autres solutions, les laptops Framework, voilà tout ce qui va dans le sens de la durabilité des solutions, des produits techniques, électronique responsable. Donc ça, c’est vraiment chouette de pouvoir bosser avec des gens comme ça. Donc ce partenariat, il n’a que vocation à durer.
Avec Adrien Montagut, l’autre cofondateur de Commown, on a été aussi très impliqués dans la définition du futur index de durabilité au niveau français. Donc voilà, tout ce lobbying là, il est essentiel. C’est grâce à des partenaires comme ça qu’on peut y arriver.

La longévité matérielle chez Fairphone


Walid : toi, dans ton titre, il y a la notion de longévité mais logicielle, je voulais savoir si tu avais des collègues qui avaient le même titre mais pour la longévité matérielle ?

Agnes : ils n’ont pas le titre là, mais ils ont cet angle là. Un truc qu’on veut faire chez Fairphone c’est de toute façon avoir plus de gens sur la longévité en général parce qu’il y a la partie matériel, pour le logiciel on va dire que c’est couvert, mais il y a la partie matérielle, il y a la partie aussi quelque part le support : comment tu fais pour accompagner, faire en sorte que la personne si elle garde son téléphone 7-8 ans, elle ait tout ce qui va autour en termes de service, qu’elle puisse être accompagnée sur l’optimiser l’utilisation de son téléphone, pour faire en sorte de bien utiliser sa batterie, donc on veut optimiser tout ça quoi.
Il y a des zones qui n’étaient pas encore beaucoup couvertes chez Fairphone et qu’on va couvrir de plus en plus. On a aussi sorti notre offre de location au Pays-Bas, Fairphone Easy. Donc ça fait partie aussi de l’accompagnement des utilisatrices, utilisateurs sur le fait de garder leur téléphone. Tout ça, c’est des choses que petit à petit, on court un peu plus.

Et il y a des gens qui s’occupent de ça. Ils n’ont pas le titre Longévité dans leur rôle, mais par contre, c’est au sein de leur responsabilité.

Walid : alors je ne connais pas tous les postes de tout le monde, mais c’est la première fois que je voyais un titre dans l’informatique avec écrit « Longévité » dans le titre de la personne.

Agnes : je t’avoue que c’est moi qui l’ai poussé. Quand j’ai vu ce que je faisais chez Fairfun, etc., je ne voulais pas être Head of Software, etc., j’ai dit il faut qu’on mette ça, évidemment que ce n’était pas un problème chez Fairphone, mais stratégiquement parlant, je pense que c’était essentiel de le mettre, parce que ça éveille plein de curiosités, d’ailleurs. À chaque fois, j’ai la question, quand je suis interviewée par des journalistes, à chaque fois j’ai la question, mais ça veut dire quoi ?
Au début, je voulais plutôt le tourner sur lutte contre l’obsolescence, et en fait, c’est un peu négatif. Le tourner sur la longévité, je trouvais ça plus chouette.

Tribune libre


Walid : on arrive à la fin de l’entretien. Je voudrais te donner une tribune libre. Est-ce que tu as un message particulier à faire passer pour celles et ceux qui soit veulent travailler sur ces sujets là, soit qui vont utiliser les téléphones.

Agnes : Ok, merci. C’est la question piège.

Walid : ouais, c’est la question piège.

Agnès : ouais, alors moi ce que j’aurais tendance à dire c’est que tu vois si je sors un peu du spectre Fairphone, quelque part nous ce qu’on essaye de faire, quand je parle dans certaines conférences autour de ça, j’essaye de dire qu’il faut arriver à sensibiliser les gens à adopter des modes de consommation plus responsables. D’accord ? Et qu’est-ce que ça veut dire, plus d’éthique et plus d’aspects responsables dans la sphère numérique ? Pour moi, ça passe par plusieurs angles. Donc c’est le début de ma tribune libre.
Le premier angle, c’est arriver à plus de sobriété, donc faire en sorte de se discipliner soi-même sur le fait de ne pas acheter des produits électroniques, et je ne parle pas que des smartphones, mais tout l’engouement sur l’IoT, etc. Tu vois les trucs même sur l’agriculture connectée, des trucs comme ça, genre c’est génial, j’ai une serre chez moi, sur mon balcon c’est tout connecté, je vois en temps réel si je manque de nutriments, etc. En fait, tu peux aussi juste avoir une serre, sans mettre de l’électronique dedans ou des capteurs ou whatever. Donc pour moi la sobriété des usages, elle passe par une prise de conscience en fait de ce que ça peut coûter et du coup elle passe par le fait de se raisonner en fait sur nos propres délires qu’on peut avoir. Surtout les gens de la tech, les geeks qui aiment bien geeker de partout et avoir une serre connectée c’est trop bien. Enfin ouais en même temps c’est trop bien, ça montre un modèle qui pose des questions on va dire, voilà c’est ça que je veux dire.

Donc sobriété. Pour moi, sobriété d’usage, sobriété de consommation, acheter moins, acheter mieux, c’est important. Après, il y a un deuxième manque qui me paraît important, c’est tout ce qui est réparabilité et maintenance. Donc si jamais on veut être plus sobre, donc il faut faire durer ses appareils, donc évidemment qu’il faut faire attention à ce qu’on achète, mais une fois qu’on a acheté, il faut s’y mettre. C’est-à-dire que grosso modo, ça fait jamais rêver de réparer un truc au départ, peut-être, ou ça fait rêver certaines ou certains, ça c’est cool, mais il y en a plein, ça les fait flipper un peu, voilà. Ou si vous, vous avez l’impression, dans les auditeurs, auditrices, que t’as d’être plutôt bon en tech, bah essayez de promouvoir ça auprès de votre cercle d’amis, familial.

Y a toujours la blague de « oh dimanche je vais manger chez ma tante Ginette, elle me demande encore de réparer son ordi, ça fait chier », bah ouais mais en même temps, c’est cool de réparer l’ordi le dimanche après. Y a un rôle social là-dedans et après, votre tante Ginette, vous pouvez lui dire d’aller peut-être au Repair Café du coin, essayer de promouvoir ces approches-là d’entraide, qui existent en fait, quelque part auprès du grand public, c’est encore à développer, mais voilà, si vous avez l’impression, auditeurs, auditrices, d’avoir des connaissances dans ce domaine-là, allez les donner à d’autres, voilà, et au-delà de ta tante Ginette, peut-être d’aller dans des Repair Center du coin ou s’ils n’existent pas, de les monter. Parce que moi je pense qu’il faut rentrer dans l’ère de la maintenance.

Deuxièmement, la réparabilité et la maintenance, je pense que ça pousse aussi nous techniciens et techniciennes à rentrer dans cette ère-là, à prendre plaisir à faire ça et à voir comment on peut aider des gens moins techniques à réparer et maintenir leurs appareils. Et aussi, moi quand j’étais en école d’ingé et tout ça, ou quand je suis sortie d’école d’ingé, il y avait toujours ce truc là de « ah machin, je vais faire des trucs high tech, des nouveautés technologiques, je vais à une conf là, j’ai un nouveau framework qui sort, c’est trop bien »

Et si le trop bien, c’était de bosser sur de la maintenance applicative ? Mon deuxième job, c’était dans ce qu’on appelait à l’époque une SSII, aujourd’hui une ESN, et en fait la punition, c’était de faire de la maintenance applicative. C’est genre « oh putain, j’ai chopé le plan de merde, je vais me faire une mission de 3 mois à Dijon, de maintenance applicative, bon Dijon ok, pourquoi pas, j’en sais rien, je connais pas Dijon, je sais pas, je peux pas juger la ville, mais, ouais chez toi ça peut faire chier, mais faire de la maintenance applicative c’était le clou du truc, c’est genre vraiment la merde.
Bah ouais, mais en même temps on pourrait essayer de renverser la tendance, et de montrer que ça peut être cool de faire de la maintenance applicative, si tant est que le but c’est de faire durer le produit qui est derrière le soft sur lequel tu vas faire cette maintenance là, donc faut qu’on rentre dans ce tas de la maintenance. Pourquoi ce qui serait toujours le plus rêver, ce serait d’aller vers des nouvelles techno. Voilà.

Et enfin, le troisième angle, pour plus d’éthique dans la tech et tout ça, c’est le techno-discernement. Donc tu vois l’exemple de la serre connectée, ça rejoint un peu la sobriété, mais quand je te disais, ouais, tu peux avoir des potes qui s’éclatent sur leur serre connectée, sur leur balcon et tout ça. Mais plus généralement parlant, je pense que quand on a une position de technicien et technicienne, dans ce qui à priori le public que tu as aujourd’hui sur ton podcast, il faut que nous on fasse preuve de techno-discernement. Je ne suis pas en train de vous dire qu’il faut jeter la tech, mais que le techno-solutionnisme, ce n’est pas la solution miracle à tous les problèmes. Il y a des problèmes sociétaux, écologiques, qui ne vont pas être résolus par la tech. Et je pense qu’en tant que technicien et technicienne, il faut s’approprier cet angle-là et défendre cette approche-là. Il faut se retirer du jeu quand on n’a pas de rôle à jouer.

Le fait de dire qu’on s’en fout, on prend des voitures électriques et du coup ça va résoudre tous les problèmes environnementaux parce qu’il n’y a pas d’émissions de carbone, c’est des conneries. Les voitures électriques, même si je connais des gens qui en ont autour de moi, le coût de production des voitures électriques, si tu prends une grosse voiture électrique, c’est problématique, le coût des batteries est problématique, le cours environnemental des batteries est évidemment sociétal. Donc je ne suis pas en train de dire qu’il ne faut plus de voiture, mais pourquoi pas?

Mais si jamais je te prends un exemple un peu moins litigieux ou plus compliqué à expliquer que les voitures électriques, je vais te parler d’éducation nationale. Il y a un an de ça, on m’a demandé de faire une keynote pour l’éducation nationale autour de la tech éthique et tout ça. Et ça, c’était des gens qui étaient, je ne sais pas de termes dans l’éducation nationale, mais on va dire des formateurs au numérique, des représentants du numérique dans les académies, enfin bref. Et donc des gens plutôt technophiles, d’accord? Et c’était une conf assez intéressante, c’était monté par un des co-fondateurs de Framasoft. Donc l’angle c’était comment utiliser le libre, comment utiliser le libre dans l’éducation nationale. Donc top, moi je signe, évidemment que j’y vais, je fais ma keynote, tout ça, trop bien. Mais quelque part, si tu prends un peu de recul et que tu vois pas que l’angle du libre quand t’es libriste et tout ça. Quelque part, en tant que technicien, technicienne, libriste, ce que tu veux, l’idée ce serait peut-être aussi de dire qu’il faut peut-être repenser la tête dans l’éducation. Je me répète un peu, je le dis souvent dans les confs, mais le fait de mettre des tablettes à outrance dans toutes les écoles, des tablettes qui… on parle pas justement de la maintenance de ces putain de tablettes, elles restent parfois dans des placards parce que les profs ne sont pas formés. Et du coup, c’est des coûts énormes. Une tablette, ça coûte cher. Tu en mets 25 dans une école de 200 élèves, c’est un budget quand même, même si ça ne semble pas beaucoup. C’est quand même un budget. Le coût environnemental, le coût budgétaire de ces tablettes est quand même réel.

Et bien, si à la place de faire tout ça, tu mettais plus de profs et que tu les payais mieux. Enfin, tu vois, je caricature un peu, mais je veux dire, c’est une vraie question en fait, et que nous, en tant que technicien, technicienne, on nous sollicite beaucoup là-dessus. C’est quoi ton avis là-dessus ? À des moments, en fait, il ne faut pas qu’on ait peur de dire que c’est bien que sur ces problèmes-là, peut-être que ce ne sera pas à nous de les résoudre.

Tu vois, ce ne sera pas à nous de résoudre des problèmes sociétaux, certains problèmes sociétaux. Ce n’est pas en mettant des tablettes et des trucs ultra connectés dans les hôpitaux qu’on va résoudre le problème des hôpitaux. Le problème des hôpitaux est lié à un manque de personnel. Voilà, ça, c’est problématique. Donc pour moi c’est politique.

La tête est politique. Si elle ne l’est pas encore, il faut la politiser un peu mieux. Un peu plus de techno-discernement ferait du bien. Beau mot de la fin Walid ? Ça te va ?

Conclusion


Walid : ouais, beau mot de la fin, je dirais que je suis parfaitement d’accord avec ce que tu viens de dire. Merci beaucoup Agnès d’avoir pris du temps pour parler avec moi de ces sujets.

C’est passionnant, surtout pour quelqu’un comme moi qui aime bien Fairphone et qui suit un peu ce que vous faites. J’avais plein de questions que je voulais vraiment poser et j’ai eu des réponses assez intéressantes, je pense à la part de Marché de /e/ par exemple. Alors là, c’est pas que je tombe des nues, mais je pensais que c’était un truc de geek. Donc merci beaucoup du temps que tu as pris et des réponses que tu as apportées. Pour les auditrices et les auditeurs de Projet Libre, n’hésitez pas, bien entendu, à en parler autour de vous, à faire tourner cet épisode, je pense encore plus cet épisode est la fin qui me semble tout à fait à méditer. Parlez-en autour de vous, laissez-nous des commentaires, puis à bientôt pour d’autres épisodes passionnants, encore très différents. Voilà donc merci beaucoup. Agnès, écoute au plaisir de te rencontrer en vrai bientôt sur un événement ou quelque part.

Agnès : je serai au Capitole du Libre. Vu qu’on parle à des libristes, mi-novembre, un truc comme ça, je vais faire un ou deux talks là-bas.

Walid : et bien voilà, peut-être qu’on se retrouve là-bas.

Je te souhaite une bonne soirée, merci beaucoup.

Cet épisode est enregistré le 19 juillet 2023.

Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (1 year ago)

Fabrice Flore-Thébault – Senior Technical Writer chez RED HAT


Bienvenue dans cet épisode où nous partons à la découverte du métier de rédacteur technique (technical writer) en compagnie de Fabrice Flore-Thébault. Fabrice, après des études d’histoire et de lettres, a fait une rencontre décisive avec le logiciel libr

podcast.projets-libres.org/@pr…

Sommaire

Interview de Fabrice Flore-Thébault


Walid : pour ce nouvel épisode, nous allons parler d’un sujet qui n’est pas abordé si fréquemment qu’on pourrait le penser dans la littérature et dans les podcasts, on va parler de documentation. Pour ce faire, j’ai invité à parler à un ami qui travaille en tant que Technical Writer (NDLR : rédacteur technique) chez Red Hat et qui va nous expliquer un petit peu, nous parler de la documentation de son métier, un peu de son passé et de ce que ça veut dire qu’écrire de la documentation professionnelle pour des projets et en particulier dans une boite comme Red Hat. Après, on pourra de prendre un petit peu ça et généraliser, regarder qu’est-ce que ça veut dire écrire de la documentation maintenant. Alors Fabrice, écoute, merci beaucoup d’abord et j’espère que tu vas bien.

Fabrice : oui, ça va bien. Merci de me recevoir. Ça fait très plaisir de t’entendre et de te voir alors qu’on est maintenant plus dans la même ville depuis longtemps.

Walid : on s’est connus alors qu’on habitait tous les deux à Bruxelles. Il a fallu qu’on aille sur un salon à Paris pour s’apercevoir qu’on habitait à deux rues d’écart à Bruxelles, ce qui était quand même assez cocasse. Première question, est-ce que tu pourrais te présenter, Fabrice, et nous parler un peu de ton parcours ?

Parcours de Fabrice


Fabrice : je m’appelle Fabrice. Je suis un Français exilé en Belgique qui travaille pour une boite américaine, qui a une petite fille belge et une femme à moitié britannique et à moitié allemande. Je suis un Européen citoyen du monde. On va dire ça d’abord. Je pense que c’est ça le truc le plus intéressant.

Je faisais des études d’histoire quand j’ai entendu parler des logiciels libres et de Linux et de Wikipédia. Et je crois que tout a commencé à ce moment-là, à un moment où je me suis dit que oui, à l’université, on nous dit la connaissance, c’est un bien commun, mais on fait beaucoup de choses pour mettre des barrières dans tout ça. Je ne sais pas. J’ai glissé dedans à ce moment-là. Ça s’est fait comme ça. Comment quelqu’un qui n’avait pas utilisé d’ordinateur de toute sa vie commence à passer des nuits à essayer d’installer Linux. J’ai mis un mois avant de trouver la commande halt pour éteindre l’ordinateur. Donc, j’ai commencé avec des trucs, genre démarrer un ordinateur, ça mettait une demi-heure parce que le petit Linux, il devait rechecker ses disques parce que je ne l’avais pas arrêté comme il faut. Donc, je ne suis pas parti avec les meilleures cartes en main, mais j’ai appris et je me suis accroché.

Et voilà, à force d’apprendre, Ça a fini par devenir aussi un travail. Et puis, j’ai vu les métiers de l’informatique évoluer très très fort depuis… J’ai commencé en 2007, 2008, quelque chose comme ça. Mon premier boulot, c’était IT Support. Tu te rappelles ? IT Crowd ?

Walid : oui.

Fabrice : voilà, ça, à peu près pareil. Dans la fiche de poste, il faut savoir soulever 15 kilos, parce que c’était au moment des écrans cathodiques et les gros écrans de designers, ils pesaient 15 kilos. C’était un métier qui n’était pas uniquement derrière un laptop, derrière un ordi toute la journée, mais il y avait beaucoup de contacts avec les gens, il y avait des trucs qui étaient physiques. Soulever un serveur de 4U… ben la première fois, tu n’enlèves pas les disques et tu te fais mal. Et après, la seconde fois, tu enlèves les disques. Maintenant que tout est dans le Cloud, soulever des serveurs, je n’ai pas fait ça depuis 10 ans au moins. Et donc, mon premier métier, administrateur système, a, je pense, à peu près disparu de la planète, parce qu’on a automatisé beaucoup de choses. Il y a beaucoup de choses qui ne se font plus du tout pareil.

Il y a beaucoup de choses qui prenaient du temps avant et qui maintenant sont immédiates. Et je pense que oui, tous les cinq ans à peu près, mon métier s’est complètement transformé parce que ce qu’on faisait avant, on ne fait plus ou on fait différemment. Donc voilà, pendant 10 ans, j’étais on call. Je me suis réveillé à 4h du matin, le jour de mon mariage, pour aller réveiller un serveur planté, un serveur qu’on avait oublié, qui était là depuis plus de 10 ans. Des trucs comme ça. Et maintenant, j’écris de la doc, alors…

Walid : donc, tu commences par faire du support. À un moment, tu commences à passer à faire de l’adminsys. Là, moi, c’est le moment où je t’ai connu, tu as commencé à travailler sur l’automatisation, la gestion de configuration, etc. Et après, tu as l’occasion de bifurquer pour rejoindre Red Hat en fait ?

Fabrice : oui, mais la vie n’est pas linéaire. On va dire, au moment où j’étais sysadmin, je me retrouvais devant des trucs où c’était un peu du parcours, si tu veux. C’est un peu installer un ordinateur, installer des ordinateurs pour les devs, c’était un petit peu parcours, fais ci, fais ça, clic clic clic clic clic clic… Le problème, c’est que la première fois, ça me plaît bien. La deuxième fois, ça me plaît moins. La troisième fois, ça m’ennuie. Et la dixième fois, je fais des erreurs parce que je ne suis plus du tout là quand je fais le truc. Donc, du coup j’ai cherché très rapidement à voir comment les trucs répétitifs, je pouvais éviter de les faire. Et c’était au moment, vraiment au tout début de la gestion de configuration. C’était un domaine très neuf. C’était super intéressant ce moment. Parce qu’il fallait déjà convaincre les gens que c’était possible, qu’on pouvait automatiser et que juste l’idée n’était pas complètement folle. Maintenant, quand on est dans un monde où si tu n’as pas de Kubernetes dans ton CV, tu vas nulle part. C’est marrant puisque Kubernetes, c’est vraiment juste quelque chose qui automatise tout.

Ou si tu ne l’as pas automatisé, ça ne fonctionne pas. Donc, on a un changement de paradigme qui est énorme. Je suis passé de gérer des postes de travail de gens et des serveurs qu’on installe à la main à maintenant, j’écris de la documentation pour un outil qui gère des Kubernetes sur des laptops. Donc finalement, j’écris ce qui reste à documenter quand on se retrouve à gérer un énorme truc entièrement automatisé.

Pendant quelque temps, j’ai automatisé des installations de serveurs, de configurations, etc. Et puis, vient le moment où Kubernetes arrive et où gérer un Kubernetes, tu ne le gères plus avec les mêmes outils, donc plus avec un Ansible. Donc, c’est un moment de remise en cause. Et je me suis demandé à ce moment-là si je préférais rester dans les opérations et gérer des clusters Kubernetes ou expliquer aux gens comment le faire. C’est à ce moment-là où j’ai basculé du côté de la doc, sachant que ce qui m’a beaucoup aidé, c’est que pendant toutes ces années-là. De temps en temps, sur des projets libres, j’ai aidé à faire de la doc.

Et pourquoi j’ai aidé à faire de la doc ? Parce que je savais pas écrire du code et que j’avais envie de rendre à la communauté des outils qui m’avaient rendu service. C’est juste une histoire de, je sais pas, de karma, de remettre la balle au centre.


Grâce à ce projet, j’ai fait les trucs qui me prenaient des plombes, je l’ai fait en plus rien de temps. Grâce à des projets d’automatisation, c’est juste, j’arrivais à faire en un mi-temps ce que je vais faire en un temps plein après. Et donc, une partie du mi-temps qui est libérée, je vais quand même un peu l’utiliser pour rendre quelque chose au projet parce que je trouve que ça se fait. Ça me gênait pas de prendre ça sur le ton de mon employeur, puisque avant, le boulot, il demandait un temps plein et que finalement, qu’une partie de ce temps que j’en dispose à ma manière en contribuant à la communauté, ça me semblait normal. Donc, j’ai appris sur des projets, sur GLPI, sur Rudder. GLPI, c’est un outil de gestion de parc informatique dont je pense que tes auditeurs ont entendu parler ou vont entendre qui vont me parler.

Walid : oui, certainement vont entendre parler.

Fabrice : et Rudder, qui est un outil aussi d’automatisation, je pense que tu les as reçus ou que tu vas les recevoir aussi.

Walid : j’espère bien. Plus tard aussi.

Fabrice : pour Rudder, C’est mon premier vrai boulot de Technical Writer pendant un été, entre deux boulots. Tout ça m’a permis de prouver à mon employeur actuel, Red Hat, que je pourrais être un bon writer. Et après, je suis arrivé là-dedans et ce n’était pas du tout comme je pensais.

Qu’est-ce qu’un Technical Writer ?


Walid : c’est quoi un Technical Writer ? Qu’est-ce qu’on entend par Technical Writer ?

Fabrice : j’ai mis trois ou quatre ans à me poser la question, à me reposer la question à chaque fois différemment et à essayer de comprendre, parce que ce n’est pas du tout ce que je pensais. Pour moi, l’informatique, c’est d’abord les outils Unix, les manpages, les commandes en ligne et puis une documentation sur un site web avec un wiki. C’est essentiellement la documentation de référence, en fait. C’est ça que j’ai le plus utilisé. En fait, la documentation de référence, c’est une documentation qui est écrite par les développeurs, qui est très, très proche du code. Les Technical Writers, ils ne vont pas vraiment toucher à celle-là. Les développeurs, ils vont faire ça bien et on leur fait confiance. En tout cas, chez Red Hat, cette partie-là, elle est faite par les développeurs et les Technical Writers, en fait, ils ne s’y touchent pas. Chez Red Hat, les Technical Writers, ils viennent là pour produire la documentation pour les utilisateurs, qui est un artefact du marketing et où on raconte des histoires. On veut raconter des histoires, finalement. Mais ce n’est pas aussi simple que ça. C’est-à-dire qu’on a eu des manuels, des guides d’utilisateurs, donc, il y a toute une tradition de manuels qui vient notamment d’IBM avec des manuels qui font des milliers de pages où on décrit tout.

Donc, il y a cette tradition qui est là. On va dire, il y a des traditions amenées par les gens qui travaillent, je pense que c’est un peu comme partout.

En gros, il y a deux familles de Technical Writers.


Il y a une famille qui, on dirait, c’est la famille à l’ancienne. C’est un peu celle dont je fais partie. C’est une famille qui est très technique, qui sont des gens qui savent écrire du code ou pas, mais en tout cas qui savent le lire, qui savent aller tester des trucs compliqués… il y a une grosse affinité au code. En général, c’est des gens qui sont passés par des par le support auparavant. C’est un peu ce que j’ai fait. Le parcours, c’est on apprend la matière technique, on apprend à répondre à des questions d’utilisateur et puis après, on apprend à formaliser tout ça.

Et l’autre famille, c’est des gens qui ne viennent pas du tout du monde technique. C’est des gens, ils peuvent écrire de la doc pour… Leur domaine, c’est le langage, c’est la communication. Ils peuvent écrire de la doc pour une centrale nucléaire. Ils peuvent écrire de la doc sur des tubes de dentifrice, sur des tracteurs, des canons.

En fait, c’est marrant parce que c’est des gens, ils peuvent vraiment changer d’industrie assez facilement. C’est des gens qui vont développer des techniques pour interviewer les gens, pour réussir à expliquer des choses qu’eux-mêmes ne ne comprennent pas. C’est un peu comme des… beaucoup plus proche de ce que font des interprètes, qui font de la traduction. C’est-à-dire que quand tu fais de la traduction, tu n’es pas nécessairement… et que tu maîtrises la langue, tu ne maîtrises pas nécessairement auparavant tout le côté technique, toute la technique de ce que tu traites.

Il y a ces deux profils, donc un profil plus éditorial, plus du monde de l’édition, et un profil plus technique. Je ne saurais pas dire pour toute l’industrie informatique. Je sais dire un peu pour Red Hat.

Et donc, du coup, ça pose pas les mêmes contraintes quand tu veux documenter du logiciel, parce que tu vas avoir soit des gens qui sont très autonomes pour écrire, soit des gens à qui il faut expliquer beaucoup de choses. Parce que les gens dont le point fort c’est le langage, ils vont interviewer les gens et demander: alors, comment tu fais, etc.

Donc, le brouillon est largement fait par les développeurs et ensuite, si le Technical Writer va tout changer.

Walid : il y a un truc que tu sembles un peu passer sous silence, c’est que tu n’es pas juste technique, c’est que tu proviens… enfin avant, tu as fait l’université, tu as fait des études où tu étais amené à écrire en vrai bon français ou anglais, bref, je ne sais pas. C’est-à-dire que pour avoir travaillé avec toi, moi, je ne suis pas capable. Déjà, un, j’avais plus de mal à me mettre à la place de l’utilisateur que toi et deux, je ne suis pas capable d’écrire… c’était plus compliqué pour moi, par exemple, d’écrire dans un français, bon français comme toi et de vulgariser et de raconter ce que tu appelles la belle histoire, qui a été ma deuxième question: c’est quoi une belle histoire ?

Fabrice : oui, moi, j’ai fait aussi, c’est vrai, j’ai fait des études d’Histoire, mais de Lettres en même temps. La doc technique, c’est un genre littéraire hyper pauvre en fait. On essaye de transformer le langage naturel, dans mon cas, c’est plutôt l’anglais, on essaye de canaliser un langage naturel qui est rabelaisien. Chaque personne a ses tics de langage. Un Américain, un Canadien, un Anglais, un Britannique, etc. C’est leur langage natif, l’anglais, mais ils ne vont pas parler pareil. Un rédacteur technique, il fait disparaître ça, il va gommer tout ça. Le but, c’est que la documentation puisse être lue par un peu n’importe qui dans le monde et surtout des gens dont l’anglais n’est pas du tout le langage maternel. On a un vocabulaire le plus pauvre possible, on a des structures de phrases les plus pauvres possible et aussi, on essaye de garder une structure de contenu qui soit toujours la plus prédictible possible, la plus simple possible, la plus saucissonnée possible. En fait, on essaye de parler à l’œil et directement au cerveau avant même que les gens lisent les mots. C’est-à-dire que là, je regarde juste en même temps, je regarde le fichier que tu as préparé, c’est exactement ça, c’est des checklists.

Chez Red Hat, par exemple, on a trois types de contenus et pas plus. On a une procédure qui est le type de contenu qu’on utilise le plus possible, dont la structure est définie et dont on ne dévie pas. Et une procédure, c’est : il y a une intro d’une ou deux phrases qui expliquent en gros aux gens pourquoi ils ont envie de lire cette procédure. Pourquoi faire ? C’est le pourquoi. Ensuite, il y a un petit sous-titre qui dit : prérequis. Et on liste une liste bullet points de tous les prérequis avant, tous les trucs qu’il faut avoir fait avant. Ensuite, une procédure qui est une liste numérotée de tous les steps à faire pour faire quelque chose. Et puis ensuite, une autre liste de points à vérifier et ensuite une liste bullet de ressources additionnelles qu’on peut aller voir après. Et voilà. Et donc, du coup, c’est tout le temps pareil. C’est tout le temps pareil. Donc, un utilisateur, il sait que déjà, qu’il va avoir cette information-là. Donc, il y a ce truc-là. C’est d’une pauvreté horrible, mais on n’est pas là pour faire de la création. C’est exactement l’inverse de la création littéraire, par exemple.

Donc, on a un type qui est comme ça, un type de contenu qui est une documentation de référence, mais que, je ne sais pas, sur un projet, il va y avoir une documentation de référence et 25 procédures et des concepts qui sont pareils, qui sont un chapitre. On explique les trois concepts sur le projet et basta. Il y a juste les concepts et les références qui sont un peu plus libres dans la forme, mais le gros du truc, c’est ça. Quand on prend une procédure qui est écrite par…, un brouillon, qui est écrit par un développeur, par exemple, il y a de fortes chances qu’il ne reste pas une seule ligne de ce qui était là au début. Parce qu’on met tout ça dans un ordre logique pour pas que des informations arrivent en cours de route. Donc ça, c’est hyper important. Les prérequis, on les balance en prérequis. Les phrases, on les simplifie. C’est sujet, verbe, complément, point. Le but, c’est d’utiliser le moins de mots possible pour raconter quelque chose que tout le monde va comprendre sans l’ombre d’un doute, sans dans un endroit où deux personnes vont interpréter la chose de manière différente.

C’est rigolo d’arriver à se dire : je vais supprimer 500 mots à ce texte ou des trucs comme ça, ou comment réduire le nombre de steps de la procédure de 15 à 7. Voilà, quand on utilise des petits trucs.

Concepts d’upstream et de downstream


Walid : est-ce que tu pourrais expliquer, pour les auditrices et auditeurs qui ne connaissent pas, ce que c’est que l’upstream, qui est un mot qu’on entend beaucoup dans le logiciel libre, et le downstream, qui est un mot que j’avais assez peu entendu, à part potentiellement chez Red Hat. Est-ce que tu peux expliquer de manière simple ces deux mots-là, pour qu’ensuite, derrière, après, on puisse commencer à parler justement de la collaboration ?

Fabrice : ok ça c’est une manière assez particulière, c’est le business model de Red Hat. La manière dont Red Hat fonctionne, c’est de fonctionner avec des projets qui sont upstream, c’est-à-dire c’est les projets qui sont les projets open source et qu’on va retrouver, je pense, sur GitHub, essentiellement, GitLab, très peu. C’est marrant parce que chez nous, GitLab, c’est plus les repositories downstream, donc les repositories pour les produits qui sont dans le VPN et donc auxquels des gens extérieurs à la boite n’ont pas accès. Donc, on va, à partir d’un projet upstream, on va fabriquer un produit downstream. Et le downstream, c’est juste créé à partir de upstream.

C’est juste la métaphore de la source. Open source, une source, elle vient de la source. Donc upstream, elle vient de quand c’est un ruisseau. Et downstream, si tu descends et tu vas retrouver le fleuve.


Walid : sur les projets sur lesquels tu bosses, tu as toujours un upstream qui est le projet open source et un downstream qui est le produit commercial Red Hat.

Fabrice : exception : le projet où pour l’instant, on n’a pas de downstream. De manière générale, oui, Red Hat, participe à des projets et ensuite, ils vont construire un produit où la valeur ajoutée de Red Hat, c’est l’audit de sécurité, c’est faire tourner le bazar dans le cadre d’une grande entreprise, c’est-à-dire à intégrer avec les backups, intégrer avec des authentifications centralisées, intégrer avec vraiment tout le bazar qu’il y a dans une grande entreprise pour faire tourner quelque chose. Il ne suffit pas de faire une application qui fait des petits Mickeys. Pour accéder aux petits Mickeys, il faut que tu puisses s’authentifier par le SSO de la boite. Et puis, il faut que les petits Mickeys, on puisse les « backuper » avec l’outil de backup de la boite. Le projet, lui, se concentre sur la fonctionnalité. Je montre des petits Mickeys. La partie « productisation » s’assure de tout le reste. Donc tout ce qui est sécurité, gestion des patchs de sécurité, etc. Tout le delivery vers le client aussi, c’est packagé et c’est plus facile à installer. Ça a un impact sur les projets à chaque fois. C’est qu’un projet qui va son petit bonhomme de chemin juste à faire des features, quand il doit être « productisé », transformé en produit, ça ralentit beaucoup le développement parce qu’il faut vérifier que ça et ça, c’est compatible.

Je suis sur un projet, là, maintenant, qui s’appelle Podman Desktop. On cherche à aller vraiment très, très vite et on n’a pas de produit. C’est entièrement communautaire. C’est assez rare, mais pas complètement rare chez Red Hat, parce que si on pense bien, Ansible, c’est l’outil d’automatisation qui a tué tous les autres outils d’automatisation. Red Hat a mis beaucoup de temps à voir comment transformer ça en produit.

Walid : est-ce que tu peux citer une ou deux références upstream versus downstream dans le cadre de Red Hat ?

Fabrice : la distribution Linux Fedora, c’est l’upstream de la distribution Red Hat Enterprise Linux. Pour les gens qui sont dans le monde Linux, ça, c’est peut-être le plus évident. Ça s’est encore complexifié puisque CentOS… CentOS était un downstream de Red Hat : ils reprenaient la distribution de Red Hat et il la repackagaient en libre. C’est-à-dire que ça faisait upstream, downstream et ça retournait à upstream. Red Hat a retourné ça dans le même sens que le reste. C’est-à-dire que maintenant, CentOS est plus un upstream qu’un downstream.

Kubernetes, c’est l’upstream pour OpenShift. Qu’est-ce que fait Red Hat ? On rajoute par-dessus Kubernetes, tout ce qui est sécurité et tout ce qui est nécessaire pour faire fonctionner Kubernetes dans le monde de l’entreprise. Ce qui fait que de manière générale, un container qui va marcher sur Docker, sur Podman, sur un container engine, qui va ensuite fonctionner sur Kubernetes, ça va se vautrer sur OpenShift. Les prérequis de sécurité pour faire tourner des choses sur OpenShift montent la barre assez haut.

Formats et outils de documentation


Walid : quand tu es Technical Writer, comment tu t’intègres dans les projets ? Quelle est ta relation avec les développeurs, les gens du marketing ? Quelle est ta relation avec les communautés ?

Fabrice : ça dépend beaucoup comment on organise le flux de la documentation. C’est-à-dire, est-ce qu’on met une équipe de writers upstream et une équipe de writers downstream ? Et puis, en fait, il ne se passe pas la soupe. C’est un peu ce qui se passe entre Fedora et RHEL. C’est beaucoup le cas d’avoir des trucs où le passage des deux ne se fait pas. Ou tu choisis de faire la documentation dans le projet upstream, comme ça, elle est visible dès GitHub. Tu vas sur GitHub, tu vois la documentation sur GitHub, tu as la documentation complète. Ça, c’est Ansible, AWX. Il y a beaucoup de projets comme ça. Mais c’est quand même pas la règle chez Red Hat, c’est plus compliqué techniquement. Il faut avoir la pipeline qui permet de transformer ta documentation upstream avec le nom du projet, par exemple, en une documentation dans downstream où ce n’est plus le nom du projet, c’est le nom du produit. Il faut avoir des trucs solides pour faire ça. On fait des trucs bien, il y a des projets qui font des trucs bien. On a la chance, c’est un super projet qui s’appelle Antora. Antora qui est un outil de gestion de contenu, de documentation fait en AsciiDoc.

Il y a AsciiDoc, le langage, qui est un langage de markup comparable à Markdown ou à reStructuredText, juste la spec du langage. Après, on a Asciidoctor, l’implémentation dans plusieurs langages de quelque chose qui s’est transformé, ce markup, en autre chose : du HTML, du PDF, du epub, des slides. Et ensuite, Antora, qui est un projet qui permet de faire un vrai site de doc. C’est-à-dire faire un vrai site de doc avec une navigation. Donc, ça va gérer la navigation, ça va gérer les liens, ça va gérer les versions, ça va gérer le fait qu’on va chercher des bouts de docs dans du code où le contenu est écrit à des endroits différents, mais qu’on veut les publier tous au même endroit. C’est un outil magnifique. Pour moi, c’est très comparable à Ansible à faire des playbooks parce qu’on assemble des trucs qui viennent de partout. On arrive à avoir des pipelines assez complexes et qui font des belles choses. C’est-à-dire qu’on peut avoir en cinq minutes le contenu est « mergé » sur le projet upstream, il est publié directement sur la documentation upstream, on va dire, toutes les nuits ou même au moment du comment, le contenu arrive dans le produit. On peut être tech writer et faire de l’automatisation.

Walid : t’as fait il n’y a pas très longtemps, une conférence au FOSDEM sur le sujet. Je mettrai le lien dans tous les cas dans les commentaires. Si je comprends bien, tu prends tes connaissances en gestion de configuration et en automatisation et tu as appliqué ça à la doc.

Fabrice : pour l’instant, j’aide pas mal mes collègues. Il y a des gens qui veulent faire pareil, en tout cas. C’est un exemple, ce n’est pas le seul projet où ça arrive. Ce qui a peut-être été différent sur mes projets, c’est que c’est le Technical Writer qui a fait le boulot et ce n’est pas des devs. Il y a des extensions pour Antora qui sont arrivées il y a un an. On a commencé à les utiliser quand elles n’étaient pas sorties du four. On a utilisé vraiment des trucs très nouveaux. Dan Allen, le gourou d’Antora, il bosse aussi pour des boîtes qui ont des grosses docs et des gros besoins. Il est arrivé à faire un truc assez génial, c’est qu’il a un boulot de développeur de logiciels, de documentation, il fait tout. Il a développé les specs, il a développé l’interpréteur de base, il a développé tous les outils autour. C’est juste impressionnant de le voir travailler, de le voir aussi gérer la communauté parce que qui est très présent pour répondre à la communauté des utilisateurs. Ce mec est une bête, c’est incroyable. Et quand on compare ça au bazar que c’est côté Markdown, il n’y a pas photo.

Le Markdown tout nu avec rien d’autre, on ne fait pas grand chose. Tous les gens qui utilisent du Markdown, ils rajoutent des extensions par dossier, ceci, cela. Il y a des flavors de Markdown à n’en plus finir. Pour l’instant, c’est en train de se reconcentrer sur un truc qui s’appelle MDX (Extended Markdown), qui, en gros, on essaye de reprendre ce que est-ce qui fait depuis des plombes et de le mettre dans Markdown. Mon projet actuel, c’est du Markdown et je ne suis pas hyper fan, mais les développeurs adorent.

Qui écrit la doc et avec quelles contraintes ?


Walid : là, ton passé dans l’automatisation influe direct sur tes capacités à automatiser la doc. Ça, c’est assez intéressant, mais pour ceux qui veulent en savoir plus, je pense que la conférence du FODSEM, elle explique ça très bien. Il y a un truc, quand on a préparé, qui m’a beaucoup intéressé, c’est l’évolution de la documentation. Ce que tu me disais quand on a commencé, c’est que la documentation, au tout départ des projets libres, c’était fait par les développeurs, parce que les développeurs, en gros, c’étaient des gens qui sortaient de grandes universités, etc. Ils avaient le niveau.

Fabrice : et leurs utilisateurs aussi. Ces trucs-là, ça vaut toujours la peine de faire des parallèles avec d’autres inventions. Par exemple, la lecture. On prend la lecture au Moyen Âge. La lecture au Moyen Âge, il y a très peu de gens qui savent lire, il y a très peu de gens qui savent écrire. Tout ce qui est écrit est fondamentalement écrit pour des gens qui ont le même niveau d’éducation que la personne qui écrit. Ça donne des trucs complexes. On n’a pas de Picsou Magazine, on n’a pas ce genre de trucs là. C’est quelque chose qu’on va retrouver dans de l’iconographie, qu’on va retrouver dans la peinture, dans d’autres trucs, mais qu’on ne va pas retrouver dans l’écriture. L’informatique, c’est pareil. On a commencé à avoir des gens qui étaient tous avec d’énormes universités, qui ont un parcours universitaire de minimum 10 ans avant de s’occuper d’informatique. Donc, c’est des gens, ils ont du vocabulaire, ils ont une capacité d’énonciation et de d’énoncer des choses complexes qui est très forte. Mais ils parlent aussi à des gens qui ont du vocabulaire et qui ont une capacité à comprendre des choses, des choses complexes.

On veut que n’importe quel logiciel soit utilisable par quelqu’un qui a fait son premier cours d’anglais le mois précédent et qui a un vocabulaire de 150 mots.


Pareil pour les développeurs. Un développeur maintenant, c’est quelqu’un qui a fait des études beaucoup plus spécialisées qu’un développeur des années septante. Un développeur des années septante, il y lit Kant. Il n’y a pas de problème pour ça, je pense. Un développeur des années 2020, il y en a qui peuvent, mais il y en a qui ne peuvent pas. Ce n’est pas dire quelque chose de méchant de dire ça, mais c’est juste qu’on n’est pas au même niveau d’éducation. On n’est pas du tout dans le même genre littéraire, on va dire. Donc, il y a ça. Et puis, il y a aussi qu’on est passé d’une documentation qui est essentiellement une documentation de référence, c’est-à-dire : « Mais qu’est-ce que ça fait ? Comment je peux faire pour faire ça ? Et je vais lire un truc, je vais regarder toutes les options, etc, et je vais trouver la mienne », à un truc où c’est plus le marketing qui est là. C’est-à-dire que moi, je pense que la doc, maintenant, c’est un outil de marketing où quelqu’un qui ne connaît pas le produit doit voir des histoires, doit voir comment utiliser le produit, pourquoi faire. On raconte des histoires et les histoires vont amener des features de l’application.

Ce qu’on cherche à ne pas faire du tout, c’est d’avoir une recopie de l’application. On n’est pas en train de décrire l’application. On est là pour amener les gens à utiliser l’outil. On n’est pas en train de décrire l’outil, on est en train d’expliquer pourquoi l’utiliser, comment l’utiliser et vers quoi tendre.

Walid : si on reprend au début du logiciel libre, les développeurs, étaient capables d’écrire les manpages, ce qui est globalement toujours le cas, et ils étaient capables d’écrire toute la doc qui était technique en plus, et c’est eux qui faisaient tout. Or maintenant, en gros, le développeur, il écrit toujours la doc de référence, qui peut être une manpage ou autre chose. Et à côté de ça, il y a toute une population d’autres gens qui vont faire les docs additionnelles. Toi, le Technical Writer, tu vas écrire les cas d’utilisation, l’histoire, etc. Et après, il y a, de part aussi l’évolution d’Internet et l’évolution des usages, tu as aussi tout un ensemble d’autres ressources que tu as à ta disposition, que tu n’avais pas forcément à ta disposition à côté, qui vont te permettre de pouvoir aussi apprendre et sur lesquelles toi, je pense, tu ne travailles pas trop. Je pense à, par exemple, les tutoriaux, les vidéos. Moi, par exemple, dans le no-code, énormément de posts LinkedIn, de live Twitch, etc. Donc, c’est encore des populations différentes qui ne cohabitent pas forcément avec ce que tu fais.

Fabrice : je voulais parler aussi d’une tradition chez les Technical Writers, qui est le le manual of style, le style guide. C’est quelque chose qui est super important. Donc le Chicago Manual of Style, il date des années 20, je pense, quelque chose comme ça. Il y a eu un manuel de style qui est une espèce de Bible qui explique comment tu écris de la documentation. Peu importe pourquoi. C’est comment tu écris un contenu factuel qui décrit quelque chose, etc. Ça définit comment tu utilises les virgules. Ça explique qu’il ne faut pas utiliser la voix passive parce que la voix passive, ça a introduit de l’incertitude, etc. C’est le pacte de base du Technical Writer. C’est la Bible du Technical Writer. C’est ce qui fait que les Technical Writers qui font de la doc vont difficilement passer à un autre média, vont difficilement passer à faire de la vidéo ou faire des slides ou faire des cours, etc. C’est à cause de ce manual of style qui est quelque chose qui est très formatant.

Quand j’ai commencé chez Red Hat, j’avais l’impression que mon rôle, c’était vraiment police du langage. Je m’attendais à avoir un rôle d’explorateur et de création, mais non, la plupart du boulot, c’est chiant. C’est juste : « Non, tu as de la voix passive, il faut enlever », « Non, ne fais pas les virgules comme ça », « Non, dans les titres, on ne met pas de capitales ou des trucs comme ça ». Je ne connais pas bien métier de l’édition, de l’édition littéraire.. enfin édition, les gens qui font des livres quoi, mais je pense qu’il y a aussi des strates comme ça de métiers entre l’éditeur qui fait changer la structure d’un ouvrage en entier et le correcteur qui va trouver les typos et les virgules manquantes et les trucs comme ça. Et donc, je pense que dans le boulot de Technical Writer, on a un seul titre, mais il y a tous ces rôles qui se retrouvent aussi. On est dans le monde de l’édition, mais structuré un petit peu différemment. Éditer des bouquins, le métier de faire des bouquins et de faire des guides et d’écrire, ce n’est pas le même métier que le métier faire de la radio, enregistrer des blogs ou de faire des films. Fondamentalement, ce n’est pas du tout le même métier. Ça ne demande pas de maîtriser la même chose. Ça ne demande pas de maîtriser le langage écrit et le langage oral, ce n’est pas les mêmes codes.

Je sais que cet exercice, par exemple, de participer à un blog, pour moi, c’est un truc entièrement différent de mon quotidien.

Walid : en gros, je te fais un parallèle avec… il y a quelques années, on a monté avec d’autres personnes une boite, on fabriquait des patins à roulettes, tout ce qui concernait la communication et le marketing, tout ça, c’était intégré. C’est-à-dire que tu pouvais pas communiquer sur un médium si tu communiquais pas sur un autre et comprendre qu’est-ce que tu allais sortir à quel moment et comment tu allais parler de ton produit sur tel média versus tel autre, ce n’était pas la même chose, etc. Donc ma question était aussi de savoir : est-ce que vous, vous avez un rôle dans tout ça ? Et potentiellement, il y a peut-être d’autres gens au marketing qui ont un autre rôle et savoir est-ce que vous, vous étiez en contact et il y avait une coordination quelconque ?

Fabrice : on va dire, il y a des docs, ça serait bien qu’ils soient prêts pour des releases, par exemple, des trucs comme ça. On est comme des encyclopédistes face aux journalistes. Le contenu qu’on propose, c’est beaucoup plus proche d’un contenu d’encyclopédie et c’est beaucoup moins proche d’un contenu de journaliste ou de blogueur. Le blogueur, il est dans l’événement. Il est dans le « Je délivre un truc ici et maintenant ». Ici et maintenant : message. Alors que quand tu fais de la doc, tu essaies de faire un truc qui va survivre au temps. C’est-à-dire, je vais essayer un blog, je vais mettre un screenshot avec la version d’aujourd’hui et maintenant, je vais faire une vidéo avec ce qu’il y a aujourd’hui et maintenant dans l’application. Tu ne fais pas ça dans de la doc parce que tu vas faire exactement le contraire. Tu vas faire le moins possible de screenshots, parce que c’est trop de la maintenance et c’est trop de la perte de temps. S’il y a la version du produit dedans, il faut mettre à jour à chaque version. Et du coup, les screenshots, s’il y a un revamp de l’interface utilisateur, c’est tout à refaire. Donc, on a des objectifs qui sont quand même très, très, très différents.

Là, j’ai fait récemment un blog post pour le projet. C’est sorti un peu comme de la doc qui est mis dans un blog. Je ne suis pas hyper fier de moi, mais je me suis bien rendu compte que c’était un exercice très différent. Ça a été très difficile pour moi de passer de la doc qui est très froide à un truc un peu plus convivial. Et comme je suis habitué à écrire de la doc, on enlève les mots, qui est très squelettique. Ça a été de remettre un peu de liant là-dedans. C’était le challenge du truc. Je ne suis pas trop sûr d’être arrivé, mais voilà.

« Productisation » de logiciels libres


Walid : combien il y a de Technical Writers chez Red Hat, par exemple ?

Fabrice : je crois qu’il y en avait plus d’une centaine. Je ne sais pas si c’est juste un prono ou en général. Ce n’est pas non plus énorme. On est à un ratio de 1 pour 15 développeurs à peu près, je dirais, quelque chose comme ça, 1 pour 10, 1 pour 15. Là, je suis sur un projet où il y a moins de 15 développeurs quand même et je suis un writer dedans, c’est assez exceptionnel. Le projet où j’étais avant, pour l’instant, ils sont trois. On a été trois à un moment où il y avait 40 développeurs.

Walid : quel est l’impact de mettre des Technical Writers sur le projet ? Est-ce que ça accélère le projet ? Est-ce que ça freine le projet ?

Fabrice : en général, on met des Technical Writers quand on fait de la « productisation », c’est-à-dire au moment où on freine. La « productisation », elle freine le projet, forcément. C’est là où on va mettre des QA, donc des gens qui font de la qualité, des tests. On va mettre des testeurs, on va mettre de la doc. Je ne dis pas que c’est les writers qui ralentissent le projet, mais les writers, de manière générale, sont très liés avec des trucs « productisés » qui vont lentement. Pour moi, qui venait plus d’un monde de société de services où on délivre vite et on va faire une review et puis après une autre review. Pour moi, ça peut prendre du temps parce qu’on va avoir une review où c’est les développeurs qui vont dire : oui, techniquement, ça marche. Puis après, on aura une review où c’est d’autres writers qui vont dire : oui mais tu n’as pas suivi le style guide. Donc oui, c’est plus long, mais ce n’est pas nécessairement le cas. Moi, là, j’essaie de suivre sur un projet uniquement communautaire, ils sont une demi-douzaine et les trucs, ça file super vite. Donc, si je fais un screenshot le lundi, le vendredi, c’est plus ça.

Et les gens pensent que c’est facile et que ça va vite d’écrire de la doc. Et ce n’est pas le cas. Ce n’est pas facile et ça ne va pas vite.


C’est-à-dire que quand tu écris une procédure, d’abord, il faut arriver à trouver le déroulement logique et arriver à pour faire le truc qui est dedans. Ça, ça prend déjà un bout de temps. Ensuite, il faut vérifier qu’il n’y a pas quelqu’un qui va mal comprendre le truc et qui va faire autre chose. Il y a tout ça. Il y a à rendre conforme après au langage, mais ce n’est pas le plus complexe. On a des outils maintenant pour ça. On a comme des linters de code, mais des linters pour la doc, donc qui disent : non passive voice tu n’as pas le droit. Ce genre de choses-là, il faut tester, puis après, il faut valider. Et puis après, quand c’est quelque chose qui va de upstream à downstream, il faut aussi s’assurer que ça passe bien en downstream. Notamment qu’on n’introduit pas des exemples qu’on ne peut absolument pas mettre downstream ou des trucs comme ça.

Walid : deux questions là-dessus. Quels sont les outils que vous utilisez ? Et la deuxième, c’est : tu disais tout à l’heure que tu étais en capacité de tester. Tu dis qu’écrire de la docs, ça prend du temps. Est-ce que ça prend du temps aussi parce que tu vas installer l’outil et tu vas le tester fonctionnellement ?

Fabrice : tester le truc, c’est presque ce qui prend le plus de temps. J’essaie de ne pas faire perdre leur temps aux développeurs. Donc, j’essaie de trouver les choses par moi-même, et j’ai tendance à péter des trucs beaucoup aussi. Ce qui est lent aussi, c’est que les gens qui écrivent la docs, c’est les premiers utilisateurs pour les développeurs. Les développeurs, ils sont focus sur une fonctionnalité et juste la fonctionnalité qu’ils sont en train de faire. Mais ils ne sont pas utilisateurs du produit fini, très peu. Il y a un moment, j’avais discuté avec des gens qui font un fork de PostgreSQL, donc logiciel de bases de données. Et moi, je leur parlais en tant qu’ancien opérateur de bases de données, genre les trucs à quoi il faut penser quand on fait des bases de données. Donc quelqu’un, un développeur qui écrit du code pour faire de la base de données depuis 20 ans, 25 ans. Et à un moment, la conversation a tourné court parce qu’il me dit : Non, mais moi, je n’ai jamais été opérateur d’une d’un gros serveur de base de données. Je ne vois pas de quoi tu parles.

Donc, les writers sont les premiers utilisateurs. En général, quand on utilise, c’est pour aller documenter une feature qui est nouvelle. En général, on documente une feature un petit peu pas très mature, donc on voit les trucs qui font mal. On fait : oui, mais regarde dans tel cas ça ne marche pas, etc. Il y a aussi toute une partie. En tout cas, moi, c’est comment moi je fais mon boulot. Il y a toute une partie qui est de remonter les informations sur les trucs qui ne vont pas. Après, est-ce que j’ouvre des tickets sur GitHub ou est-ce que j’envoie des trucs sur la messagerie instantanée ? Qu’est-ce qui va le mieux ? Ça, ça dépend de la relation avec l’équipe, avec les développeurs, etc. Moi, je suis pour le Agile Manifesto, version early 2000 : « Individuals and Interactions before Processes and Tools« . Donc, le travail, c’est d’abord des gens, c’est d’abord des interactions. Ensuite, on met en place des process et des outils, mais ce n’est pas les process et les outils qui sont importants. Je pense que ça, c’est vachement important pour quelqu’un qui fait de l’automatisation, aussi de savoir que ce n’est pas les tools qui sont importants, c’est les gens.

Walid : justement, tu parles d’outils, là. Vous utilisez quels outils ? Là, tu parles de GitHub.

Fabrice : le truc important, c’est que c’est de la documentation pour des logiciels. La documentation, c’est pour des logiciels. On essaie de la mettre le plus proche possible du code des développeurs. Après, il y a des débats, il y a des gens qui disent : il faut un repository à part, etc. Mais de toute façon, ça va être… Si les développeurs écrivent du code, c’est dans des repository Git, la documentation, ça va être dans des repository Git aussi. Il n’y a pas de discussion là-dessus. Alors, mettre dans le même repository ou un repository à côté, finalement, ce n’est pas une grosse variation. Mais c’est dans un repository Git. Il y a un assez grand nombre de langages de markup différents qu’on peut choisir. Donc, Pour partir des plus anciens, mais en restant dans le monde de l’open source, il y a LaTeX, mais je pense que peu de gens vont écrire LaTeX maintenant. LaTeX s’est fait plutôt détrôner par le XML dans les années 2000. Et pour la documentation, on a quelque chose qui s’appelle DocBook, qui est du XML pour faire de la doc. À un moment, les développeurs chez Red Hat, ils ont quand même, à un certains point, ils ont dit : non, DocBook, ça pue, on ne veut pas contribuer. Il faut nous trouver autre chose pour qu’on contribue à la doc.

Alors, on a dit : d’accord, on va faire autre chose. Et c’est comme ça que AsciiDoc est arrivé. On pouvait faire du Markdown, du reStrcturedText ou du AsciiDoc. À ce moment-là, AsciiDoc avait un convertisseur qui pouvait traduire du AsciiDoc vers le DocBook. Toute la chaîne de build de Red Hat, c’était basé sur le DocBook. Donc, pour l’instant, on est encore dans cet héritage-là, puisqu’on a du AsciiDoc qui est transformé en DocBook et qui va dans l’ancienne l’ancienne pipeline qui a été vraiment créée par Red Hat. La libXML, elle a été créée par Daniel Veillard qui est maintenant… je bosse avec lui, je suis trop fier.

Walid : en dehors du langage utilisé pour faire la doc, avec quels outils vous collaborez ?

Fabrice : déjà, Git, GitHub, GitLab. Chez Red Hat, les projets sont sur GitHub et les produits sont sur GitLab. On a deux plateformes Git différentes. Github, il y a tous des outils d’utilisation qui sont sur les actions, les pages, etc. Ça, on utilise assez extensivement. GitLab aussi, tout ce qui est automatisation, les conteneurs, et GitHub et GitLab savent utiliser des conteneurs, aller « puller » un container et faire des trucs dans le container qui est « pullé ». Ça, c’est une technologie qu’on utilise un peu tout le temps. Du coup, les gens utilisent chacun leur IDE préféré, leur éditeur préféré, si tu veux. Visual Studio Code est très présent. En fait, on utilisait beaucoup Atom et puis Atom a été abandonné par Microsoft au profit de VS Code. Une grosse minorité qui est sur IntelliJ Community. Moi, j’utilise beaucoup parce que l’extension pour AsciiDoc est juste merveilleuse, c’est juste trop bien. Il y a des gens qui disent Vim, Emacs, Kate, d’autres trucs.

Walid : pour tout ce qui est chat, par exemple ?

Fabrice : je pense que maintenant, la plateforme officielle, c’est Slack. Pendant longtemps, on Il y avait Slack, Google Chat, IRC en parallèle et plus après des projets qui ont d’autres outils, genre Mattermost, Discord. Mon projet, il est à la fois sur Discord et sur Matrix IRC. Moi, j’ai arrêté au bout de deux semaines d’utiliser Discord, je n’en pouvais plus des messages de pub dedans. Les projets amènent leur truc. Quand le projet, en plus, il est chapeauté par une fondation ou une autre, la fondation amène ses outils, ces recommandations, ces trucs. Et après, il y a des trucs qu’on peut utiliser ou pas en fonction. Genre la Fondation Eclipse, eux, ils sont sur GitLab, ils refusent d’utiliser JIRA, par exemple. Donc, on ne peut pas mettre un projet chez JIRA si c’est pour la Fondation Eclipse, donc il faut que ça reste sur autre chose. Vous voyez ? Oui, JIRA. Pour tout ce qui est produit, c’est JIRA. Pour tout ce qui est upstream, souvent, c’est très, très suffisant GitHub.

Documenter le no-code


Walid : ça m’amène sur la dernière partie que je voulais aborder, dont on a parlé un peu avant et sur lequel moi, j’ai beaucoup réfléchi, puisque c’est le domaine dans lequel je suis maintenant, qui est toute la partie no-code, low code. Donc toi, tu fais plutôt ce qu’on appelle du doc-as-code. Et le problème, c’est comment tu fais de la doc quand il n’y a plus de code ? C’est un domaine assez intéressant, surtout quand, comme moi, tu viens du développement et que tu arrives dans des outils dans lesquels tu ne développes plus ou assez peu. Comment est-ce que tu fais ça ? Quand on parlait, tu me disais : oui mais en fait, justement, comment ça marche ? Avec les outils grand public et les outils qui sont utilisés de manière générale, par exemple, nous, on a une communauté française du no-code où il y a à peu près 10 000 personnes, quelque chose comme ça. Et finalement, même les gens qui font beaucoup de no-code, il y en a quand même une grosse partie qui ne font pas de docs. Pourtant, comme je dis à chaque fois, quand tu es un professionnel de l’informatique, tu dois écrire de la doc.

Et donc, tu as des outils qui se sont imposés avec le temps pour pallier à ça. Tu as certains outils, je pense aux outils d’automation, par exemple, qui, certains, te permettent de documenter dans tes workflows d’automation, tu documentes des parties, tu fais en gros ce que tu faisais avant en code avec. Et tu as des outils comme certains outils de front, par exemple, où là, il n’y a rien. Donc, tu dois documenter d’une autre manière. Et donc, tu as tout un écosystème qui s’est monté autour de ça. Là, par exemple, tu parlais de JIRA. C’est intéressant parce que dans le milieu du no-code et des startups dans lesquelles je suis plutôt, l’outil de base pour documenter c’est Notion, qui est en gros un outil qui peut tout faire. Ça te fait des bases de données, ça te fait ta base de connaissances, ça te fait ton ticketing, ça te fait tout. Tout ce que je faisais avant avec des outils de ticketing, tu le fais dans Notion, alors moins bien et certainement moins optimisé, mais tu peux tout lier, c’est impressionnant. C’est une autre manière de faire. Tu as devant toi un outil où écrire de la doc, ça devient un process, une fois que tu as compris comment ça marche hyper simple et tu peux hyper structurer, tu as plein de templates et tout, c’est vraiment assez intéressant.

Et à côté de ça, tous les trucs que tu ne peux pas documenter, que tu pouvais faire dans le code sur tout ce qui est gestion de dépendances, test de régression, ce genre de truc, avec du no-code, soit tu ne le fais pas, soit tu as des nouveaux outils qui se créent. Et il y a un outil en particulier, par exemple, que j’utilise beaucoup et avec qui je suis plutôt proche de l’équipe de développement qui s’appelle ncScale. C’est des Français qui font ça et c’est un outil qui permet justement de faire un peu ce que je faisais avant avec mes outils ITSM, c’est-à-dire de l’inventaire automatisé, de la gestion de dépendances, ce genre de truc autour des outils no-code, c’est vachement intéressant, et de la documentation. Et donc en fait ces nouvelles formes de documentation où finalement, tu n’as plus de code, donc tu ne peux plus documenter dans le code comme toi, tu as l’habitude de faire.

Fabrice : Notion, c’est un peu comme un wiki, c’est ça ?

Walid : Notion, c’est à la fois un wiki, c’est à la fois une base de données. Malheureusement, ce n’est pas un outil libre, et dont l’interface utilisateur est vraiment extrêmement pensée et extrêmement logique, qui permet de tout lier. Pour en parler à d’autres gens, ils me disaient : en gros, c’est juste JIRA avec une super interface.

Fabrice : JIRA ou Confluence ?

Walid : Confluence, pardon.

Fabrice : par exemple, si c’est comme Confluence, ce qui manque dans Confluence, c’est qu’il n’y a pas de processus de validation du changement. Je pense que la chose pour quoi on utilise Git et qui est la plus importante, c’est la review. C’est la pull request, la review et donc la validation du changement. C’est-à-dire que tu veux changer quelque chose et il va y avoir cinq personnes qui vont lire le changement et qui vont dire : OK, c’est bon. Il y a cette idée que ce n’est pas : tu changes, tu publies et puis après, si ce n’est pas bon, on rechange. C’est : tu proposes un changement, on vérifie et une fois que c’est accepté, on est sûr que tout va bien. Moi, j’ai beaucoup utilisé Confluence pour des procédures internes sur de la documentation qui n’a pas besoin de validation, qui n’a pas besoin de passer par un workflow de validation. Et donc, pour ça, un outil, un wiki, Confluence, whatever, Drupal, tout système qui permet d’écrire quelque chose et de le publier, tout est bon. Il y a des préférences de gens. Il y a ce qui marche mieux, ce qui est le plus proche du reste de ce que tu fais, mais tout est bon.

Ce qui fait la différence, c’est à partir du moment où tu veux introduire un processus de validation.


Pour les release notes, on a commencé à introduire le fait que dans chaque ticket JIRA, on a un field qui est avec le contenu des release notes. Ça fonctionnait bien tant qu’écrire le contenu et le valider était fait d’un jet par la même personne. Je lis ce qu’il y a dans le ticket, où souvent, c’était des tickets qu’on copiait d’ailleurs. Ok, voilà. Et j’écris et je fais ma phrase et c’est fait. Et je n’y pense pas cinq minutes de temps. On a passé ça ensuite à des utilisateurs qui étaient plus juniors et du coup, il y a eu besoin de validation. C’est devenu une usine à gaz parce qu’on a dû rajouter un champ pour dire : draft, c’est une review, c’est validé, c’est OK. Mais par contre, on utilise un champ de JIRA qui est un champ qui n’a pas d’historique. Donc, on peut regarder les logs des changements, mais ce n’est pas un truc qui est fait pour ça.

Walid : je ne suis pas le plus grand spécialiste de Notion, mais je ne suis pas sûr que tu aies ce genre de notion de workflow de validation.

Fabrice : la documentation interne et la documentation du produit que tu as construit pour les utilisateurs, c’est deux trucs différents. Je pense que les Technical Writers, typiquement, ils sont plus là pour aller faire ta documentation face client. La documentation interne, tu as besoin d’introduire des processus de validation à un moment où l’équipe grandit. Surtout, les degrés de séniorité changent. Il faut que la personne qui est plus junior, elle puisse changer des trucs et savoir qu’il y a quelqu’un qui va revoir derrière et ça permet de se lancer. Moi, j’ai trouvé une application que j’aime beaucoup, qui s’appelle Obsidian. Obsidian, c’est ça, c’est une base de connaissances. C’est fait en Markdown avec les deux, trois extensions de Markdown qui font que tu peux faire des liens et des include entre les fichiers. Donc c’est parfait, c’est super. Une des extensions, c’est de pouvoir mettre le contenu dans Git. Ça permet deux choses. La première chose, c’est que ça permet d’avoir un historique, c’est-à-dire de voir ce qui s’est passé avant. Et la deuxième chose, ça permet d’avoir le même contenu sur ton téléphone et sur ton ordi et de passer le contenu de l’un à l’autre sans passer par une plateforme ou par un autre truc.

C’est un repository Git. Ça introduit la notion de historique, pas vraiment la notion de validation, mais la notion d’historique dans de la doc et tu peux voir quand ça a changé. Je sais que j’utilise de plus en plus comme mesure d’hygiène personnelle. Qu’est-ce que j’ai fait ces jours-ci ?

Impact de l’Intelligence Artificielle


Walid : avant qu’on raccroche le micro, un sujet que je ne peux pas ne pas aborder, c’est l’arrivée de l’intelligence artificielle et de l’impact que ça va avoir sur certaines des publications et votre boulot. Est-ce que tu as déjà des idées ou est-ce que tu vois déjà des choses qui étaient avant faites par des humains et qui maintenant sont faites par de l’intelligence artificielle ?

Fabrice : je trouve ça fascinant. Je pense que ce qui va arriver, on a du mal à mesurer. J’ai vu des gens qui s’amusaient à faire des punchlines pour des campagnes de marketing qui demandaient à un IA de leur générer les punchlines et ça marchait super bien. C’est une des caractéristiques de ce truc-là, c’est que tu peux lui dire : voilà, j’ai fait un drap tout pourri, est-ce que tu peux me rendre compatible avec la Bible de comment on écrit ? Et si tu as bien entraîné ton modèle, ça va le faire. Quand tu écris de la docs dans des uncharted waters, quand tu es sur un truc tout nouveau où l’intelligence artificielle, elle n’a pas grand-chose à se mettre sous la dent, c’est un perroquet il a besoin de contenu existant, donc, quand tu écris sur quelque chose qui est fondamentalement nouveau, l’intelligence artificielle, au moins pour le moment, elle n’a pas grand-chose à trouver. J’essaie de me dire ça le soir pour qu’on m’endormir. Après sinon, je vois comment, par exemple, le projet Ansible a été utilisé sur un projet qui s’appelle LightSpeed. Ce n’est pas documenter le code, c’est écrire le code à partir de la documentation.

C’est-à-dire que je veux faire une tâche qui fait ça, donc on l’écrit en langage naturel : installe-moi un serveur, installe-moi ce package et l’outil va rédiger le code du playbook Ansible à la place de l’utilisateur. Donc, pour l’instant, on écrit le langage naturel et ça va écrire le code. On a cette partie-là qui se met en place et qui demande encore le contrôle humain. C’est juste un template qui facilite le travail. Le boulot des Tech Writers qui est l’inverse, c’est à partir du code, décris ce que tu veux. À ce moment-là, il faut que l’IA ait un ticket ou un brief pour le code qui soit super bien fait. C’est ça ? C’est rarement le cas. Ou un moyen d’aller découvrir aussi bien qu’un être humain pourquoi je veux faire ça et comment je vais le faire, puisque c’est ça, il faut trouver les deux trucs. Pour l’instant, je ne sais pas. Moi, je pensais il y a quelques années que quand on aurait s’est tout automatisé, il faudrait encore documenter l’automatisation et que c’était une bonne idée d’aller faire de la doc.

Walid : tu peux déjà demander à ChatGPT de t’écrire le texte de tes pull requests.

Fabrice : ça, si le Technical Writer, son rôle, c’est juste de faire ça, ce n’est pas un métier d’avenir. Surtout, je pense que ça va changer la manière dont les gens consomment de la doc. Ça ne fait pas vraiment de sens de se dire : je vais continuer à écrire de la documentation si les gens, ils ne vont plus lire de la documentation. Si les gens, ils vont poser des questions à un autre. Le boulot des writers, ça va être de produire du contenu que l’intelligence artificielle va ingérer et qui va être utile à l’intelligence artificielle. Je pense que pour que ça marche bien, il faut que ce soit du contenu qui soit encore plus formaté, qui ait encore plus de métadonnées. Parce que je pense que le contenu brut ne sert pas à grand-chose. Pour l’instant, il y a quand même des gens qui rajoutent des métadonnées sur du contenu. Ça va se déplacer peut-être par là, les gens qui sont plus language-bound, ils vont plus se déplacer vers produire du contenu brut pour nourrir la machine. Mais je ne sais pas ce que ça va donner. Vers quoi on va, je ne sais pas trop.

Tribune libre


Walid : pour finir, j’ai une traditionnelle tribune libre. Donc à toi la parole.

Fabrice : faites Le logiciel libre, les gens, c’est bien ! Contribuez au logiciel libre. Je ne sais pas si je suis vraiment un vieux con à dire ça ou quoi. J’ai l’impression que ce n’est plus les mêmes attentes pour les plus jeunes générations. Je ne sais pas si Linux va finir par être plus que pour les serveurs et plus du tout autre part, par exemple. Je me pose cette question. Je me demande : ce sera quoi la nouvelle révolution dans cinq ans ? Puisque de toute façon, c’est tous les cinq ans que tout change. C’est quand même intéressant ce monde où tout change très vite.

Walid : C’est le mot de la fin. Merci Fabrice d’avoir pris du temps pour parler de ces sujets autour de la documentation. Je pense que si ça vous a plu, bien entendu, n’hésitez pas à le partager sur les réseaux sociaux et à en parler autour de vous. À bientôt.

Cet épisode a été enregistré le 3 mai 2023.

Transcription par Raphaël Semeteys

Pour en savoir plus



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (10 months ago)

Castopod est son propre réseau social – épisode 2 – Y. Doghri et B. Bellamy – AD AURES


Second épisode sur Castopod, la plate-forme libre d’hébergement de podcasts. L’occasion de passer en revue les sources de revenus de Castopod, sa communauté et la tarification de l’offre SaaS d’Ad Aures. Nous parlons aussi longuement de ce qu’est le Fed

podcast.projets-libres.org/@pr…

Sommaire

Interview avec l’équipe de Castopod


Walid : bienvenue pour ce second épisode consacré à Castopod. Je vous conseille très fortement d’écouter le premier épisode avant d’écouter celui-ci. Je suis très heureux de retrouver Yassine Doghri et Benjamin Bellamy pour continuer la discussion.
Longue discussion qui se finira après le générique de fin par un petit extra technique. C’est une nouveauté que l’on voulait tester. Voilà, bonne écoute!

Logo Castopod

Les sources de revenus de Castopod


Revenons un peu sur un sujet qu’on a abordé au tout départ. J’aimerais bien aimé comprendre comment vous financez tous les développements autour de Castopod ? Quelles sont toutes les sources de revenus que vous avez qui vous permettent de travailler tous les deux sur Castopod ?

Benjamin : on ne travaille pas au même niveau sur Castopod. Yassine disait qu’il est architecte et le contributeur principal. Moi, j’interviens maintenant assez rarement sur le code. Donc ça va être plus sur des questions de gouvernance, sur ce qui est du financement. Aujourd’hui, on a plusieurs sources de revenus : on a évoqué NLNet, qui nous a soutenus au départ et qui nous soutient encore aujourd’hui. En particulier, on a un projet de développement de moteur de plug-in qui est soutenu par NLNet.

NLnet fondation

On a également des donateurs sur Open Collective : on a une page Open Collective qui est très très peu utilisée parce qu’en fait on la met très peu en avant, on en parle très peu. Si tu ne m’avais pas posé la question des financements, j’aurais probablement oublié d’en parler d’ailleurs. En tout cas vous pouvez aller sur OpenCollective.com pour faire des dons si vous souhaitez apporter une contribution mais que vous savez pas comment.
Et puis on a une offre d’hébergement en mode SaaS, ce qui est ultra classique. On disait tout à l’heure qu’on s’était inspiré de WordPress, on s’est aussi inspiré de WordPress. C’est-à-dire qu’on a castepod.org où vous pouvez télécharger la solution et vous auto-héberger, et castepod.com où en quelques clics et 30 secondes, vous pouvez avoir votre instance à vous sur votre propre nom de domaine, qui est installé et qui fonctionne. Et vous n’avez pas à vous soucier des backups, des mises à jour, etc. On s’occupe de tout pour vous.
Et puis on a également les activités Ad Aures, qui peuvent être soit des activités de conseil, soit de publicité, soit de service. On n’en a pas beaucoup parlé, mais on travaille pas mal sur la transcription automatique, ce qui permet de faire de l’indexation. On a d’autres projets dont on ne va peut-être pas parler aujourd’hui parce que sinon on va faire un épisode de 5 heures. Et donc en fait, on a des sources de revenus qui sont assez multiples aujourd’hui.

Logo Ad Aures

La tarification de Castopod


Walid : il y a un truc que je trouve assez intéressant, c’est la tarification de vos offres SaaS, parce qu’en fait, quelque soit le plan, on a les mêmes fonctionnalités. Et ça, je trouve ça super parce que la plate-forme où j’étais, par exemple avant, c’était des fonctionnalités en moins. Tu veux ajouter un bouton Mastodon ? il te faut le plan supérieur, tu veux avoir telle statistique ? il te faut le plan supérieur, etc. Et en fait, c’est hyper frustrant, surtout quand tu veux faire un podcast, comme moi, et que tu ne veux pas en faire ta vie. Je trouvais bien que vous en disiez quelques mots, parce que j’ai trouvé ça vraiment, en tout cas pour moi, c’est super.

Benjamin : oui, ça c’était vraiment vraiment un choix fort qu’on a fait dès le début. Moi je ne voulais pas qu’on ait trois offres avec trois niveaux de fonctionnalités différents. Je ne voulais pas qu’on ait un Castopod Community et un Castopod Enterprise. Je ne voulais pas qu’on fasse du faux open source. C’est vraiment du vrai open source et du vrai logiciel libre. Si vous téléchargez la version de Castopod sur castopod.org, ou si vous payez un hébergement sur castopod.com, c’est le même logiciel. Ce qui va changer après, ça peut être des services annexes, ça peut être par exemple un niveau de CDN, ça peut être un espace de stockage mais on essaye en tout cas de faire des offres où tout le monde a les mêmes fonctionnalités.On ne veut pas que vous vous sentiez bridé ou en enquiquiné. Et après vous allez payer vraiment par rapport à ce que ça coûte. C’est à dire que si vous avez un podcast avec un épisode d’une heure par semaine, l’espace disque c’est presque rien. Ça coûte vraiment pas cher. Et donc notre offre de base, qui est à moins de 10 euros TTC par mois, elle va suffire. Si vous êtes une radio associative qui a 24 heures de direct, podcasté, tous les jours, ça va commencer à faire et forcément, à l’arrivée, ça va demander un espace disque qui n’a absolument rien à voir, qui va coûter plus cher. Et évidemment, il n’est pas question pour nous de facturer un montant inférieur à ce que ça coûte en frais d’hébergement et en particulier en frais de disques durs.

Donc nos offres derrière elles sont calibrées par rapport à ce que coûte une infrastructure technique, mais pas par rapport à ce qu’on estime que vous avez dans les poches ou par rapport à des fonctionnalités pour vous frustrer, vous dire non mais si t’en veux un peu plus va falloir payer un peu plus. C’est vraiment l’idée : du coup l’offre est illimitée en nombre de podcasts, parce que pour nous que j’ai un podcast à dix épisodes ou dix podcasts à un épisode c’est exactement la même chose : ça prend pas plus de place, ça coûte pas plus cher. Donc il n’y a pas de raison de vous faire payer dix fois plus alors que vous avez la même quantité de données, la même durée. Aujourd’hui si vous allez sur castopod.com, si vous avez un podcast, si vous en avez 2, 4, 5, 10, 20, ça va vous coûter la même chose. Donc l’idée c’est vraiment de payer par rapport à ce que ça coûte in fine. Ce qui est un peu déroutant parce qu’en particulier sur le marché français, qui est un marché qui est encore en croissance, ce qui est assez différent du marché américain qui est un peu plus stable : on a beaucoup d’offres illimitées par podcast, c’est à dire vous pouvez mettre autant d’épisodes que vous voulez, de la durée que vous voulez. Nous on n’a pas ça, parce qu’il y a une limite d’espace de stockage, parce que l’espace de stockage forcément quelqu’un le paye à l’arrivée. Donc on est un peu à contre-courant des offres francophones et un peu plus dans l’ordre de ce qui se fait à Outre-Atlantique où les gros hébergeurs aux États-Unis sont plus dans une logique de dire que vous allez payer à l’heure ou à la minute. Nous on n’en est pas là, on ne fait pas payer à l’heure ou à la minute, déjà parce qu’en fonction de la qualité, c’est pas pareil du tout et on ne veut pas léser quelqu’un qui encode son podcast avec un fort taux de compression. Peut-être que ça va être amené à évoluer, peut-être qu’on va faire les choses différemment. En tout cas, l’idée, ça sera toujours la même, c’est ne de pas payer par rapport à une taxe, par rapport à ce qu’on pense que vous avez dans les poches ou par rapport à des fonctionnalités, c’est par rapport à ce que ça coûte. Il ne peut pas y avoir de surprise en fait.

Walid : je trouve ça vraiment intéressant parce que ça met tout le monde sur le même piédestal. Celui qui sait qu’il va en faire sa vie et celui qui sait qu’il veut faire ça à côté et qui, comme moi, ça lui coûte de l’argent de faire ça et ça lui en rapporte pas. Ça c’est vraiment bien et moi l’exemple vraiment c’est les statistiques. J’étais tellement frustré de ne pas avoir des stats qui m’intéressaient qu’il fallait que je paye plus encore.

Benjamin : ça c’est encore autre chose, c’est-à-dire que nous on estime que en tant que créatrice et créateur de contenu, vos données vous appartiennent à vous, votre audience vous appartient à vous et sûrement pas à nous et sûrement pas à quelqu’un d’autre. C’est pour ça qu’on encourage tous nos clients à venir avec leur propre nom de domaine, parce que si demain vous voulez partir et bien vous avez rien à nous demander, vous partez avec votre base de données complète. C’est à dire que vous partez pas juste avec vos fichiers mp3 et vos métadonnées, vous partez aussi avec vos données utilisateurs, vous pouvez partir avec le login, le mot de passe, avec les données d’écoute, les analytics et vous pouvez télécharger castopod.org, télécharger la plateforme, vous auto-hébergez ou allez chez un autre hébergeur qui propose la solution Castopod. Je crois qu’aujourd’hui, il y en a à peu près 5 en Europe. Et vous remontez votre base de données et vous êtes iso-fonctionnel, mais vraiment iso-fonctionnel. Vous avez l’intégralité des fonctionnalités, vous avez vos comptes utilisateurs, vous avez les interactions avec vos utilisateurs.
On a parlé d’ActivityPub, mais donc tous les gens qui ont liké, qui ont commenté, vous récupérez 100% des commentaires et des interactions de vos utilisateurs, 100% de vos données analytics, pas juste un export CSV où vous récupérez vos données. Vos données, elles sont à vous. Si vous les voulez, on vous les donne et vous en faites ce que vous voulez. La réversibilité sur Castopod, du fait que c’est un logiciel open source aussi, elle est vraiment totale.
Ce n’est pas un argumentaire commercial, c’est une réalité technique. La réversibilité, elle est totale.

Logo ActivityPub (source : wikipedia)ActivityPub (source : wikipedia)

La gouvernance de Castopod


Walid : point suivant, je voudrais qu’on parle de la gouvernance du projet Castopod.

Donc ce que j’aimerais comprendre, c’est comment est-ce que le projet est organisé ? Quels outils vous utilisez pour développer l’outil et pour interagir avec votre communauté ? On va parler de la communauté juste après, mais dans un premier temps, quel est le mode de gouvernance ? Comment vous fonctionnez ?

Benjamin : alors je peux répondre. Comme pour tout projet open source, on a un dépôt Git.
Enfin, pour beaucoup de projets open source, en tout cas, on a un dépôt Git. On a notre propre GitLab qu’on auto-héberge et on a un miroir sur GitHub pour la visibilité, pour les étoiles. D’ailleurs, n’hésitez pas à aller sur github.com pour nous mettre plein d’étoiles ! Voilà. On accueille des contributions à plusieurs niveaux, que ce soit des tickets sur GitLab pour des bugs ou des nouvelles fonctionnalités. On définit des priorités grâce à ça d’ailleurs, les tickets, c’est-à-dire qu’en fonction de ce qui retourne, si on a des demandes particulières d’une fonctionnalité ou d’une autre, on va la remonter dans nos priorités. Ensuite, on discute entre nous sur ce qu’on devrait faire et ce qu’il y a à faire pour les prochains mois, etc. C’est à peu près tout. Les contributions nous aident bien à prioriser les…

Walid : t’as oublié le canal Discord.

Yassine : oui, c’est vrai. On a aussi un canal Discord, enfin un serveur Discord pour tout ce qui est discussion instantanée. J’y traîne pas mal moi pour aider les utilisateurs à soit installer Castapod s’il y a un petit souci ou alors s’ils veulent faire un retour pour clarifier certaines choses sur Castopod. Et on a pas mal d’autres utilisateurs aussi qui nous aident à gérer cette partie-là. Ce qu’il faut savoir c’est que Discord est pas mal utilisé au sein des podcasters.

Benjamin : moi personnellement j’y suis très très peu, je suis beaucoup trop vieux pour Discord et puis je suis pas un grand fan de la plateforme. Mais en fait il faut qu’on soit là où sont nos utilisateurs, il n’y a pas de secret et donc le canal Discord est très très actif.

La communauté de Castopod


Walid : on vient d’expliquer un peu la manière dont vous interagissez avec votre communauté, moi ce que j’aimerais savoir c’est qu’est ce que vous connaissez de votre communauté en fait ? Est-ce que vous savez majoritairement d’où viennent les gens ? Est-ce qu’ils auto hébergent ou est-ce qu’ils prennent du SaaS ? Est-ce que vous savez un peu quelles sont les fonctionnalités qu’ils préfèrent, etc. Qu’est-ce que vous savez en fait de votre communauté ?

Benjamin : ce qui est très intéressant, c’est que potentiellement, on pourrait ne rien savoir de notre communauté. On l’a dit, Castopod est open source, mais il n’y a pas de télémétrie, il n’y a pas de tracker. Et on peut installer Castopod sans nous le dire. Et ça arrive très souvent.

On sait qu’il y a des gens qui utilisent Castopod et qu’on ne connaît pas et qu’on connaîtra probablement jamais. En plus on peut avoir des podcasts privés avec Castopod, on peut avoir Castopod sur un intranet.

Benjamin Bellamy


Enfin, il est sûr qu’on ne connaît pas tous nos utilisateurs. Maintenant il y a des moyens de savoir. Nous on a évidemment envie de le savoir, déjà parce que ça nous fait plaisir. Ça nous fait plaisir de savoir que des gens l’utilisent parce que si personne l’utilise ou si on ne sait pas que des gens l’utilisent, il y a un moment où on risquerait d’arrêter. Et puis, il y a des moyens de savoir : on en a déjà parlé, il y a Podcast Index qu’on a évoqué. Et dans Podcast Index, il y a une colonne qui est Generator, qui dit quelle est la plateforme qui a généré le fameux flux RSS.

Logo Podcast Index

Et donc aujourd’hui, on va voir dedans et puis on voit que régulièrement qu’il y a des nouveaux podcasts sur Castopod, majoritairement aux États-Unis, mais il y en a un peu partout en fait. Il y en a un peu partout dans le monde, déjà parce que Castopod est traduit en une vingtaine de langues, et que nous on développe en anglais, on traduit en français : donc ce dont les deux seules langues qu’on produit, toutes les autres sont produites par la communauté. Donc à partir du moment où Castopod est traduit dans une langue, c’est que quelqu’un en avait besoin, et il y en a vraiment plein plein, il y a du breton. La Bretagne est en force, on a beaucoup de contributions, y compris dans le code source d’ailleurs, qui viennent de Bretagne. Il y a du galicien, il y a du serbe aujourd’hui. Ça c’est un pote avec qui j’ai bossé, qui est très actif, qui s’est chargé de faire la traduction serbe. Donc aujourd’hui la traduction serbe elle est plus aboutie que la traduction française.
Il y a du chinois aussi. On sait, on a des éléments comme on l’a dans tout projet open source. On regarde un peu ce qui sort.

Très récemment, on a lancé une plateforme qui s’appelle Castopod Index sur index.castopod.org. Elle fait suite à une demande qu’on avait depuis un moment. J’avais dû voir passer sur Mastodon un message que je n’ai jamais retrouvé d’ailleurs, de quelqu’un qui disait « mais moi, je suis sur Mastodon, c’est super. Je voudrais suivre des podcasts de Castopod sur Mastodon, mais où est-ce que je les trouve ? » Et donc l’idée c’était de dire, on va faire, au moins, la liste des pseudonymes Mastodon, enfin ActivityPub, de tous les podcasts Castopod, et donc ça a donné lieu à ce site index.castopod.org, qui liste des podcasts sous Castopod que je vais pouvoir suivre depuis mon compte sur le Fediverse, donc en particulier Mastodon. Et je vais pouvoir repartager, commenter, liker des épisodes. Et en faisant ce site, on a appris des choses, on a découvert
des choses : on a découvert des podcasts qui n’étaient pas dans notre radar. On était très content de découvrir certaines choses, moins content sur d’autres. Il y en a certains qui nous ont surpris. En même temps, c’est aussi ce qui fait la force d’un logiciel open source, c’est que tout le monde peut se l’approprier.

Aujourd’hui, on est très content, on a une communauté qui est assez fidèle, qui est assez active, qu’on aimerait bien voir grandir, bien entendu. On aimerait bien qu’il y en ait beaucoup plus. En tout cas, aujourd’hui, on est assez content.

Et donc, il y a des podcasts qu’on héberge nous-mêmes, il y a des podcasts auto-hébergés, il y a des podcasts qui sont hébergés par des tiers. Il y a un peu de tout. J’aurais du mal à donner des chiffres et à faire des stats, parce qu’aujourd’hui, on n’a pas étudié en profondeur et encore une fois il y a des choses qu’on ne peut pas savoir. En tout cas c’est majoritairement aujourd’hui des gens qui sont auto-hébergés.

Benjamin Bellamy


Qu’est-ce que le Fediverse ?


Walid : très intéressant, on va embrayer, parce que tu as commencé à parler de Mastodon, sur une des parties pour lesquelles je voulais vraiment être sur sur Castopod, c’est toute l’intégration avec le Fediverse. Et la première question que je voudrais vous poser c’est comment est-ce que vous définissez le Fediverse ?

Benjamin : le Fediverse, ça peut paraître super compliqué, en fait c’est super simple. Le Fediverse, c’est un ensemble de réseaux sociaux qui sont connectés entre eux. Pour prendre une analogie, c’est comme si demain sur Twitter, vous pouviez voir des posts qui viennent d’Instagram, vous pouviez les liker, vous pouviez les repartager, vous pouviez répondre en restant sur votre compte Twitter et que ces partages, ces likes, ces commentaires étaient visibles depuis Instagram. Mais vous pouviez également voir des posts qui viennent de SoundCloud, qui viennent de YouTube, qui viennent de n’importe quel réseau social, et que vous pouviez interagir avec des gens qui sont sur un autre réseau social de manière tout à fait transparente.
En fait, derrière le Fediverse et ActivityPub qui est le protocole emblématique du Fediverse, on se cache la notion la plus importante à nos yeux qui est l’interopérabilité. C’est-à-dire que ce sont des réseaux sociaux qui sont interopérables entre eux, qui sont connectés entre eux, et c’est ce qui fait que vous pouvez passer d’une plateforme à l’autre en vous pouvant échanger, interagir avec des gens qui ne sont pas sur la même plateforme que vous.

Et vous n’êtes pas prisonnier d’une plateforme, c’est à dire que ce qui est dans une plateforme du Fediverse peut en sortir et d’autres choses qui sont à l’extérieur peuvent y rentrer. Concrètement, là j’ai pris une analogie avec des réseaux sociaux qui ont la particularité d’être des silos fermés, donc rien ne rentre, rien ne sort. Sur le Fediverse, on va avoir plusieurs réseaux sociaux, le plus connu, celui qui a eu le plus de succès jusqu’à aujourd’hui c’est Mastodon. Mastodon c’est une plate-forme de micro blogging, où les messages sont limités à 400 caractères, mais c’est pas la seule, il y en a plein d’autres. Il y a par exemple PixelFed, qui est un Instagram like qui permet de partager des photos. Et donc si je partage ma photo sur PixelFed, quelqu’un sur Mastodon pourra la voir, pourra s’abonner à mon compte, pourra la liker, la commenter, la partager. Et moi, depuis mon compte PixelFed sur mon site PixelFed, je vais voir ces interactions et je vais pouvoir y répondre. Donc en fait, l’interaction est totale : il y a PixelFed pour les photos, il y a PeerTube qui a été développé par Framasoft.

Walid : on en parle longuement dans l’épisode avec eux, on a passé une heure et demie à parler, dont la partie intégration Fediverse. Ce qui finalement, comme vous, date du début de la création de PeerTube.

Benjamin : oui, nous c’était même un prérequis en fait. On voulait dès le départ faire du podcast sur le Fediverse.

Walid : ça m’amène à la question suivante, je te coupe là, c’est quelle est la place de Castopod dans le Fediverse ?

Benjamin : en fait pour nous le Fediverse c’est vraiment super important parce que encore une fois on pense que la valeur elle est créée par les créatrices et les créateurs de contenu, et que cette valeur, elle a deux formes. Elle a le contenu et l’audience.

Et donc, votre contenu, il faut que vous en soyez totalement maître. Et pour ça, une plateforme open source permet de s’auto-héberger et de garantir que mes contenus sont chez moi. En tout cas, je peux récupérer tous mes contenus, en faire ce que je veux, j’en reste maître, quel que soit l’hébergeur que je vais choisir, je reste maître de mes contenus. Et pour ce qui est de l’audience, il faut que je puisse interagir avec mon audience sans intermédiaire, que cet intermédiaire soit technique et ou légal. C’est-à-dire que je n’ai pas un intermédiaire qui va techniquement pouvoir couper la communication entre mon audience et moi, et qui n’est pas un intermédiaire qui soit obligé de le faire par la loi. Aujourd’hui, le problème des silos fermés, c’est que ces plateformes ont tout pouvoir technique et que comme ils sont tenus par la loi d’agir et de censurer des propos qui contreviendraient à la loi, et bien ils le font de manière préventive et de manière automatique parce que comme c’est des silos fermés, ils sont énormes. Parfois il y a des plateformes qui ont des milliards d’utilisateurs, donc on imagine bien que sur une plateforme avec des milliards d’utilisateurs, chaque post ne peut pas être modéré par un être humain, ce n’est pas possible. Forcément ce sont des algorithmes, forcément ça donne lieu à des dérives.

L’intérêt d’un système décentralisé, fédéré, comme le Fediverse, c’est que je peux avoir plusieurs instances, c’est-à-dire que je n’ai pas un serveur Mastodon, on disait qu’il y a Mastodon, PixelFed, Peertube, Funkwhale, Plume, Castopod, il y en a plein…

Benjamin Bellamy


Mais que pour chacun de ces réseaux sociaux, j’ai plusieurs instances qui vont avoir une implantation géographique, qui vont avoir peut-être une thématique, une langue, et où je vais pouvoir opérer à une modération en tant qu’administrateur de cette plateforme. Alors soit je suis mon propre administrateur parce que je m’auto-héberge, et c’est un choix que beaucoup font, soit je vais par exemple sur Framapiaf. Vous parliez de Framasoft, Framasoft a une instance Mastodon qui s’appelle Framapiaf, et si je vais m’inscrire sur cette plateforme, je dois suivre les conditions générales d’utilisation qui me sont soumises. Mais je ne suis pas sur Facebook, je ne suis pas sur Twitter. Le nombre d’utilisateurs est beaucoup plus limité. Il y a un changement d’échelle qui est excessivement important parce que c’est lui qui fait que sur ces réseaux-là, aujourd’hui, je n’ai pas de modération automatique a priori. Je n’ai pas de strike automatique parce que j’ai fait un truc qui paraît bizarre alors qu’en fait il n’était pas du tout. Donc c’est beaucoup plus petit, mais comme ces réseaux sont fédérés, ils sont tous connectés entre eux, ce n’est pas parce qu’ils sont plus petits que mon audience va être forcément plus petite aussi. Parce que j’ai quand même accès à une audience mondiale, et elle est même plus grande puisqu’elle traverse des réseaux sociaux qui n’ont rien à voir.

Walid : est-ce que vous pouvez me donner un exemple concret entre moi, podcaster, avec ma plateforme Castopod et des interactions qui peuvent se passer avec des gens qui sont sur d’autres plateformes, Mastodon ou d’autres par exemple. Est-ce que vous avez des exemples Yassine ? Tu as des exemples concrets à partager pour que les gens en fait, ce n’est pas forcément évident ; tu installes Castopod, tu regardes l’onglet, tu regardes la partie Fediverse et là « attends comment ça marche, où est-ce que je rentre mon compte et tout ? ».
Comprendre qu’en fait, que ton Castopod a lui-même son intégration native et qu’il a lui-même son compte, et qu’est-ce que je vais pouvoir faire avec, ce n’est pas forcément évident. Alors comment partager ça à un utilisateur qui connaît pas Castopod et qui potentiellement connaît pas très bien le Fediverse ? Qu’est-ce que tu pourrais donner comme exemple ?

Yassine : alors initialement on a intégré Castopod au Fediverse dans le but d’avoir une implémentation qui soit la plus transparente possible. C’est-à-dire que le podcasteur n’a pas à connaître le Fediverse, savoir comment ça fonctionne, pour qu’il ait son épisode qui s’affiche sur Mastodon et qu’il ait des dialogues et des interactions. Donc quand un podcasteur va créer un épisode et va le publier, on lui propose d’écrire le tout, que ce soit sur Mastodon ou sur un autre réseau de micro-blogging sur le Fediverse. Et donc, lorsque son premier épisode va être publié, il va avoir tous ses followers qui vont recevoir une notification avec un post sur Mastodon par exemple, l’épisode qui peut être lu directement là-bas avec un lecteur intégré et ils pourront soit liker, soit retweeter ou partager directement depuis leur Mastodon.
Le podcast c’est vraiment l’acteur, pour être plus technique, c’est un acteur du Fediverse et donc il peut interagir avec d’autres acteurs dans le Fediverse que ce soit sur Mastodon.

Walid : ce qui tire des problématiques qui est que j’ai un WordPress avec une intégration ActivityPub, il a son propre compte. J’ai un Castopod avec l’intégration ActivityPub, il a son compte. J’ai un Peertube, il a son compte. J’ai peut-être mon propre compte Mastodon qui a son compte. Et en fait, tu te retrouves facilement avec 3, 4 comptes et ce n’est pas forcément très, très évident. J’ai essayé plein de trucs pour voir comment faire et finalement, les choses ne sont pas si évidentes que ça en termes de stratégie, de ce que tu veux faire derrière ?

Benjamin : Je suis en total désaccord avec ce que tu viens de dire.

Walid : Aah, ça fait plaisir, vas-y !

Benjamin : ce n’est pas que les choses ne sont pas évidentes, c’est que les choses ne sont pas habituelles. Aujourd’hui, tu es habitué à avoir un compte Twitter, un compte Facebook, un compte Tiktok et tu as l’habitude de poster le même contenu sur plusieurs plateformes différentes. Là, la grosse différence, c’est que tes trois comptes, donc ton compte ActivityPub sur WordPress, ton compte ActivityPub sur Mastodon, ton compte ActivityPub sur Castopod, ils sont tous connectés entre eux et potentiellement un unique utilisateur qui serait par exemple sur Mastodon peut suivre les trois du même endroit et il va voir les contenus de ces trois plateformes arriver au même endroit. Et ça c’est pas habituel, ça on n’a pas l’habitude. On s’est habitué à avoir des contenus compartimentés dans des silos et des écosystèmes fermés.

Et là, tout d’un coup, tout est connecté. Alors en fait, c’est une question d’habitude. C’est-à-dire, comment est-ce que je veux communiquer ? Moi, ce que je pense, c’est que tu ne communiques pas de la même manière sur une plateforme de podcast que sur une plateforme de micro-blogging que sur une plateforme de blog. Et les contenus ne sont pas les mêmes. Sauf qu’on a pris l’habitude de faire des copiers-collés entre plateformes parce que ces plateformes étaient fermées et ne se communiquaient pas entre elles. Et là, aujourd’hui, sur le Fediverse, ce n’est plus le cas. Donc il faut juste réfléchir un peu à une stratégie éditoriale et de dire, voilà, je veux faire un podcast, c’est de l’audio et ça dure une heure, et ça va aller sur Castopod. Et puis derrière, j’ai un article qui va faire 200 lignes. Ça, clairement, c’est du WordPress. Et puis, je vais raconter un truc qui m’est arrivé ce week-end. Ça fait 250 caractères. Ça, c’est du Mastodon.

Mais en fait, je vais avoir des contenus différents. Et puis si demain, tu vas au Capitole du Libre, ou à Pas Sage en Seine, et que tu prends des photos, tes photos tu vas les mettre sur PixelFed. La nature des contenus, la forme des messages sur le Fediverse, elle est libre. C’est-à-dire que ça peut être une image, ça peut être un texte de moins de 400 caractères, ça peut être un texte de plus de 400 caractères, ça peut être ce qu’on veut, et ça peut être une vidéo, mais que l’ensemble de ces plateformes peuvent, d’une manière ou d’une autre, être capables de visualiser ces messages-là. Alors elles vont le visualiser plus ou moins bien, c’est sûr, parce que l’interface de chacune fait qu’elles vont afficher plus ou moins bien une photo, un texte court, un texte long, un podcast, etc.
C’est vraiment une manière, une stratégie éditoriale et en fait, ce que tu peux faire plus, mais tu peux pas faire moins. C’est sur les plateformes fermées que t’es obligé de faire du copier-coller. Là, il faut que tu poses la question peut-être un petit peu différemment.

Yassine : pardon, j’ai peut-être un truc à ajouter. J’aimerais préciser que ActivityPub n’est pas le Fediverse et le Fediverse n’est pas ActivityPub. Du coup, il faut faire la distinction entre le réseau social décentralisé qui est le Fediverse, et ActivityPub, qui est un des protocoles qui utilisé, le principal qui est utilisé, pour pouvoir communiquer entre les différents serveurs.
Aujourd’hui on n’en est qu’au début, ActivityPub date de 2018. Avant il y avait d’autres protocoles pour faire la même chose, mais ils n’étaient pas forcément adaptés. ActivityPub n’est pas forcément adapté aujourd’hui, peut-être qu’il y aura des évolutions, c’est un peu la cacophonie quand même. Il y a beaucoup de choses qui se passent, c’est tout nouveau. Et du coup…

Benjamin : c’est pas une cacophonie, c’est une effervescence.

Yassine : et donc, il n’y a pas forcément de gouvernance. Chacun fait les choses de son côté.
Et chacun suit avec chacune de ses solutions, etc. Donc on se rejoint au final grâce à ActivityPub aujourd’hui. Mais on pourrait imaginer demain que c’est un nouveau protocole qui permet d’intégrer les mêmes comptes, on aurait peut-être un seul même compte et qu’on puisse interagir avec partout, je sais pas, on peut, enfin, c’est qu’on est qu’au début, il y a des problèmes.

Benjamin : moi je pense que, c’est vrai, le plus gros problème du Fediverse, ce n’est pas que techniquement c’est compliqué, ce n’est pas qu’on en est qu’au début et qu’il peut se passer plein de choses, c’est que fonctionnellement les gens ont du mal à comprendre comment ça marche. Que quand on dit à quelqu’un on va sur le Fediverse, on sait pas trop c’est où le point d’entrée.
Les silos fermés ont cet énorme avantage que c’est simple, tu es pris par la main. Tu es un enfant, tu n’as pas de questions à te poser, tu fais ci, tu fais ça, tu coches, t’acceptes les conditions générales d’utilisation et puis voilà.
Le Fediverse ce n’est pas ça, tu es un adulte, tu peux choisir avec qui tu vas côtoyer, qu’est-ce que t’auras le droit de dire. La vraie problématique elle est plus sur le contenu que le contenant j’ai envie de dire. Après c’est vrai que c’est le début, enfin c’est le début ça fait quand même pas mal d’années que c’est là mais il y a encore énormément de choses à faire et à découvrir. Et puis il y a des trucs qui ne sont pas pratiques, par exemple la gestion des identités sur le Fediverse, moi personnellement je trouve qu’elle n’est pas super. Alors c’est pour ça aussi que nous on incite les podcasteurs à avoir leur propre nom de domaine, parce que comme ça ils sont maîtres de leur identité. Si demain je vais sur une instance Mastodon et puis que je décide d’en changer, je peux déménager mais mon identité va changer aussi sur les silos fermés, évidemment qu’on ne se pose pas la question parce que si je pars, je disparais. Donc là, au moins, je peux continuer à exister, mais sous une nouvelle identité. Il y a des réseaux aujourd’hui comme Nostr qui permettent de changer de fournisseur d’accès au réseau social en conservant son identité, ce fait de manière assez futée. Bon, mais il faut connaître. Donc, il y a plein de choses à faire, mais c’est ça qui est génial. C’est que ça ne peut que s’améliorer aujourd’hui.

Les défis de Castopod


Walid : on va refermer le chapitre sur le Fediverse, parce qu’on peut encore en parler longtemps. Dernier point avant la conclusion, c’est le futur, et ce que j’appelle les défis.
Le futur et les défis de Castopod.
Est-ce que vous pourriez nous expliquer un peu sur quoi vous travaillez, ou quelles sont les grosses choses qui vont venir, ou sur lesquelles vous savez que vous devez travailler ?

Benjamin : déjà, les défis de Castopod, c’est trivial, mais Castopod est une plateforme open source, tout le monde peut la prendre, se l’approprier, la modifier, on en a déjà parlé, mais si personne le prend, si personne se l’approprie, si personne le modifie, on aura perdu. Pour nous, le véritable enjeu sur Castopod, c’est qu’il ait un minimum de succès, et que les gens se l’approprient, et que les gens l’installent et qu’ils viennent chez nous. Mais en tout cas, si le produit n’est pas utilisé, ça ne sert à rien. Au départ, on en avait besoin pour nous, mais on ne l’aurait jamais fait s’il n’y avait pas eu cette demande extérieure et ce besoin. Et donc, on est super content que des gens l’utilisent et on est super content de la progression aujourd’hui, mais il ne faut pas que ça s’arrête. Et pour nous, l’enjeu, c’est qu’il y ait de plus en plus de gens qui utilisent la plateforme et qu’il y ait de plus en plus d’interactions. Et que, alors peut-être pas toutes, mais que les fonctionnalités qu’on utilise soient utilisées. Sincèrement, je suis super content quand tu dis que tu utilises la fonctionnalité des personnes qui permet de dire quels sont les intervenants sur le podcast, parce que, voilà, ça apparaît dans d’autres applications. Que des fonctionnalités comme ça, qu’on a mis du cœur à développer, soient utilisées, on ne se fait pas d’illusions, on sait qu’elles ne le seront pas toutes au même degré. Et pour ça, on a besoin des retours des utilisatrices et des utilisateurs, de savoir qu’est-ce que vous aimez, qu’est-ce que vous aimez pas, qu’est-ce que vous voulez qu’on change. Et puis, si vous voulez faire des merge requests, allez-y. Si vous voulez traduire dans des nouvelles langues, allez-y. Pour nous, le défi, c’est vraiment ça, c’est que les gens se l’approprient, utilisent, le modifient, le critiquent, l’encouragent.

On a vraiment besoin de ça parce que sinon tout ce qu’on fait ça sert à rien. Après, sur les choses à venir, on a brièvement parlé des plugins. Aujourd’hui on est en train de mettre en place un système de plugins parce que :

  1. On ne peut pas tout développer et donc il y a des fonctionnalités qu’on ne pourra pas faire parce que notre temps est limité et donc on ne peut pas tout faire
  2. il y a certaines choses qu’on n’a pas forcément envie de faire, on ne va pas le cacher, et en particulier il y a des éditeurs de services en lien avec le podcast qui nous ont dit « tiens, nous on aimerait bien s’interfacer, faire ci, faire ça ». On dit « oui super mais c’est pas à nous de le faire, c’est pas à nous de faire la promotion d’une solution plus qu’une autre ».
    Et donc ça, on en attend beaucoup parce qu’on pense qu’il peut pas y avoir d’écosystème vivant si tout le monde ne peut pas venir participer facilement. On ne peut pas dire qu’on fait la promotion de l’interopérabilité si on ne la promeut pas sur notre propre plateforme. Et l’architecture en plugin en fait partie : encore une dernière dernière fois on invente rien c’est aussi ce qui a fait le succès de WordPress et puis derrière on attend aussi pas mal sur la monétisation puisque on a une solution de monétisation sur Castopod, plus exactement chez Ad Aures qui est activable sur Castopod et sur laquelle on a pas mal
    d’attentes parce qu’on pense qu’elle est assez chouette.

Walid : Yassine, est-ce que tu veux rajouter des choses sur les défis futurs ou des nouvelles fonctionnalités qui arrivent et tout ce genre de choses ?

Yassine : juste un petit truc à préciser, puisqu’on avait parlé de Fediverse et de l’intégration avec Castopod, il y a quand même quelques fonctionnalités aujourd’hui qui manquent entre Castopod et le Fediverse, à savoir les hashtags, pinger une personne en particulier dans le Fediversees. Et du coup il y a un peu de réusinage de code à faire côté implémentation. Ca fait longtemps que je l’avais implémenté en 2021 et du coup j’ai beaucoup appris depuis, je sais qu’il y a un petit réusinage à faire pour que tout fonctionne pour le mieux. Donc ça c’est aussi prévu dans les mois prochains.

Castopod pour un utilisateur de podcast


Walid : en guise de conclusion j’aimerais vous poser trois questions. La première, c’est qu’est-ce que vous diriez à un auditeur de podcast pour présenter Castopod ?

Benjamin : en quelques phrases. La première chose, c’est rien, puisque l’auditeur de podcast, il n’est pas sur Castopod, il est sur son application d’écoute. Alors, ceci dit, je vais quand même me forcer à faire une vraie réponse.

Un auditeur de podcast qui, par exemple, aurait des problèmes d’accessibilité et qui voudrait pouvoir accéder à un podcast avec de la transcription et qui voudrait consommer un podcast qui ne propose pas de transcription parce qu’il est hébergé sur une plateforme qui ne permet pas d’insérer de la transcription, et bien dans ce cas là je lui dirais, « demande à ton podcaster préféré d’aller sur une plateforme qui est compatible podcast 2.0 et qui en particulier permet de mettre de la transcription » et évidemment j’aurais tendance à conseiller Castopod mais je ne suis pas sûr d’être tout à fait objectif sur le choix, je dois le reconnaître. En tout cas, en tant qu’auditeur ou auditrice, il y a un véritable enjeu à exiger des plateformes qui sont ouvertes, libres et qui apportent des vraies fonctionnalités. Encore une fois, en tant qu’auditrice ou auditeur, je ne vois pas aujourd’hui l’intérêt d’aller sur un Apple Podcast où j’ai exactement les mêmes fonctionnalités que j’avais en 2000, 2005, ça date de 2005. Donc si j’ai pas de plus de fonctionnalités que ça, il faut juste que je change de crèmerie et que je demande à mon podcasteur de dire non mais va voir ailleurs quoi.

Castopod pour un créateur de contenu


Walid : yes, entre parenthèses j’ai moi-même changé de crèmerie parce que la plateforme sur laquelle j’étais m’a expliqué que le Fediverse s’en foutait quoi. Donc voilà.
La deuxième question c’est « qu’est ce que vous diriez à un créateur de contenu qui utilise une autre plateforme de podcast pour présenter Castopod ? »

Benjamin : alors la première chose c’est est-ce que la plateforme que tu utilises est podcast 2.0 ? Alors il n’y a pas que Castopod parce que c’est important de le dire, podcast 2.0 ne peut pas fonctionner si Castopod est la seule plateforme à proposer ces fonctionnalités là. C’est un peu contre intuitif mais nous on a intérêt à ce que nos concurrents proposent des fonctionnalités aussi bien que les nôtres, en tout cas pour partie. Si on est tout seul à proposer de la transcription, les plateformes d’écoute n’auront pas d’intérêt à l’intégrer, et du coup, ça ne marchera pas. Donc on a intérêt à ce que le maximum de plateformes possibles proposent le maximum de fonctionnalités podcast 2.0, et que nos concurrents proposent des trucs comparables à nous, en tout cas presque aussi chouette. Donc pour ça il y a un site qui existe, qui les référence toutes, qui s’appelle NewPodcastApps.com, en un seul mot, et qui référence l’ensemble des plateformes d’écoute et de publication et d’index de podcast qui sont compatibles podcast 2.0. Alors il y a un filtre qui est assez gros parce qu’il y a pas mal de fonctionnalités : on peut choisir celles qui sont pour l’hébergement, celles pour l’écoute, celles qui sont open source, celles qui proposent de la transcription, de la géolocalisation, enfin bref, il y a tout. Et donc, on va pouvoir chercher, si je suis un podcasteur, quelle est la plateforme qui me convient le mieux. Et puis, vous verrez que très vraisemblablement, c’est Castopod. Mais en tout cas, faites-vous votre idée.
Ce qui me ramène aussi à la question précédente, c’est que j’aurais pu dire, en tant qu’auditeur, va sur NewPodcastApps.com et puis cherche cette fois les apps, les applications d’écoute et puis si tu cherches la géolocalisation, de la gestion d’intervenants, de la transcription, du chapitrage, tu coches et puis tu regardes qu’est-ce qui existe comme application d’écoute et ça va te permettre de choisir celle qui te convient le mieux. Est-ce que c’est sur iOS, sur Android, sur Mac, sur PC, sur Linux ou que sais-je. Et c’est vraiment un site à garder en bookmark. Il y a tout et c’est ça ce qui fera évoluer les choses et qui fera que le podcast va grandir avec nous tous.

Castopod pour un créateur de contenu qui se lance


Walid : dernière question, qu’est-ce que vous diriez à un créateur de contenu qui se lance pour présenter Castopod, comme moi quand je me suis lancé par exemple ?

Benjamin : fondamentalement pas très différent de ce qu’on a dit avant.

Moi encore une fois, je vais me répéter, mais je dis qu’est-ce qui va faire ta valeur c’est tes données et ton audience, ben choisis une plateforme qui te garantit que personne ne pourra te les retirer, personne, ça me paraît vraiment important, sur un écosystème fermé ou sur une plateforme fermée : si tu es déréférencé et bien tu as perdu tout le monde. Tes étoiles sur Apple podcast, elles peuvent disparaître, tes likes sur Castopod, ils ne peuvent pas disparaître. Personne, techniquement, ne peut les retirer. Ce n’est pas possible. Ils sont sur ta plateforme, c’est ton réseau social. Ce qui est important, c’est que Castopod ait son propre réseau social. Ce n’est pas le seul, toutes les plateformes du Fediverse, c’est le cas. Castopod a son propre réseau social qui est connecté à d’autres, donc tu n’es pas limité à ça. Du coup, on ne peut pas te censurer. Tu peux toi t’auto-censurer, pour x ou y raison, mais on peut pas te censurer. C’est techniquement pas possible. Et ça me paraît fondamental de comprendre ça parce que y a tellement de créatrices et de créateurs qui se sont pris des strikes sur des plateformes fermées et qui sont été… Alors soit juste tu peux être démonétisé, enfin y a différentes tailles de bâton, soit tu disparais complètement, mais c’est quelqu’un qui a pris la décision pour toi.

C’est pas toi qui as pris ton risque à mesurer, qui as dit non mais ça je le garde, je prends le risque. Sur ces plateformes-là, donc Castopod fait partie, et bien c’est toi qui décides, et c’est toi qui assumes ton risque, et c’est toi qui décides de, est-ce que ça je le garde, est-ce que ça je le supprime. T’es toujours responsable, en regard de la loi, ça c’est valide sur toutes les plateformes, mais c’est toi qui prends la décision, personne d’autre.

Conclusion


Walid : Ok, c’est un bon mot de la fin, je vais faire moi-même une petite tribune libre, une fois n’est pas coutume. J’ai migré vers Castopod en décembre et j’en suis très content parce que j’ai gagné déjà toute l’intégration au Fédiverse, ce qui est très agréable, surtout quand tu fais un podcast qui parle de logiciels libres et de standards ouverts et l’audience est en bonne partie là. J’ai trouvé ça vraiment hyper intéressant. Je n’ai pas perdu grand chose pour être tout à fait honnête. Il y a des trucs qui étaient peut-être un peu mieux sur certaines
autres plateformes. Je pense typiquement à l’édition de chapitrage par exemple, on en a déjà parlé.
Il y a des trucs qui sont un peu perfectibles et tout mais j’ai pas perdu de fonctionnalité. Donc ça c’est vraiment très cool. Je suis passé à une plate-forme libre que je trouve en plus intéressante.
Je ne vais pas le cacher, ce qui est très cool pour moi c’est que vous êtes français et qu’on peut parler et que vous pouvez m’expliquer un peu votre philosophie, ce que vous voulez faire etc. Je trouve que c’est intéressant quand t’es créateur de contenu de pouvoir comprendre qu’est ce que veulent faire les gens qui font cette plateforme. Et vers quoi ils veulent aller, ce qu’ils veulent pas faire etc. C’est vachement sympa.
Je suis hyper content d’avoir migré sur le Castopod. J’avais vraiment envie de faire cet épisode avec vous parce que j’avais envie que vous puissiez aussi partager un peu les discussions que nous on a pu avoir en off sur les différents salons. Merci, merci de faire cette plateforme en tant qu’utilisateur, en tant que créateur de contenu, c’est vraiment très chouette.

Je vous dis à bientôt, chers auditrices, auditeurs. Voilà, c’est un le plus long épisode, je pense, qu’on ait fait ! Et puis si ça vous intéresse, on va passer un bonus, on va tester un truc qui est une idée de Benjamin : parler de sujets autres, un peu plus techniques, etc.

Donc merci à tous les deux, merci Yassine, merci Benjamin pour votre temps.

Yassine : Merci.
Benjamin : Merci et puis merci d’être là parce que si t’étais pas là, ça n’allait pas arriver.

[Générique de fin]

L’intégration ActivityPub


Walid : Petit bonus, petit extra qui est lié à des conversations que j’ai pu avoir avec Benjamin ou avec Yassine sur nos différentes rencontres.
J’aimerais bien qu’on parle un peu de l’intégration ActivityPub et j’aimerais bien savoir un petit peu comment ça s’est passé techniquement. Est-ce que vous connaissiez bien ActivityPub quand vous avez décidé de l’implémenter ? Yassine, qu’est-ce que tu peux nous en dire ?

Yassine : alors, ce n’est pas évident, en tout cas, c’était pas évident quand j’avais commencé à implémenter. Je connaissais rien de l’Activity Pub, c’était en 2021, je crois. Donc, j’ai dû tout apprendre. Sachant que les ressources, en termes de dev, concernant le Fediverse ne sont pas nombreuses. Je m’étais reposé sur quelques articles de Mastodon, comment ils avaient fait eux et du coup et surtout l’aspect d’ActivityPub qui est long, beaucoup de textes, pas beaucoup d’images, pas évident à comprendre a priori et du coup c’est plusieurs allers-retours. A un moment donné j’ai dû me lancer à écrire du code, j’avais installé un serveur Mastodon, j’avais demandé à Benjamin qu’on en ait un pour faire des tests directs avec.

Donc c’est des allers-retours entre du code, des tests, avec ce qu’on avait pour le dev, lire et relire l’aspect de ActivityPub jusqu’à comprendre, parfois pas comprendre et revenir dessus pour comprendre. Donc ça a pris quelques mois quand même. Ce qui était compliqué c’était le fait qu’il n’y ait pas de ressources, pas vraiment d’outils pour tester les implémentations, en tout cas aujourd’hui c’est ce qui manque. Je crois qu’il y avait eu quelques initiatives pour, FediDB je crois à l’époque qui voulait faire une sorte de serveur mock pour pouvoir tester en local mais ils ont pivoté sur autre chose.

L’adoption d’ActivityPub + Castopod Index


Voilà, s’il y a un truc à savoir sur ActivtyPub c’est que c’est pas évident à implémenter. Aujourd’hui comme Mastodon est la référence en termes de Fediverse – c’est le logiciel qui est le plus utilisé aujourd’hui dans le Fediverse – on a tendance à tester avec une implémentation Mastodon et il y a des avantages et des inconvénients. Et ensuite, après ces mois d’implémentation, on avait sorti une première version Alpha 42, je me rappelle qu’à ce moment-là en avril 2021. Et puis avec les retours des utilisateurs, on peut corriger les bugs à droite à gauche. C’est vraiment implémenté de façon pratique et pas tant faire des schémas avant etc.

Walid : combien de temps vous avez mis pour avoir une version stable avec l’intégration ActivityPub ? Castopod complet, c’est la première version de Castopod. Je veux dire la fonctionnalité, pour que vous la considériez comme vraiment stable et mature, la fonctionnalité ActivityPub.

Benjamin : dès la Alpha 42.
Yassine : oui et puis après il y avait quand même quelques petits bugs à droite à gauche mais on les a corrigés au fur et à mesure et le plus compliqué c’était quand même de sortir la 42 parce qu’il fallait comprendre comment tout ça fonctionnait.

Walid : l’adoption elle a été rapide de cette partie ActivityPub ? C’est devenu tout de suite une fonctionnalité populaire ou pas ?

Benjamin : Ça c’est difficile à mesurer, on le voit un petit peu aujourd’hui avec index.castapod.org, en regardant tout simplement combien chaque podcast Castapod a d’abonnés.
Bon honnêtement je pensais que ça serait plus. On a Nick qui a plus d’un millier. Je pense que c’est un des plus gros, si c’est pas le plus gros.

Walid : Oui Nick de la chaîne The Linux Experiment que j’ai interviewé effectivement.

The Linux Experiment - Patreon

Benjamin : 100 000 abonnés sur YouTube, donc c’est à relativiser, mais c’est déjà pas mal. C’était aussi d’ailleurs un des objectifs de l’index Castopod, c’était d’essayer de faciliter les interactions vers le Fediverse en regroupant tous les podcasts Castopod au même endroit et de permettre de les trouver et de les suivre parce que sinon c’est pas forcément intuitif et évident. Donc on espère que ça va continuer à se développer, et qu’il y en aura de plus en plus, et que ça sera de plus en plus utilisé.

Evolutions d’ActivityPub pour le podcast


Walid : sur la partie Fediverse, effectivement, on en a déjà parlé dans l’épisode, donc je n’ai pas forcément besoin de revenir plus là-dessus.
Moi j’avais repéré effectivement la problématique de hashtag, que ça serait cool d’avoir les hashtags.

Benjamin : sur le Fediverse, je peux peut-être introduire un sujet, je sais pas si ça vous intéresse l’un comme l’autre, en tout cas c’est pas moi qui en parlerai. Aujourd’hui ce que Castopod publie, en gros on s’est calqué sur ce que Mastodon attend parce que c’est là où sont les utilisateurs. Mais ce qu’il faudra faire un jour, c’est que Castopod publie ses propres messages avec son propre format et qu’il y ait des lecteurs de podcasts, des vraies applications d’écoute de podcast, qui plutôt que de s’abonner à un flux RSS s’abonnent à un flux ActivityPub. Le truc c’est qu’aujourd’hui on estime que la pompe n’est pas suffisamment amorcée pour que ça vaille le coup de se lancer là-dedans. Mais ça fait partie des choses qui sont… En fait il y a des gens qui attendent je pense qu’on fasse ça mais ils sont trop peu nombreux aujourd’hui pour que…

Yassine : on peut le faire aujourd’hui ça et avoir un adaptateur déjà pour Mastodon pour qu’ils puissent lire les épisodes de podcast. C’est juste que j’avais défini une spec à l’époque
c’était en 2022 je crois, ou fin 2021 je ne sais plus.

PodcastActivityStream dans l’idée c’est d’étendre ActivityPub et d’inclure les podcasts et les épisodes de podcast.
Je pense que dans les réusinages dont je parlais dans l’épisode principal, je vais peut-être intégrer ça directement et voir avec Mastodon comment faire une Merge Request ou quelque chose à Mastodon.

Yassine Doghri


Benjamin : c’est un aspect qui est ultra technique et qui est ultra important parce qu’à terme, alors c’est l’idée qu’on avait au début, qui était très naïve, mais qui pour moi est toujours valide : c’est que, à terme, le podcast doit rester décentralisé, mais pas forcément sur du RSS. Et que je pense que ActivityPub est peut-être une alternative à RSS. Parce qu’avec ActivityPub, il y a beaucoup plus de fonctionnalités.
RSS, c’est ultra limité, et avec ActivityPub, on peut faire beaucoup, beaucoup plus de choses. Et donc nous, on s’était dit « on va faire les deux ». Et puis, peut-être qu’un jour, ActivityPub, JSON-LD, tout ça, va supplanter le RSS pour le podcast et qu’il y ait des applications d’écoute de podcast qui finiront par ne plus parler que d’ActivityPub. C’est de la science-fiction aujourd’hui, très clairement. En tout cas, nous, on est toujours sur cette direction-là de créer un PodcastActivityStream dont Yassine a écrit la spec.
Donc la spec elle est publique, elle existe aujourd’hui, elle est juste implémentée par personne y compris nous. On l’implémente pas.

Yassine : Si on l’implémente, mais pas comme il faut en fait. C’est juste un petit détail mais du coup j’avais eu une discussion avec quelqu’un on en parlait par mail et il m’avait expliqué que ça c’était possible aujourd’hui et qu’on pouvait juste faire un adaptateur assez rapide, enfin facile sur Mastodon pour pouvoir lire des épisodes en fait.

Walid : il y a aussi tout un aspect de convaincre potentiellement d’autres hébergeurs, d’autres plateformes de streaming de faire de même finalement, pour que ça ait vraiment un intérêt.

Benjamin : oui, bien sûr. Mais c’est un peu la démonstration par l’exemple. Toute la problématique de Podcast 2.0, c’est la démonstration par l’exemple. C’est dire voilà la spécialité, qu’il y en ait un ou deux qui s’y mettent, qu’on résolve le problème de l’œuf et de la poule et puis derrière les autres suivent parce qu’ils disent « Ah ben ouais mais en fait ça marche, les gens s’en servent, mon concurrent le fait, il faut que je le fasse aussi. » C’est la preuve par l’exemple et par le succès.

Open Podcast Prefix Project (OP3)


Walid : je voudrais qu’on parle d’un autre sujet qui pour moi est hyper important parce que je l’utilise et que je trouve ça vraiment très très cool, c’est OP3, op3.dev. J’aimerais beaucoup qu’on en parle. Pour moi ça se traduit sur mon podcast par « je peux donner des statistiques publiques à ma communauté », donc ça je trouve ça très très cool. Donc j’aimerais bien qu’on en dise deux mots pour que vous puissiez introduire ce que c’est qu’OP3, comment vous travaillez avec les gens qui font OP3 ? Comment vous avez intégré ça ? Et qu’est-ce que ça apporte pour les podcasteurs et pour les gens qui écoutent des podcasts ?

Logo OP3 (Open Podcast Prefix Project)OP3 (source github)

Benjamin : OP3 pour Open Podcast Prefix Project, donc littéralement le projet des préfixes de podcasts ouverts. Donc qu’est-ce que c’est ? C’est un outil de mesure d’audience qui fonctionne par préfixes. Pourquoi ? Parce qu’en fait, on préfixe les URL des fichiers MP3 par le serveur de mesure d’audience. Et donc ça permet de mesurer un nombre de téléchargements pour chacun des épisodes. Des systèmes comme ça, il y en a plein, il y en a depuis longtemps. Les plus connus, à une époque je pense qu’il y avait Chartable, qui était le plus connu, qui était donc une espèce de Google Analytics du podcast, qui a été racheté par Spotify. Donc du coup, ça refroidit, à raison, pas mal de gens parce que ça permet à Spotify d’avoir énormément d’infos sur des concurrents. Et donc, Castopod a son propre système de préfixes et son propre système d’analytics. C’est-à-dire qu’avec Castopod, on a des mesures d’audience intégrées qui se retrouvent donc dans la base de données du podcaster. Et OP3 a une double particularité, c’est qu’il est, enfin même triple, il est open source, il est open data et il est gratuit. La plupart des systèmes de préfixes de podcast se disent gratuits dans le sens où c’est gratuit à mettre en place. Je vais pouvoir gratuitement consulter quelques données et puis si je veux pouvoir consulter l’intégralité de mes données, c’est-à-dire par exemple des mesures d’audience qui ont plus d’un mois, il va falloir que je paye. C’est ultra classique, mais en gros c’est gratuit. Mais si tu veux avoir accès à tes données que tu m’as confiées, il va falloir que tu payes. Moi je ne suis pas fan de ce type de business model personnellement. Je trouve ça pas très cool. Après tout, pourquoi pas, tu es prévenu.
OP3 est vraiment différent parce que je vais pouvoir consulter l’intégralité de mes données, mais surtout tout le monde va pouvoir consulter l’intégralité de mes données. C’est dans ce sens là qu’il est open data, c’est qu’il n’est pas possible, ce n’est pas possible, c’est voulu, ce n’est pas un défaut ou un bug ou un truc qui a une fonctionnalité qui n’est pas encore là. Il n’est pas possible sur OP3 d’avoir des données privées.

Je ne peux pas utiliser cette plateforme là pour moi consulter mes stats d’audience et que personne d’autre ne puisse les consulter, ce qui est le cas tout le temps en fait normalement. Et donc là, tout le monde peut savoir combien tel épisode a fait d’audience tel jour, depuis quel navigateur, etc. L’enjeu d’OP3, il est d’avoir une plateforme qui soit vraiment ouverte et qui puisse donner des informations à tout un écosystème. Le fait que c’est gratuit c’est aussi très important parce qu’il existe des plateformes de mesure d’audience qui donnent des données en tout cas partielles, publiques, et par exemple des classements et des choses comme ça. Mais si c’est payant, on sait déjà que tous les gens qui figurent dans le classement ont payé. Et que c’est pas parce que je n’y suis pas que j’ai pas d’audience, c’est juste parce que j’ai pas payé. Donc le fait que c’est gratuit, ça garantit aussi une certaine transparence. Et puis à mon sens en tout cas une certaine qualité des informations.
Alors aujourd’hui OP3 c’est encore petit parce que c’est un projet qui est très récent, il y a plus d’un millier de podcasts aujourd’hui, la croissance est assez linéaire. L’idée c’est qu’il y ait le plus de podcasts possible pour qu’on puisse commencer à avoir des infos sur les audiences, etc. Donc d’un point de vue technique, c’est pas très compliqué à intégrer. Dans le cas de Castopod, nous on l’a intégré il y a un moment déjà. Et pour le podcasteur, c’est juste une case à cocher en fait. C’est un bouton à activer : est-ce que je veux être sur OP3 ou pas ? Je choisis. Par défaut, ce n’est pas activé. Il faut que je fasse le choix de l’activer. Et si je l’active, et bien, en fait, du coup, j’aurai des stats à deux endroits, je les aurai sur Castopod et sur OP3. Et sur OP3, tout le monde pourra les consulter. Ce qui fait aussi que OP3 joue un peu le rôle de tiers de confiance. Ce n’est pas un tiers certificateur, en particulier même si les méthodes de mesure sont conformes à la norme IAB v2. Ce n’est pas pour autant que la plateforme est certifiée IAB v2, ne serait-ce que parce que ça coûte assez cher, mais en tout cas ça me permet de faire des comparaisons et d’avoir plein d’infos.
Et pour la petite histoire, c’est ce qu’on utilise pour faire le top 50 sur index.castopod.org, c’est-à-dire qu’on va chercher des infos de mesure d’audience, d’OP3, pour ces podcasts-là. Alors comme l’index Castopod, comme son nom l’indique, ne concerne que des podcasts hébergés sur Castopod, il n’y a rien d’autre, mais on pourrait faire un classement avec des podcasts autres que ceux qui sont hébergés par Castopod, pour peu qu’ils s’utilisent OP3.

Walid : Finalement quand moi j’active la case à cocher pour dire que je veux l’intégration avec OP3, je n’ai pas de lien sur le site de mon podcast, quelque chose qui me pointe vers les stats, Je ne suis pas sûr.

Yassine : Ça, on vient de l’ajouter. Du coup, ce sera pour la prochaine release.

Walid : génial ! parce que justement, je me disais, ‘trop bien, à travers Castopod Index, je peux aller voir, trouver les stats des podcasteurs’. Donc ça, je trouvais ça très cool.

Benjamin : en fait, l’URL, elle n’est pas secrète. Elle est totalement publique.

Ce qu’utilise OP3 c’est le GUID, puisqu’il faut savoir c’est qu’un podcast il peut changer d’hébergeur, il peut déménager, il peut changer de nom, son flux RSS peut changer d’URL, et du coup il y a un truc idiot qu’on n’avait pas avant podcast 2.0, c’était un identifiant unique par podcast, qui permette de dire « bon ben voilà, là j’ai deux flux RSS, mais en fait c’est le même », parce que j’ai changé d’hébergeur, parce que parfois aussi je peux avoir un doublon, parce que je peux avoir deux noms de domaines qui pointent sur le même serveur et du coup potentiellement je vais avoir deux URL qui pointent vers le même fichier physique.
Et donc Podcast 2.0, parmi les fonctionnalités, a rajouté ça : le GUID qui est donc un identifiant unique par podcast qui permet de savoir que maintenant en fait ça c’est deux fois le même et OP3 utilise ça.
Donc en fait il suffit d’aller sur op3.dev/p/guid et on accède comme ça aux données. Ce qui me permet aussi de préciser une chose, c’est que OP3 va chercher les infos du podcast dans la base PodcastIndex. Puisque quand OP3 mesure un épisode, c’est au moment du téléchargement d’un fichier mp3 qu’il va compter, mais il a juste l’url du fichier mp3, on ne lui fournit pas d’autres informations sur le nom du podcast etc. Et donc pour pouvoir afficher le titre de l’épisode ou des informations comme ça, en fait il fait le lien par PodcastIndex, ce qui signifie, et c’est important de le savoir et on le dit vraisemblablement pas assez, qu’un podcast qui n’est pas référencé d’un PodcastIndex ne peut pas utiliser OP3. Et ça, ça arrive.
Et en fait, John Spurlock, qui est donc le développeur, la personne qui maintient OP3, nous a contacté en disant « mais je comprends pas, on a des podcasts qui sont hébergés par Castopod, qui utilisent OP3, mais on sait pas quoi en faire parce qu’ils sont pas référencés sur PodcastIndex. Pourquoi ? ». Parce que Castopod ne force pas les podcasts à se référencer sur PodcastIndex.

La mesure d’audience dans le podcast


Walid : Et vous pourriez pas mettre une caisse à cocher pareil ?

Benjamin : alors on peut faire plein de choses, c’est juste qu’on l’a pas fait. Et puis la seule personne qui s’est plainte jusque là c’était John Spurlock qui disait « mais comment ça se fait que j’ai des podcasts qui viennent me voir et que je retrouve pas en fait ? Je connais même pas le titre, le nom, je n’ai aucune info dessus ».

Alors pour celles et ceux qui sont intéressés par toutes ces problématiques de mesure d’audience, parce que la mesure d’audience dans le podcast, ce n’est pas simple, c’est compliqué. On parle de mesure d’audience, mais en fait on devrait parler de mesure de téléchargement parce que c’est un point qui est vraiment génial dans le podcast, c’est que je peux écouter un podcast déjà sans cookie, on l’a déjà évoqué tout à l’heure, mais je peux écouter un podcast sans me créer de compte. C’est-à-dire que je peux télécharger Antennapod, on ne me demande rien, je vais sur F-Droid, je télécharge Antennapod et je m’abonne à un podcast. Je m’abonne à un podcast, mais à aucun moment je n’ai donné la moindre information sur moi.

Je n’ai pas donné d’adresse mail, je n’ai pas créé de compte, je n’ai pas donné d’identifiant, je n’ai pas donné de mot de passe, absolument rien. Personne ne sait qui je suis. Et c’est ça que je trouve aussi incroyable aujourd’hui dans l’internet de 2024, c’est qu’il y a encore un écosystème où je peux m’abonner à un contenu, l’écouter tous les jours, toutes les semaines et personne ne sait qui je suis. Et je n’ai pas créé de compte.

Benjamin Bellamy


La contrepartie c’est que quand je veux mesurer une audience, c’est beaucoup moins facile parce que faire la différence entre deux téléchargements et savoir est-ce que c’est la même personne ou pas, c’est quasiment… Alors de manière certaine c’est impossible, après je peux avoir des idées et puis surtout ce qui compte c’est de pouvoir comparer que par rapport au mois précédent : « j’ai 30% de téléchargement en plus ou en moins », mais… donc c’est pas très grave au final.

Pour toutes ces problématiques là, il y a un très bel article qui va sortir dans le podcast magazine numéro 3. Je dis que c’est un très chouette article parce que c’est moi qui l’ai écrit et qui donne aussi une interview de John Spurlock, le développeur de OP3, qui m’a fait l’honneur de répondre à toutes les questions que j’avais sur sa plateforme. Pour toutes celles de ceux qui sont intéressés, je vous encourage à aller lire Podcast Magazine numéro 3.

Walid : merci d’avoir écouté ce petit supplément, on avait quelques trucs en plus à discuter.
N’hésitez pas à me dire si ça vous a plu, qu’on fasse ces petits suppléments un petit peu plus techniques. Si c’est le cas, on pourra essayer sur d’autres épisodes. Je remercie Yassine et Benjamin de s’être prêté au jeu et d’avoir passé plus de 2h20 d’enregistrement avec moi.

Continuez à les suivre, il y a pas mal de conférences autour de Castopod, il y a pas mal de choses, parlez-en autour de vous. Et bien à bientôt et merci d’avoir écouté jusqu’au bout ces épisodes.

Cet épisode a été enregistré le 23 janvier 2024.

Pour aller plus loin autour de Castopod



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


Nico (alias Nick) – Youtuber spécialisé dans le logiciel libre chez THE LINUX EXPERIMENT


podcast.projets-libres.org/@pr…

Sommaire

Description


Nico (alias Nick) est Youtuber pour la chaîne The Linux Experiment. Nous l’avons rencontré pour qu’il nous parle de sa chaîne, de la manière dont il travaille et son modèle économique.

A travers 3 vidéos et un podcast en anglais par semaine, The Linux Experiment traite l’actualité des logiciels libres.

Nous abordons avec lui :

  • son parcours
  • les débuts de sa chaîne Youtube
  • sa ligne éditoriale
  • son modèle économique
  • ses motivations
  • ses défis à venir

Cet épisode est enregistré le 26 septembre 2023.

Le contenu produit par The Linux Experiment (TLE) :



Liens pour en savoir plus



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


This entry was edited (6 months ago)

/e/OS un Android dégoogelisé – Gaël Duval – e Foundation & MURENA


Créer un OS Android libre, degoogelisé et respectueux de la vie privée ? C’est le pari lancé par Gaël Duval ! Dans cette interview, nous abordons avec lui la création du projet, la structuration entre société et association, le modèle économique ainsi q

Créer un OS Android libre, degoogelisé et respectueux de la vie privée ? C’est le pari lancé par Gaël Duval !

Dans cette interview, nous abordons avec lui la création du projet, la structuration entre société et association, le modèle économique ainsi que les relations de /e/OS avec son écosystème logiciel. Nous parlons aussi des relation avec les fabricants de téléphone, en particulier Fairphone, et de la création de leur propre ligne de produits, mais aussi des différentes modalités du support logiciel et matériel.

podcast.projets-libres.org/@pr…

Sommaire

Interview avec Gaël Duval : /e/OS & Murena


Walid: Bonjour et bienvenue sur Projets Libres! Je m’appelle Walid Nouh. Je suis tombé dans la marmite du logiciel libre il y a plus de 20 ans. Que vous soyez libristes confirmés ou néophytes, venez découvrir avec moi les portraits des femmes et des hommes qui font du logiciel libre. Communauté, modèles économiques, contributions, on vous dit tout ! Nouvel épisode : aujourd’hui nous recevons Gaël Duval pour parler de /e/OS et Murena qui est la marque commerciale associée à /e/OS.

Vous connaissez peut-être Gaël Duval comme étant le fondateur de la première distribution desktop Linux qui s’appelait MandrakeLinux dans les fins des années 90, début des années 2000. Vous allez voir aussi qu’il a travaillé sur un autre projet par la suite qui s’appelait Ulteo. Mais aujourd’hui nous allons nous concentrer sur l’OS Android dégooglisé sur lequel il travaille depuis quelques années et c’est un grand plaisir que j’ai de pouvoir accueillir Gaël sur le podcast. Bonjour Gaël, j’espère que tu vas bien.

Gaël: Bonjour, merci de m’inviter dans ce podcast et ça va pas trop mal.

Gaël Duval (source : stateofopencon)

Walid: Avant de commencer à parler de /e/OS, j’aimerais bien que tu répondes à la question traditionnelle qui est de te présenter et de nous expliquer comment tu en es venu à travailler dans le logiciel libre, et ce que tu as fait dans le libre jusqu’à présent.

Gaël : à la base je suis informaticien, je suis de formation informatique, un peu dans le dur, universitaire. Alors l’informatique c’est quand même une passion qui remonte à très loin, j’ai dû avoir mon premier micro à 10 ans, c’était un monde qui m’attirait beaucoup et ensuite j’ai passé beaucoup de temps sur les ordis, j’ai enchaîné plusieurs modèles dans les années 80. C’était une période d’ailleurs assez féconde pour l’informatique. Je sais pas, tous ceux qui l’ont vécu ont un gros souvenir je pense assez puissant de cette époque là, parce que ça fourmillait de partout, c’était extrêmement créatif, beaucoup autour du jeu souvent mais pas seulement, et avec des machines et des systèmes qui n’étaient pas du tout compatibles les uns avec les autres en général, mais ça faisait un ensemble assez excitant, surtout je pense pour des gamins de 10-15 ans à l’époque.

C’est un peu ça qui naturellement m’a amené vers ce métier de l’ingénierie logicielle. Et quand je suis arrivé à la fac, j’ai découvert deux choses : qu’il n’y avait pas que les micro-ordinateurs dans la vie, il y avait aussi des ordis un peu plus pros, ce qu’on appelait des stations de travail, et puis il y avait internet aussi. Internet je connaissais vaguement parce que j’en avais un peu entendu parler, et aussi parce que j’ai eu la chance, quand j’avais 17 ans, d’avoir un correspondant anglais, qui était à Cambridge, et son père était astrophysicien en fait. Il était prof d’astrophysique et il m’avait fait visiter son labo et tout ça, et j’avais remarqué qu’il envoyait des messages électroniques sur un ordi et ça ça m’avait vraiment frappé. Je me suis dit « tiens il y a un truc intéressant », je m’intéressais un peu au modem etc. Et à la fin j’ai remarqué qu’on avait vraiment des ordis beaucoup plus puissants, beaucoup plus sérieux et à la fois qui étaient connectés à internet 24 heures sur 24. Ils avaient chacun leur adresse IP au niveau mondial, ce n’était pas d’adressage privé à l’époque.

Et là, évidemment, en tant que déjà moi passionné d’informatique, je me suis plongé là-dedans corps et âme. Et pour répondre à la question, comment j’en suis venu au Libre ? Et bien une petite frustration, c’est-à-dire qu’à la fois il y avait ce monde absolument incroyable que j’ai découvert à l’université, de station de travail sous Unix. Unix, un système d’exploitation qui m’a vraiment frappé parce que je n’imaginais même pas qu’on puisse avoir des systèmes qui puissent être multitâches, multi-utilisateurs, etc. Et moi je découvre ça dans cet espèce de monde merveilleux, un peu idéal, un peu caché finalement, réservé aux étudiants d’époque, aux chercheurs, tout ça. Et à côté, dans le grand public, au début des années 90, qu’est-ce qu’on voit se développer? Windows 3, puis Windows 95, sur des compatibles PC et ça c’était vraiment le truc pas du tout excitant pour moi. J’ai essayé de faire le lien entre les deux, en fait, parce que moi j’avais absolument pas les moyens de m’acheter une machine pour faire tourner Unix évidemment ça valait je sais pas combien mais c’était vraiment hors de portée pour un étudiant. Par contre il y avait quand même ces compatibles PC sous processeur Intel 386, 286 tout ça et à un moment, totalement par hasard, je découvre, je ne sais pas exactement l’année, mais ça devait être 94, 95, 96, je ne sais pas, je découvre qu’il y aurait un système d’exploitation Unix qui pourrait peut-être fonctionner sur des machines grand des PC avec des processeurs 386. Et en creusant, c’était Linux en fait, c’était les débuts de Linux. Linux était sorti en 91, donc 2 ans peut-être avant, 2-3 ans. Et là, en me renseignant, ça semble confirmer que oui, peut-être sur mon 386 qui tournait sous Windows 3, je pourrais peut-être faire tourner Linux à la place, que peut-être même on pourrait faire tourner X Windows System, donc l’interface graphique qui tournait sous Unix à l’époque. Et donc, me voilà parti acheter 50 disquettes à la FNAC, et je reviens, parce qu’il y avait déjà des premières distributions Linux, à l’époque j’avais sélectionné la Slackware, à l’époque il fallait 50 disquettes pour l’installer, donc j’ai acheté 50 disquettes, et puis je retourne à la fac et je télécharge toute la distribution Slackware, et je passe chaque disquette pour l’enregistrer dessus, et je reviens chez moi avec mes 50 disquettes, et là je passe la soirée à installer Linux et ça marche.

à l’époque j’avais sélectionné la Slackware, à l’époque il fallait 50 disquettes pour l’installer


Voilà, donc c’était vraiment mes premiers pas dans Linux : quelque part vers le libre parce que c’est une notion que je ne connaissais pas vraiment. Au début des années 90 et dans les années 80, il y avait quand même une notion du partage, du logiciel, qui était quand même assez forte. Donc quelque part c’était assez naturel pour moi d’aller vers le libre. Après j’ai découvert ça un tout petit peu plus tard, le projet GNU, etc. J’ai regardé et commencé à m’intéresser à tout ce qu’on pouvait trouver sur les serveurs FTP, tous les logiciels qui existent, les compilateurs, GCC, tout ça.

Walid : J’ai l’impression de m’entendre quand j’ai découvert le libre et que je me suis dit « waouh, quel nouveau monde, c’est vraiment ça l’informatique, c’était vraiment génial ».

Gaël : Voilà.

Walid : donc après, tu as travaillé sur Mandrake et tu as travaillé sur d’autres projets, est-ce que tu peux nous en dire quelques mots?

Gaël : sur Mandrake, donc je finissais mes études, en fait j’étais en… je faisais une sorte de service civil à la fac, ce qui m’a permis d’avoir pas mal de temps pour m’intéresser… Enfin, j’avais envie en fait de créer une distribution Linux qui soit à la fois… qui ait la puissance de Linux et à la fois la facilité d’utilisation qu’on pourrait retrouver sous Windows par exemple. En plus pour le grand public, je me disais c’est dommage que Linux soit réservé à des experts qui doivent apprendre la ligne de commande, ce que la plupart ne feront pas. L’idée vraiment derrière Mandrake à l’époque c’était vraiment ça : est-ce qu’il y a un moyen de permettre au plus grand nombre de pouvoir profiter de la puissance de Linux avec des outils et une interface utilisateur moderne ?

C’était vraiment ça. Après Mandrake qui m’a occupé jusqu’en 2006, j’ai créé une autre boîte et on faisait aussi du logiciel libre qui s’appelait Ulteo. Au départ l’idée c’était vraiment de faire un bureau en ligne avec. Il y avait une distribution Linux d’ailleurs qui s’appelait Ulteo Application System, qui était basée sur Debian, et l’idée c’était de se dire : avec internet on peut sans doute avoir un système où finalement tes données vont être accessibles n’importe où quand tu veux, où tu veux, avec n’importe quel device. Donc c’est pour ça qu’il y avait une distribution Linux pour le PC et il y avait un système qui permettait d’accéder à ces données dans un navigateur web et de tout se synchroniser. Donc tes données de ton PC se synchronisaient en permanence avec le cloud et tu pouvais retrouver tes applications et tes données dans le navigateur web. Et ça au départ, l’approche était assez orientée vers l’utilisateur final aussi et pour plein de raisons, on a pivoté vers le professionnel, vers le B2B.

Et on a redéveloppé la solution dans une optique B2B. L’idée c’était de virtualiser des PC, les mettre dans le cloud, et qu’ils soient accessibles depuis n’importe quoi, y compris d’une tablette, un iPad, ce genre de choses. Pour ceux qui connaissent Citrix, l’idée c’était de faire une sorte de Citrix open source multiplate-forme, parce qu’on supportait Windows et Linux, ce qui n’a pas très bien marché commercialement. On a été un peu en retard suite à notre première approche B2C. Et ça, ça m’a occupé jusqu’en 2014-2015. Ensuite j’ai rencontré des gens avec qui on a créé un incubateur et un accélérateur de startups, donc 2015-2016-2017. On a accompagné plein de startups, donc on voyait beaucoup de gens qui avaient des idées, qui voulaient créer leur entreprise. On discutait avec eux, on les challengeait un petit peu, puis parfois on les aidait, parfois on les finançait. Et ça, ça a été vraiment un moment très intéressant parce que déjà j’ai rencontré beaucoup beaucoup de monde alors que naturellement l’informatique te pousse plutôt à… Enfin si, t’as pas mal de relations sociales en ligne, c’est virtuel. Mais là j’ai vraiment rencontré beaucoup de monde, des super rencontres, des gens super sympas, des projets complètement dingues.

C’était assez excitant. Et dans un des projets, il y avait une société qui développait un système d’exploitation pour smartphone qui était basé sur FirefoxOS. C’était un essai de la fondation Mozilla de créer un système un peu concurrent à Android et tout ça pour le mobile. Et on avait beaucoup d’espoir dans FirefoxOS, parce que c’était totalement libre, c’était indépendant. Malheureusement ça n’a pas très bien marché, parce que, pour des raisons de choix stratégiques de la fondation Mozilla, ils avaient apparemment, de ce que j’ai compris, pas mal de plans de développement en Asie. Ils sont allés voir Whatsapp car apparemment en Asie tout le monde utilise Whatsapp, même en 2016-2017. Et quand ils sont allés voir Whatsapp en leur disant que ce serait vraiment génial qu’on puisse avoir une version de Whatsapp pour FirefoxOS, Whatsapp leur a dit qu’on a déjà 100% du marché avec iOS, Android, donc on voit vraiment pas pourquoi on dépenserait de l’argent pour vous faire plaisir. En gros c’était ça, si j’ai bien compris. Et donc ils ont décidé suite à ça d’arrêter FirefoxOS en disant qu’il n’y a pas de chemin, il n’y a pas de business model. Et donc cette société que j’avais rencontré qui faisait un dérivé de Firefox OS essentiellement pour le marché africain je crois avec Orange, ils ont aussi arrêté. Ils se sont dit « ah merde ils arrêtent donc on arrête ». Ils ont tout arrêté, ils ont tout plié. C’était assez dingue comme histoire. Mais je raconte ça parce que c’est juste pour l’anecdote.

Moi ça m’a permis de découvrir un monde que je connaissais moins bien qui était le monde du smartphone en fait parce que moi je viens du monde du PC. Et le monde du smartphone, c’est pareil ça m’a vraiment passionné parce que finalement c’est quoi un smartphone ? C’est juste un ordi qui maintenant est très puissant, qui en plus a une caméra, une connexion wifi, etc. donc plein de capteurs et finalement c’est un concentré de ce qu’on peut faire de mieux dans l’informatique aussi bien au niveau matériel que logiciel. Et j’ai trouvé ça aussi absolument passionnant. Et plus je m’y suis intéressé donc et plus je me suis dit « tiens il se passe des choses au niveau des données personnelles dans les smartphones » que je ne soupçonnais pas trop. J’en avais entendu un petit peu parler mais plus j’ai creusé, plus je me suis aperçu que les business model du smartphone étaient quand même vachement liés à la collecte des données personnelles, surtout sous Android Google, où là on a plusieurs méga octets de données personnelles qui sont captées en permanence tous les jours, qui permettent de profiler les utilisateurs et leur vendre la pub plus chère. Mais aussi sur iOS finalement parce que iOS préinstalle Google Search et se fait grassement payer par Google pour ça. Donc au final j’ai réalisé à quel point ce monde merveilleux du smartphone, il était complètement pourri par son business model qui reposait sur la pub et que finalement ces outils là devenaient tellement présents dans nos vies, collectaient tellement de nos données personnelles qu’ils étaient vraiment en train d’installer un espèce de truc très malsain, où on échange une pseudo gratuité, ce qui est jamais le cas finalement, on te capte toutes tes données personnelles et pour en faire quoi? pour vendre la pub, mais peut-être pas seulement. C’est à dire que quand tu as des grosses boîtes à l’échelle de la planète qui collectent toutes tes données personnelles et qui deviennent très intimes, parce que c’est quoi? c’est ta localisation en temps réel, si t’as du Gmail, c’est tous tes mails, donc tes échanges de mails, c’est pas chiffré tout ça, ils le lisent en permanence, ils le scannent, les applis que tu utilises, comment tu les utilises, quand tu les utilises, tes recherches sur internet, ton historique de navigation, c’est toute ta vie quoi finalement. Et ça on le file en permanence à Google, Apple etc. Et moi, quand j’ai réalisé ça je me suis dit, il y a quand même un problème, parce qu’en théorie on est en démocratie, donc tout ça normalement il y a des garde-fous. Sauf qu’on sait jamais comment ça va évoluer, on sait jamais le pouvoir que ces sociétés privées peuvent prendre, est-ce qu’elles ne peuvent pas se faire hacker, qu’elles ne peuvent pas se vendre à des puissances, enfin je ne sais pas, à des dictatures, etc. Donc tout est possible.

Et moi, quand j’ai réalisé ça je me suis dit, il y a quand même un problème, parce qu’en théorie on est en démocratie, donc tout ça normalement il y a des garde-fous. Sauf qu’on sait jamais comment ça va évoluer, on sait jamais le pouvoir que ces sociétés privées peuvent prendre, est-ce qu’elles ne peuvent pas se faire hacker, qu’elles ne peuvent pas se vendre à des puissances, enfin je ne sais pas, à des dictatures, etc. Donc tout est possible.


Et ils ont nos données. Ces gens-là ont nos données, ont les données de nos enfants, etc. A l’échelle de la planète. Donc moi, ça m’a vraiment posé un très gros problème, et je pense que je ne suis pas le seul. Et là je me suis dit « bon je veux plus utiliser un iPhone du marché, ni Android ni un iPhone, je veux arrêter d’utiliser tous les Google Docs et tous ces machins là, tous les Gmail. Donc qu’est ce qu’on fait quoi? » Et quand j’ai cherché des alternatives, bon autant dans le web il y a 2-3 trucs, il y a des choses, mais sur le smartphone il n’y avait rien. FirefoxOS venait de mourir, alors il y avait Ubuntu Touch, mais qui n’était pas en très très grande forme non plus et il y a quelques projets mais finalement pour moi et puis et potentiellement pour mes proches et pour le grand public il n’y avait aucune alternative à iOS ou à Android. Et là je me suis dit, en informaticien et entrepreneur, je vais peut-être creuser la question : est-ce qu’on peut pas faire un truc, recréer une alternative ? Ce sont des idées un peu folles et je pense aussi que si je me la posais maintenant je me dirais « mais non ne fait pas ça c’est impossible ».

A l’époque j’ai réalisé assez vite que finalement toutes les briques qui sont nécessaires pour recréer cet écosystème mobile, aussi bien sur le smartphone que des briques de base du cloud, le mail, le calendrier etc, étaient déjà disponibles. Android est open source, on a des trucs comme Nextcloud, on a le mail, quasiment tout est disponible mais par contre il manque un truc c’est le liant en fait finalement. Parce que ce sont des briques qui sont assez disparates : elles ne sont pas faites forcément pour bien fonctionner les unes avec les autres. Et ça a été vraiment le début et l’idée de /e/OS : de se dire comment on fait pour rassembler toutes ces briques et recréer un produit qui soit agréable à utiliser, qui offre toutes les garanties en termes de protection des données personnelles et qui puisse être disponible aussi sur des smartphones, le plus grand nombre de smartphones du marché.

Donc c’est vraiment comme ça que le projet a démarré.

Walid : donc là tu dis qu’effectivement tu vas créer un projet. La première chose que j’aimerais te demander c’est d’où vient ce nom i? J’ai pas vraiment entendu d’explication donc j’aimerais bien que tu nous en dises deux mots. Et la deuxième chose c’est à partir du moment où tu décides de créer le projet, quelles sont les compétences dont tu as besoin pour commencer? Comment tu t’entoures? Où est-ce que tu trouves les gens avec qui tu vas travailler sur cette toute première mouture?

Gaël : alors sur le nom, c’est une grande histoire. Au départ le projet s’appelait EELO, c’est le nom sur lequel on a lancé le premier Kickstarter, qui a lancé le projet. Et puis pas de bol, je crois que c’est en juin 2018, ou peut-être en juillet, mais je crois que c’est en juin 2018, je reçois un mail d’une société hollandaise qui me demande d’arrêter d’utiliser la marque.

Au départ je me dis bon encore des emmerdeurs. Et puis je me renseigne auprès d’un avocat qui est spécialisé dans les dépôts, des noms de domaines, noms de marques déposées, tout ça. Et il me dit ouais attends parce que c’est quand même une grosse boîte, ils ont une marque déposée qui ressemble. Alors effectivement ils avaient déposé la marque EELLOO. Donc ça ressemblait. Et de fil en aiguille, on a essayé de négocier etc, ils étaient totalement inflexibles, ils n’ont rien voulu rien savoir. Parce que souvent on peut faire une cohabitation de marques en spécialisant les classes dans lesquelles on les dépose, mail ils n’ont absolument rien voulu savoir. Sachant qu’eux étaient dans les logiciels de ressources humaines, donc absolument rien à voir avec ce qu’on faisait, et à un moment mon avocat me dit qu’il venait recevoir un courrier qui, en langage d’avocat, disait qu’il n’y avait pas de négociation et qu’ils iraient jusqu’au bout, c’est-à-dire qu’ils mettraient les budgets qu’il faudrait éventuellement pour faire valoir leur droit à nom.

Donc c’était vraiment pas du tout un moment où je pouvais engager des moyens financiers pour me défendre là-dessus. On a juste arrêté et on a changé de nom, tout simplement. Et pourquoi / E / ? Je m’en souviens même plus trop. Cette décision-là s’est faite quasiment du jour au lendemain. On avait une espèce d’injonction avec une menace de devoir payer chaque jour si on n’arrêtait pas. Et je sais plus, c’était en discutant avec quelques amis, il y a ce nom qui est arrivé, une espèce de dérivé de EELO, et qui devait en fait être totalement provisoire. L’idée c’était de se dire voilà faut qu’on change de nom, bon ben il nous faut un truc pour demain. Bon on a ça ok et puis on réfléchit et puis dans un mois on met un nouveau nom. Sauf que ça a duré vachement plus longtemps.

Walid : Ça c’est le temporaire définitif.

Gaël : finalement le nom il a des inconvénients mais il a aussi un avantage. C’est à dire que l’inconvénient que c’est un truc un peu bizarre, / E /, quand on le tape sur un moteur de recherche, au début ça ne marchait pas trop, maintenant ça va.

Mais par contre si tu te tapes dans la barre de recherche d’un navigateur web, il va aller chercher ton /, donc c’est dans ton arborescence de fichier, et donc là ça ne va pas du tout. Mais par contre il a quand même un avantage, c’est que c’était tellement bizarre, tu vois c’est l’avantage de l’inconvénient, c’est que le nom est tellement bizarre que finalement il y a pas mal de gens qui ont commencé à dire « ouais ce nom est vraiment pourri et tout », et tout le monde en discutait dans la communauté des utilisateurs, il y en avait qui étaient pour, il y en avait qui étaient contre. La majorité était contre je dois dire, et à chaque fois on me demande, on me demande encore mais quand est-ce que vous changez de nom c’est pas possible quoi. Et finalement ça a quand même l’avantage de faire parler les gens et d’avoir une espèce de truc qui se passe quoi en termes de com, de buzz, et puis finalement on a introduit Murena parce que il nous fallait quand même une marque qui soit sécurisée.

Donc là elle est déposée aux US, machin, c’est assez bien bordé. On a Murena.com, donc ça c’est vraiment la marque commerciale. Et l’idée c’est que vraiment maintenant, les gens qui vont nous découvrir, ils découvriront les services en ligne Murena et les smartphones Murena. Et le smartphone Murena, ok il a /e/OS, c’est le nom de l’OS, c’est un truc technique comme il y a iOS, il y a MS-DOS, des noms un peu bizarres. Maintenant c’est moins grave et je pense que pour l’instant il n’y a pas de plan de modifier /e/OS parce que finalement les conséquences sont quand même vachement faibles vu qu’on a ce nom « commercial » qui s’appelle Murena. Ça c’était la question sur le nom et après je ne sais plus.

Walid : la deuxième question c’était de qui tu t’es entouré pour commencer ce projet?

Gaël : ah oui, ça c’est vachement intéressant. Et d’ailleurs, je ne sais pas si c’est toujours comme ça dans tous les projets, mais au départ j’ai démarré, j’étais vraiment seul. C’est-à-dire que j’étais dans mon coin, je testais des trucs, j’installais LineageOS, je modifiais LineageOS, je recompilais, etc. Et puis on a lancé un Kickstarter fin 2017, et l’idée du Kickstarter c’est un copain qui me l’a donnée parce qu’il en avait déjà fait un. Il m’a dit « ton idée elle semble pas mal mais je pense qu’il faut que tu la confrontes en fait ». Et en plus j’avais pas tellement d’argent à investir dedans à l’époque, pourquoi pas faire un kickstarter ? Et on a en un mois et demi, à deux, on a bossé sur ce kickstarter, on a créé du contenu vidéo, on a créé des photos, des animations 3D, un truc un peu dingue. Et fin 2017 on sort ce kickstarter avec l’idée de trouver 20 000 euros, ou 25 000, je ne sais plus, pour pouvoir commencer à payer peut-être un développeur.

Finalement, le Kickstarter a fait x4, in fine, parce qu’après on l’a prolongé sur Indiegogo. On a trouvé près de 100 000 euros et j’ai reçu plein de messages : un super retour de plein de personnes, de plein de pays du monde, qui me remerciaient pour le projet, qui m’encourageaient à le poursuivre parce qu’eux-mêmes cherchaient déjà des solutions alternatives à Android et Apple. Et ça, pour le coup, au début, j’avais une envie, mais là ça m’a conforté dans l’idée qu’il y avait sans doute un truc assez important finalement à faire, que je ne m’y prenais pas trop mal.

C’était vraiment le déclencheur, c’était ce Kickstarter, qui en plus a amené pas mal de visibilité en termes de presse. Par exemple, je crois qu’on a dû avoir France Inter, on a eu Le Point… En Inde, on a eu, je pense, le plus gros journal indien, l’équivalent du New York Times aux US, mais en Inde. Il a dû faire un article sur nous et donc il y a plein de développeurs indiens qui voulaient bosser pour nous d’un seul coup. Et tout d’un coup, il y a un truc qui se crée, une communauté sur juste une idée.

C’est ça qui est dingue, il n’y a rien, en fait. Il y a juste quelques dessins, une idée, un truc, « voilà moi je veux faire ça, je vais m’y prendre comme ça ». Et là tout d’un coup il y a un truc qui se crée, boum, et qui s’installe, et qui soutient le projet qu’on parle et ça fait plein de connexions. ça fait des gens qui veulent bosser sur le projet, qui nous présentent d’autres personnes, ça fait potentiellement des investisseurs. C’était assez incroyable comme moment et sur les besoins très rapidement j’ai dû trouver un développeur : ça paraît idiot ce que je vais dire, mais j’avais pas de doute sur notre capacité à pouvoir transformer LineageOS et le dégoogliser en fait, parce que j’avais vu qu’il y avait Micro-G qui permettait de faire des choses etc. Donc ça pour moi c’était presque un acquis, fallait juste qu’à un moment je trouverais un ingé, ou ça serait moi ou un ingé qui allait mettre les trucs ensemble.

C’est ça qui est dingue, il n’y a rien, en fait. Il y a juste quelques dessins, une idée, un truc, « voilà moi je veux faire ça, je vais m’y prendre comme ça ». Et là tout d’un coup il y a un truc qui se crée, boum, et qui s’installe, et qui soutient le projet qu’on parle et ça fait plein de connexions.


Par contre, il y avait un truc qui me tenait à cœur, c’était qu’au niveau de l’interface utilisateur, je trouvais qu’il y avait une déficience sur ce que je voyais. Donc je me disais, tiens, il va falloir qu’on recrée une interface utilisateur qui soit un peu meilleure. Et là, c’est vachement plus difficile parce que des développeurs qui sont suffisamment pointus en développement Android et qui ont suffisamment le sens de l’interface utilisateur, soit je m’y suis mal pris, mais j’ai eu du mal à trouver. Et c’était le premier développeur que j’ai engagé, c’était un indien qui a fait le premier launcher de /e/OS. Le reste ça s’est fait assez naturellement. Il y a eu quand même une belle rencontre au tout début, qui a été faite totalement par hasard, et c’est ça qui est fou et qui parfois me porte à penser qu’il y a peut-être un destin dans la vie. Assez vite j’ai réalisé à quel point Android c’est un truc tentaculaire, c’est énorme, c’est des gigas de code source, ça met 2h à compiler pour une machine. C’est bien pire que de compiler un noyau Linux, d’ailleurs on recompile le noyau Linux modifié pour Android quand on recompile une distribution Android. Et à un moment je me suis dit « oulala, entre le nombre de téléphones qu’il va y avoir à supporter, qui vont tous être différents avec des spécificités, toutes les versions qui vont se succéder, plus les différentes versions de base d’Android, on va vite avoir un très gros problème d’ingénierie logicielle ».

Voilà, maintenir une distribution Linux c’est déjà un truc assez colossal. Mais là c’était puissance… je sais pas, au moins puissance 2, puissance 3 quoi. Et par chance, début 2018, à la suite du Kickstarter, j’étais dans un endroit où c’était un peu la base opérationnelle du Kickstarter, et y’a quelqu’un qui frappe à la porte. Je sais même pas comment il m’a trouvé en fait. Il me dit voilà ma mère m’a montré un article, ça a l’air vachement bien ce que tu fais. Sa mère lui a montré un article ! Donc en fait sa mère elle lisait Ouest-France et dans Ouest-France on avait eu un bel article qui parlait du projet, qui expliquait ce qu’on allait faire.

Et donc il avait lu ça et il s’est dit « tiens ça a l’air vraiment bien ». Et le mec sortait d’études, il venait juste de finir ses études informatiques et il dit « moi je voudrais bien bosser » . Alors j’ai dit « ok mais tu veux faire quoi ? tu sais faire quoi ? » Il me fait « moi je suis plutôt développement web ». Il me semble que c’était ça : il montre son cv. Je fais « ok bon développement web ok pourquoi pas… » et puis on discute et à un moment il me fait « ouais aussi je connais assez bien Git et GitLab » et là je fais, « ah, intéressant! ».

Et finalement en fait, le mec, qui est toujours avec nous, c’est Romain, notre… maintenant qui dirige toute l’ingénierie de chez nous, il était super calé en Git et GitLab. C’était un peu sa passion. C’était un peu un maniaque du GitLab. S’il m’écoute à ce jour, il m’en voudra pas dire ça, mais c’est un peu ça. Il s’est avéré extrêmement bon, extrêmement pointu, pour justement mettre en place toute cette infra qui allait nous aider à gérer les sources, déclencher les compilations, etc. Intégration continue, etc. C’était je pense, je sais pas exactement, si j’avais pas fait cette rencontre à l’époque comment ça se serait déroulé autrement.

On aurait sans doute trouvé d’autres solutions, mais c’était un accélérateur finalement, parce qu’après le projet est vraiment parti sur des bonnes bases. On a jamais vraiment bricolé. Dès le début c’était un truc avec un esprit industriel, c’était carré : gestion des issues dans GitLab quand il y a des problèmes, des tickets, etc. Donc gestion de projet. C’était un truc que j’ai vécu en fait, au final je ne le recherchais pas nécessairement, mais ça a été un élément clé du début. Après ça a été plus trouver des développeurs, faire des entretiens, commencer à se financer aussi parce que mine de rien, même 100 000 euros au début ça part vite, ça part très très vite. Et puis il y avait aussi ma propre situation qui était un peu compliquée à gérer parce que j’étais dans cet incubateur accélérateur, celui qu’on avait co-fondé. Mais à un moment j’ai vite vu que ça me prenait tout mon temps et je n’arrivais plus à combiner les deux. Donc j’ai dû faire cette transition, ça a été un peu compliqué.

Pouvoir me financer aussi, ce n’était pas évident. En 2018 j’ai créé deux entités : la première c’était e Foundation. Donc e Foundation c’est une association sans but lucratif. L’idée de e Foundation c’est vraiment de se dire : on sait pas ce qu’il adviendra, on fait de l’open source, on veut que ça le reste, en tout cas que le cœur du projet reste open source. e Foundation c’est l’association sur le nom de domaine e.foundation qui propose le produit en open source : c’est la garantie que quoi qu’il advienne, il y aura toujours ce cœur open source, personne ne peut l’acheter. Et à côté il y a Murena, qui ne s’appelait pas Murena à l’époque, mais maintenant qui s’appelle Murena et qui est une société sur laquelle j’ai pu trouver des financements. A la fois des financements privés, des investisseurs type Business Angel, des subventions BPIFrance, des fonds privés qui aussi aident au développement des projets comme le nôtre. Ça, ça a permis de recruter davantage et je pense que, fin 2018, on devait déjà être 5-6 sur le projet.

Walid : Alors que je comprenne bien, eFoundation, c’est une association de loi 1901 ? Gaël : oui c’est ça. Walid : elle n’a pas de développeur ? Est-ce qu’elle a de la propriété intellectuelle ? Quel est son rôle en fait ?

Gaël : le lien c’est l’open source en fait. S’il n’y avait pas l’open source, je pense que ça serait très difficile. Mais il y a deux entités qui peuvent contribuer chacune sur le produit parce que c’est open source. Et donc si tu regardes dans notre GitLab, tu verras que parfois c’est marqué Murena, parfois c’est marqué e Foundation. Et e Foundation, si, parce que e Foundation a des ressources, parce qu’on a pas mal de personnes qui donnent au projet, parce que c’est open source, parce que voilà, on gagne parfois des projets, des appels à projets, en fait on pourra peut-être en reparler mais on a gagné un gros projet européen il y a pas longtemps.

Donc on a des ressources : on paye des gens aussi sur e Foundation, souvent plutôt de la sous-traitance, des indépendants, qui contribuent au projet de la même manière que Murana contribue au projet Open Source. Voilà, ça fonctionne comme ça.

Walid : Donc tu as deux forces de travail qui proviennent de deux entités différentes et qui contribuent au projet, c’est bien ça?

Gaël : exactement.

Walid : donc là, tu disais que vous êtes à peu près 5-6 personnes, donc c’est le nombre de personnes qui a contribué à la première version de /e/ ? Et d’ailleurs, cette première version, elle sort quand? Gaël : la première version bêta, elle sort en octobre 2018.

On est à 5-6 personnes et aussi des contributeurs, que je ne compte pas dans les 5-6 personnes. Ce sont 5-6 personnes en équivalents en temps plein. On a aussi des contributeurs et en particulier on a un contributeur majeur sur la partie cloud et infrastructure, un allemand, qui adore le projet. Il est toujours très supporteur du projet et nous a fait quasiment toute la première infra mail, la partie basée sur Nextcloud. Et voilà, sinon on n’aurait jamais pu la développer. Après il a passé la main et ça a été repris par l’équipe, une vraie équipe infra. Donc c’est 5-6 personnes plus, je ne sais pas combien, 5-10 contributeurs externes, plus des gens qui contribuent des traductions, plus des gens qui rapportent des bugs, des testeurs.

C’est un truc assez vertueux, assez communautaire, c’est assez typique des projets libres. C’est assez typique, mais on n’est pas un projet purement communautaire libre, comme Debian ne peut l’être. C’est quand même un truc un peu hybride entre des développeurs qui sont payés, salariés, et des contributions communautaires. L’open source permet tout ça, et je pense que c’est une des beautés de l’open source finalement : ça permet à des gens qui viennent d’horizons différents de travailler sur un projet commun de manière assez sereine.

Walid : Donc en cette première version bêta elle sort, elle est disponible sur combien de téléphones ? Quels sont les premiers retours là à ce moment là comment ça se passe pour vous?

Gaël : ça se passe plutôt bien en fait j’étais j’étais presque surpris qu’on puisse sortir une version bêta en octobre 2018 parce qu’il y avait pas mal de boulot à faire. On est parti de LineageOS, qui était déjà une version d’Android qui tournait sur beaucoup de téléphones. On n’était donc pas tellement limité en terme de modèles de téléphone parce que c’était déjà ça c’était déjà prêt. Par contre il y a quand même eu tout ce travail préalable de « on enlève tous les appels à Google y compris dans les couches basses, les DNS par défaut, tous ces trucs là, on met Micro G par défaut, puis réassembler le tout, puis recompiler ensuite ». Donc il y a quand même un très gros effort derrière, mais on a pu sortir, je sais pas, peut-être pour 20 ou 30 modèles dès le début. C’était pas trop bloquant finalement, grâce à la communauté LineageOS, ça je le reconnais volontiers. Donc ça a été plutôt bien reçu à l’époque, parce que ça ne marchait pas mal. Et puis il y avait ce truc un peu unique qui est la synchro entre le téléphone et le cloud, pour ceux qui le souhaitent, parce que c’est toujours un sujet un peu… pas toujours très simple. On vous propose tout l’écosystème finalement : ce n’est pas que le téléphone, ce n’est pas que le cloud, c’est un ensemble, téléphone plus cloud : vous êtes chez vous, c’est vos données, on y touche pas, toutes les garanties. Et ça marchait pas mal : après le kickstarter c’était le deuxième démarrage du projet. Il y a eu aussi toute cette phase, je me rappelle maintenant, avant qu’on sorte un truc, où il y avait quelques personnes qui disaient que c’était que du vaporware, qu’il allait rien se passer, etc. Mais j’ai déjà connu ça avant, donc ça m’a pas trop stressé. Et puis, à un moment, tu sors le truc. Le truc fonctionne, les gens sont plutôt contents, ceux qui le testent. Voilà, maintenant on passe à autre chose. On est un vrai projet, on existe, maintenant il faut itérer, il faut améliorer les trucs.

Walid : c’est très malin de commencer par un Kickstarter parce que si tu fais bien ton Kickstarter, et moi je l’ai vécu dans une des boîtes : on avait fait un projet qu’on avait fait financer par Kickstarter. Si tu fais bien ton projet, tu as accès à de la publicité et de la notoriété que tu ne pourrais pas te payer. Et donc c’est un vrai accélérateur si ça fonctionne bien. Donc là, tu as une première communauté qui se crée avec des utilisateurs et des gens qui vont tester le produit. Tu dis que tu cherches des investisseurs : quel modèle économique tu leur proposes à ces investisseurs?

Gaël : Les investisseurs à l’époque c’était ce qu’on appelle des Business Angels (BA) et en général ils t’embêtent pas trop, surtout au début. Ils voient juste qu’il se passe un truc, qu’ils ont envie d’en être, donc ils t’embêtent pas trop sur le modèle. Et ça tombait bien parce que moi je n’avais pas de modèle économique, je savais pas. En fait il est venu naturellement : on s’est posé la question, est-ce qu’on pourrait vendre le système à des fabricants de téléphones ? Mais la réalité c’est que l’écosystème du monde du téléphone, du smartphone est totalement bloqué par Android ou par Apple, iPhone, etc. de l’autre côté. Mais ils veulent absolument être certifiés Android de Google : c’est un truc qui est complètement invincible. On a tout de suite vu que ça serait assez compliqué en tout cas au début. Par contre que dans la communauté comme on avait déjà des utilisateurs des gens qui s’intéressent au projet, certains installaient le système eux-mêmes sur un téléphone et puis on avait des personnes qui soit n’avaient pas les compétences techniques pour le faire, soit avaient peur de le faire parce que il est vrai que quand on installe un système comme ça sur un smartphone il y a toujours un risque de bricker le téléphone (le bloquer complètement) si ça se passe pas bien. Et puis d’autres personnes aussi n’avaient pas le temps de le faire. Donc très vite on a reçu deux types de demandes. Il y en avait qui voulaient nous envoyer le téléphone et qu’on fasse le boulot d’installation qu’on leur envoie, quitte à payer un peu d’argent. La deuxième demande c’était « mais je suis prêt à vous acheter un téléphone avec /e/OS en fait : qu’est-ce que vous avez, qu’est-ce que vous pouvez faire? » Et donc on a testé les deux. Le premier ça a pas du tout marché.

On a commencé à recevoir des téléphones qui étaient dans des états très très différents les uns des autres. Il n’y avait rien de carré : parfois on ne pouvait même pas les débloquer ! On n’avait pas le code PIN, on n’avait rien. Donc il fallait redemander, des échanges sans fin… Parfois ils arrivaient dans des états lamentables : l’écran fêlé, la batterie gonflée, on a tout vu. Et les quelques téléphones qu’on a flashé, qu’on a pu envoyer, il y a quelqu’un qui a dû y passer deux jours sur chaque téléphone. Donc deux jours de travail pour un ingé aller à 20-30 euros de l’heure, c’est le modèle économique qui ne marche pas du tout. On ne peut pas faire payer 1000 euros à un client pour lui installer un OS.

Donc ça on a abandonné parce qu’on a vu que ça n’allait pas fonctionner. Et pour le coup on favorise plutôt les install parties : on encourage vachement ça. Faites des install parties, on vous filera un coup de main, éventuellement on vous envoie des goodies. L’autre, ça s’est passé différemment : en 2019 mais je crois que c’est vers juin, il y a quelqu’un qui me présente Recommerce. Recommerce c’est une grosse boîte de reconditionné en Europe : ils reconditionnent essentiellement des Iphone et des Samsung, si ma mémoire est bonne. Un des boss de Recommerce avait entendu parler du projet et il trouvait ça super. Et là ils nous invitent, en fait, ils m’invitent à aller visiter leur locaux dans le sud de Paris. On discute, et assez vite, moi je leur explique ce qu’on fait. Naturellement, on en vient au sujet du smartphone : ils ont des smartphones, j’ai un OS, enfin un fit de valeur qui fonctionnait pas mal ! Une belle histoire à raconter. Très vite on a sélectionné deux ou trois modèles : le S7, le S8, le S9 : les Galaxy de Samsung qui pouvaient avoir un volume assez important (c’est à dire quelques dizaines par semaine, c’est pas beaucoup). Puis on a organisé tout un truc pour flasher les téléphones : au départ c’est eux qui flashaient chez leur prestataire logistique, donc on avait développé un outil qui permettait de flasher les téléphones dans l’usine du prestataire. Et puis ça a démarré comme ça, donc je pense vers fin de l’été 2019, quelque chose comme ça. On a commencé à vendre des smartphones reconditionnés sur notre site, tout bêtement. Et ça s’est finalement tellement bien passé, qu’assez rapidement on n’avait pas assez à vendre en fait. On avait la demande qui excédait l’offre. Donc ça a été un super moyen de démarrer. Et je pense que le reconditionné on en refera, enfin on en ferait encore un petit peu d’ailleurs, mais pas sur les Samsung.

Mais par contre très vite il s’est posé la question de comment est-ce qu’on peut augmenter les volumes : et là le reconditionné ça ne marchait pas parce qu’il y avait des semaines où on ne recevait que 5 téléphones alors qu’on aurait pu en vendre 50. Finalement au départ c’était le business model qui s’est imposé, c’est presque comme vendre des boîtes de petits pois, mais sauf qu’on met des petits pois de super bonne qualité dedans, pas des petits pois sucrés dégueulasses.

Walid : je me permets de te couper parce que je trouve ça assez marrant, moi-même je travaille dans le reconditionné et tu t’aperçois que les problématiques sont les mêmes : l’accès au gisement c’est vraiment la clé. Si tu n’as pas l’accès au gisement d’appareils reconditionnés, et bien en fait ton modèle ça marche pas très bien.

Gaël : ah ouais tu peux te faire limiter, c’est clair. Mais heureusement on a trouvé des solutions pour résoudre ça après.

Walid : alors ça m’amène à ma question suivante qui est : à partir de quand est-ce que vous rencontrez Fairphone ? Et d’ailleurs est-ce que Fairphone c’est la première marque avec laquelle vous travaillez ou est-ce qu’il y a eu d’autres marques avec lesquelles vous avez travaillé avant sur le sujet ? Comment ça se passe cette première rencontre ?

Fairphone 2 avec /e/OS
(source : fairphone.com)

Gaël : Alors ça commence à faire quelques années mais je pense que j’ai essayé de rentrer en contact avec plusieurs fabricants. Il y a eu un très gros fabricant que je ne nommerais pas, mais pour le coup on a vite compris c’était pareil : ça allait aboutir difficilement. Et surtout, sans doute, peut-être dans un an ou deux, parce qu’avec des boîtes comme ça, ils ont des cycles qui sont complètement dingues. Quand t’es une start-up qui essaye juste d’avancer, de survivre, tu ne peux pas te permettre ça. Et Fairphone, c’est pareil, c’est un espèce de truc de destin. C’est assez… pile au moment. On commençait à se dire qu’il faut vraiment qu’on trouve une solution parce qu’on n’a pas assez de téléphone à vendre. Et je me retrouve à un workshop organisé par la commission européenne à Bruxelles, un workshop open source où il y avait pas mal de gens d’un peu partout en Europe qui étaient dans le monde open source, ou pas loin du monde open source, qui en aient discuté de plein de sujets. Et là le midi, on te distribuer des sandwichs à la commission européenne c’est vachement frustrant, tu vois, t’as des sandwichs…

Et là je tombe nez à nez avec Agnès, Agnès Crépet, qui bosse chez Fairphone et que je connaissais juste de nom avant. Mais je ne l’avais jamais rencontré. Sachant que moi j’avais déjà pingué Bas (Van Abel), le fondateur de Fairphone, plein de fois sur LinkedIn. Tu sais, un gros appel du pied, mais ça avait pas pris quoi. Et là avec Agnès tout de suite le courant passe bien. En plus Agnès est une nana qui a le contact facile, elle est très sympa. Et puis elle me dit un truc du genre « oh mais de toute façon on vous connaît déjà parce qu’on a des utilisateurs du Fairphone 2 qui nous disent : mais pourquoi sur Fairphone vous mettez Android de Google, pourquoi vous mettez pas /e/OS plutôt ? c’est beaucoup plus vertueux ». Donc je lui dis « bah écoute, si tu veux on peut peut-être envisager des trucs ». Après elle organise un meeting Amsterdam et on rencontre Eva, leur CEO à l’époque.

Eva très pro, au départ : « pas sûr que notre board voudra », enfin c’est bien parce que pour moi c’est carré, c’est franc. Tu ne te fais pas des illusions, des fausses joies. Et donc ça a pris un petit peu de temps quand même, mais pas de tant que ça. Et puis ils nous disent « bon on va faire un test mais d’une manière très pragmatique, c’est à dire qu’on va vous filer un petit coup de main pour que vous puissiez porter /e/OS sur Fairphone 3 » qui allait sortir ou qui venait de sortir, je ne sais plus exactement. Il n’était pas supporté par LineageOS, et puis on fait un deal tout simple : « on se met d’accord sur un prix, vous nous achetez des téléphones et puis après vous faites ce que vous voulez, vous les flashez et vous les revendez ». Ça a vraiment démarré comme ça. Donc on a eu un effort de développement : je crois qu’il y a deux mois ou trois mois pour porter /e/OS sur Fairphone. C’est la première fois qu’on portait sur un nouveau téléphone. Au départ je me disais, « wow, est-ce qu’on va y arriver? » Et finalement ça s’est plutôt bien passé. Au mois de juin 2020, en plein confinement, j’ai commencé à flasher avec ma fille, les premiers Fairphone à la maison, qu’on recevait par un carton de 50. C’était assez épique. Et puis assez rapidement, on a mis ça en vente et ça a super bien marché. Je pense qu’il y a vraiment un couple entre le matériel Fairphone qui est plus vertueux, qui est plus durable, et un OS qui est beaucoup plus respectueux des données personnelles comme /e/OS. C’est vraiment comme ça que ça a démarré. Après, on a continué avec le Fairphone 4, maintenant le Fairphone 5.

Fairephone 4 avec /e/OS (source : fairphone.com)

Walid : dans son interview, Agnès disait que chez Fairphone ils vendent autant de Fairphone avec /e/ que de Fairphone chez Orange. J’étais assez surpris parce que moi naïvement je pensais que /e/ c’était plutôt un OS qui était fait pour des gens qui étaient un peu techniques, qui n’avaient pas peur de flasher leur téléphone, etc. Et en fait, pas du tout.

Gaël : non, non, pas du tout. C’est l’objectif aussi, ça a toujours été mon objectif. Je ne voulais absolument pas faire un OS réservé à des gens qui ont un savoir faire. Je veux vraiment que le truc puisse être utilisé par n’importe qui sans aucune connaissance spécifique technique. Mais je suis heureux qu’Agnès l’ai dit, comme ça je peux aussi en parler. Il semblerait qu’on vende autant de Fairphone en France que Orange. Pour rebondir sur le côté utilisateur final, on a 2 ou 3 types d’utilisateurs qu’on a identifié : on a des gens qui sont très inquiets sur le côté données personnelles, c’était un peu notre cœur, le cœur du truc au départ.

On a aussi beaucoup de gens dans l’open source qui se disent « ah ouais c’est vraiment l’OS mobile qui est vraiment totalement open source. Bon moi je peux installer à la limite ce que je veux quoi, Ubuntu Touch ou plein d’autres trucs. Bon par contre pour mes amis ou pour ma famille », et on en voit plein en fait, au capitole du Libre il y a des gens qui viennent nous dire, « moi j’utilise GrapheneOS parce que voilà quoi, par contre pour toute ma famille je leur met /e/, ils sont super contents quoi. Et ça marche très bien, il n’y a pas de gros problèmes ». Pour moi c’est une bonne satisfaction parce que vraiment cette ambition de vouloir apporter un système qui soit vraiment vertueux et qui puisse être utilisé par le plus grand nombre, ça fonctionne. Ça fonctionne vraiment et même chez moi, pour le coup, même ma compagne, je ne l’ai jamais forcée, évidemment elle sait ce que je fais mais je ne l’ai jamais forcée. Pour la première fois, elle a acheté elle-même son téléphone en ligne. Moi je lui disais que je ne voulais pas lui en filer un, je ne voulais pas m’en occuper, je ne voulais pas faire de S.A.V. tout ça. Elle l’a acheté toute seule, voilà, elle a dit un jour : « moi j’ai acheté un téléphone chez toi ». « Ah ok ». Et au final ça se passe super bien, elle l’utilise tous les jours, elle est enseignante, elle est pas du tout dans l’informatique. Ma fille qui a 19 ans aussi l’utilise tous les jours, c’est pareil, elle n’est pas du tout dans le monde technique.

Et voilà, donc pour moi c’est la meilleure preuve que ça peut fonctionner pour le plus grand nombre et c’est cool.

Walid : Alors pour finir sur le sujet du modèle économique, comment est-ce que vous financez maintenant?

Gaël : comment on se finance maintenant? Alors déjà on fait du chiffre d’affaires, donc ça c’est le truc le mieux pour se financer, aussi bien sur les téléphones que la partie dont on a un peu moins parlé mais c’est le cloud. On a 100 000 comptes qui ont été ouverts sur murena.io, et dans ces 100 000 comptes évidemment il y en a qui sont plus ou moins actifs. Dans ceux qui sont actifs il y a des gens qui l’utilisent vraiment tous les jours : et à un moment ils veulent plus de stockage. Donc ils prennent des plans chez nous : on a des plans selon le stockage disponible entre 2 ou 3 euros par mois, 20 ou 30 euros par mois. Je crois que c’est quelque chose comme ça, donc ça ça fait du chiffre d’affaires.

Alors c’est les petits ruisseaux qui font les grandes rivières. Parfois on se refinance auprès des investisseurs, mais on a aussi des aides, BPIFrance par exemple, des subventions. On a aussi d’autres fonds, je pense à des fonds comme SIDN, c’est un fond hollandais qui est issu du monde des vendeurs de noms de domaine. Ils ont pas mal d’argent, je pense, et ils aident des projets comme les nôtres parce qu’ils pensent que ça va dans le bon sens, en fait, c’est freedom of internet, etc. On gagne aussi parfois des projets : il y a plein d’appels à projets, souvent à plusieurs. L’Europe est très supportrice de l’open source aujourd’hui. Ils donnent beaucoup d’argent en subvention sur des projets open source parce qu’ils ont compris, je pense, que si on veut récupérer de l’indépendance sur les sujets du logiciel, du numérique, etc., dans la situation actuelle, il n’y avait pas tellement d’autres solutions que de basculer à l’open source, de favoriser l’open source, l’émergence d’un écosystème qui soit européen.

Donc aujourd’hui ils donnent beaucoup d’argent. Et voilà, on se finance un peu comme ça : de différentes manières, différentes sources.

Walid : vous êtes combien en tout maintenant à travailler sur le projet en personne payées ?

Gaël : on est un peu plus de 40, 42, 43 je crois. Un mix de salariés et d’indépendants. C’est pas forcément très connu, mais on n’a aucun bureau. On est totalement en télétravail, tous en télétravail depuis toujours, ce qui nous a permis d’ailleurs de passer les mois de pandémie de manière assez sereine parce que notre activité s’est jamais arrêtée. Et donc on a des gens un peu partout. Le noyau dur c’est la France évidemment, on a d’autres personnes en Europe et puis on a aussi des gens en Inde, on a notre designer Andros qui est au Brésil. Donc on est vraiment un projet décentralisé. Tous ceux qui sont pas en France on peut pas les salariés donc ils ont des contrats de prestation en fait mais c’est comme des salariés.

Walid : alors passons à la partie sur la vie privée. Ce que je voulais savoir c’est comment ça se passe ces problématiques de vie privée sur le projet. Est-ce que vous avez des chercheurs qui auditent votre code, est-ce que vous avez des gens qui font des audits de sécurité ? Puisque c’est vraiment quelque chose d’hyper important pour vous, comment ça se passe?

Gaël : Il y a un point essentiel dans ce qu’on fait, je pense, c’est qu’on est open source. Tout ce qu’on clame, toutes les promesses qu’on fait, on ne peut pas venir nous dire que ce n’est pas vrai. Alors soit ce n’est pas vrai, mais à ce moment-là, on va pouvoir le corriger. C’est-à-dire que comme c’est open source, n’importe qui avec un niveau d’expertise suffisant va pouvoir vérifier que ce qu’on dit, si c’est vrai ou pas.

Il y a un point essentiel dans ce qu’on fait, je pense, c’est qu’on est open source. Tout ce qu’on clame, toutes les promesses qu’on fait, on ne peut pas venir nous dire que ce n’est pas vrai


Et nous, nous misons beaucoup là-dessus, notamment par rapport à Apple. Alors, Apple, ce n’est pas vraiment un concurrent. De toute façon, Apple, c’est une marque de luxe, c’est comme si je me comparais à Dior ou à Chanel. La réalité, c’est quand même qu’autour de leurs produits, ils font beaucoup de marketing autour de la protection des données personnelles. Ce que j’ai envie de dire, parce que parfois on vient nous dire, « oui, mais mon iPhone, déjà ton iPhone il vaut 1000€, et puis deuxièmement c’est un produit de luxe, et puis troisièmement ce que Apple raconte sur la vie privée, déjà si tu creuses un peu, tu vas voir que dans les détails, ce n’est pas aussi simple que ça, pour plein de raisons. Je ne sais pas si c’est le moment d’entrer dans ces sujets là, mais ils sont capables de détecter des contenus qui ne seront pas appropriés, par exemple, même si c’est chiffré. Et puis en fait, le chiffrement de bout en bout dont on parle souvent, finalement il est disponible que sur certains services, mais pas sur tous les services d’Apple. Et puis finalement la grosse question par rapport à Apple, c’est soit ils croient, soit ils croient pas. C’est un peu comme une religion, parce qu’Apple, ils ne sont pas du tout open source. Donc à moins de faire des audits techniques très poussés, soit tu les crois, soit tu ne les crois pas. Et nous, c’est différent, nous, on a le code source, il est public. Tu vas sur gitlab.e.foundation et tu trouves tout le code source de ce qu’on fait, y compris sur la partie cloud, et là tu peux faire auditer comme tu veux. Certains ne s’en privent pas. On a eu parfois des gens plus ou moins bien intentionnés d’ailleurs, je tiens à le dire, qui sont allés voir, aller fouiller ce qu’on faisait. Enfin fouiller, ce n’est pas péjoratif, ils sont allés vraiment mettre le nez dedans, creuser pour essayer de trouver, mettre le doigt où ça fait mal. Parfois, ils ont mis le doigt où ça faisait mal. Il y a eu il y a 2-3 ans des trucs que des experts en sécurité ont trouvé dans /e/OS qui n’étaient pas au point. Enfin, des trucs qui ne fonctionnaient pas comme ça devrait. Parfois, il y a aussi des bugs, parfois, il y a des régressions, ça arrive. Mais on les adresse, c’est-à-dire qu’une fois qu’on nous remonte le truc, on vérifie est-ce que c’est vrai, est-ce que ce n’est pas vrai, et si c’est vrai, on met un effort de R&D dessus et puis on le corrige. Ça, c’est le premier point. Et puis la deuxième chose, c’est qu’on a aussi, par chance, des universités qui sont intéressées à ce qu’on faisait, et en particulier l’université de Dublin en Irlande et d’Édimbourg en Grande-Bretagne, qui ont des gens qui travaillent beaucoup sur les sujets de la protection des données personnelles. Ils ont fait des comparatifs entre les OS et ils ont regardé notamment ce qui passait sur le réseau, sur les appels à Google. Ils ont validé que /e/OS aujourd’hui c’est quasiment le seul système d’exploitation mobile qui par défaut n’envoie aucune donnée chez Google ou chez le constructeur.

Donc, on a aussi cette validation-là. On a aussi des audits de sécurité, moins sur l’OS mais plus sur le cloud, que nous commandons nous-mêmes et que nous payons à des sociétés de sécurité. Voilà, donc c’est un mix.

Walid : maintenant, je voudrais qu’on passe sur le sujet des smartphones, qui fait suite à la discussion que j’ai pu avoir avec Agnès sur Fairphone. Je voudrais que tu nous expliques comment et quand vous en êtes arrivés à l’idée de vous dire que vous alliez faire vos propres smartphones ? Gaël : ça, c’est toujours aussi la question du volume de ce qu’on peut fournir, pourquoi pas Fairphone ? parce que Fairphone, on n’a pas trop de contraintes sur les volumes. Je pense que plus on en vend, plus ils sont contents. Mais je vais dire un truc qui ne va pas leur faire plaisir, mais je leur ai déjà dit, donc ça ne va pas être une surprise : les Fairphones, ils sont chers, en fait, ils sont très chers. Et donc, ok, il y a des gens qui peuvent se les payer, puis il y en a d’autres qui ne peuvent pas se les payer.

Moi, j’ai toujours quand même cette volonté que les smartphones sous /e/OS soient disponibles pour le plus grand nombre. Tu peux sans doute trouver un Galaxy S9 d’occasion et puis le flasher toi-même, ça n’a pas coûté très cher.

Walid : C’est exactement ce que j’ai devant moi, j’ai un S9 que j’ai acheté reconditionné et que j’ai flashé moi-même, mais il faut savoir le faire.

Gaël : voilà, il faut savoir le faire, c’est toujours la limite du truc. Pour les gens qui n’ont pas trop les moyens mais qui voudraient quand même avoir un smartphone avec /e/OS, aujourd’hui c’est quoi la solution ? Tout le monde ne peut malheureusement pas s’acheter un Fairphone 4 ou 5 donc il nous fallait aussi des téléphones un peu plus entrée de gamme tout simplement. Donc on a pu le faire avec Gigaset sur un modèle le GS290. Puis à un moment on a eu cette opportunité de lancer notre propre marque donc le Murena One, qui est sorti l’année dernière au mois de mai, et qui est disponible à un prix beaucoup plus abordable. Par contre effectivement il est moins vertueux que le Fairphone dans le sens où il n’est pas conçu pour être vraiment durable comme un Fairphone. C’est dommage mais bon c’est une première version. A l’avenir on essaiera de faire mieux. Mais il nous fallait, et je pense que même dans notre stratégie c’est important aussi qu’on puisse avoir la main sur notre propre matériel, avoir un truc un peu aussi de référence, accessible pour pas trop cher. Et puis il a plutôt bien marché même si ce n’est pas un téléphone haut de gamme, mais il fait le job. Il a un écran qui est très correct, il est relativement rapide. On a réitéré avec le Murena 2 cette année : on vient de finir une campagne de financement participatif avec une petite nouveauté. C’est que le Murena 2, il a deux petits switchs sur les côtés qui permettent de couper physiquement le micro, la caméra, et puis l’autre c’est un switch logiciel qui permet de couper tous les accès réseau. On trouvait ça assez rigolo de raconter une histoire autour de ça. Ca un côté utile parce que clairement aujourd’hui même si nous on fait un OS qu’on contrôle et qu’on maîtrise, on n’est pas à l’abri qu’un jour il y a une application qui soit téléchargée, qui ait accès au micro à la caméra, des malwares, des virus ça peut arriver aussi. Et donc ce truc là c’est vraiment la garantie que si tu achètes le Murena 2 aujourd’hui, si à un moment tu veux être sûr qu’il ne va pas t’écouter, qu’il ne va pas ouvrir ta caméra, et bien tu vas le faire et tu as la certitude absolue, parce que ça coupe le circuit de la caméra et du micro. Et ça on est en train de le lancer aujourd’hui. On est en train d’expédier aux premiers backers du Kickstarter. Et voilà, donc en fait l’idée c’est qu’on ait vraiment une gamme quoi, à la fois des téléphones Fairphone du marché, ça rassure parce qu’il y a des gens qui veulent être rassurés, donc Fairphone ça les rassure, et puis notre propre gamme qu’on développe sous notre nom.

Murena 2 (source : murena.com)

Walid : alors si on rentre un peu plus dans le détail, je me demandais si vous étiez passé par un ODM, ce qu’on appelle un original device manufacturer, donc une société que tu vas avoir avec ton design et qui va te faire fabriquer ton téléphone, est-ce que c’est bien le cas pour vous ? Comment ça s’est passé ?

Gaël : on n’en est pas encore tout à fait là parce que quand on va avoir un ODM il faut s’engager sur des volumes qui sont aujourd’hui encore trop importants par rapport à notre taille. Donc en fait on passe par un intermédiaire qui travaille avec des ODM, et l’intermédiaire lui trouve des clients qui ont des besoins un peu similaires ou approchants. Ils font un téléphone sur certaines specs et après ils reparlent à leurs clients potentiels et leur disent « voilà on a ce téléphone est-ce que ça vous intéresse etc combien vous en voulez ? » Nous pour l’instant avec le Murena 1 et le 2 on travaille comme ça parce que les commandes qu’on fait c’est quelques milliers grand maximum. Un ODM aujourd’hui si tu vas le voir en dessous de 20 000 ou 30 000 unités il va pas te faire un design original éventuellement il va faire comme notre intermédiaire c’est à dire Il a déjà un modèle sur étagère et il peut te le rebrander sur 2000-3000 unités.

Nous c’est comme ça qu’on fonctionne. L’avantage c’est qu’on peut quand même avoir accès aux sources du cœur Android qui est testé sur ce matériel-là pour le développer. Donc ça facilite le développement et ça permet de mieux maîtriser les choses. Aujourd’hui c’est comme ça qu’on fonctionne.

Walid : donc finalement vous avez juste besoin qu’ils vous fournissent le matériel et les sources ? Vous n’avez pas besoin de support logiciel chez eux puisque dans tous les cas c’est vous qui allez maintenir l’OS, c’est bien ça ?

Gaël : ça dépend. Sur l’OS en général c’est vrai : sur les couches très basses on a du support logiciel quand même. Parfois il y a des trucs, nous, qui soit échappent à notre champ de compétences, soit on n’a juste pas accès à certains trucs. Typiquement un réglage de focus de caméra : nous on s’aperçoit que sur une lentille il ne marche pas bien. On se retourne vers le prestataire et puis lui il travaille avec l’ODM pour régler le problème et nous fournir une mise à jour. Donc ça peut être des trucs très liés au hard en fait. Là nous on ne peut pas aller si profond, on dépasse un petit peu notre champ de compétences.

Mais sinon oui, on a la main sur l’OS, totalement.

Walid : ce que disait Agnès, c’est que typiquement sur le Fairphone 3, ils n’avaient pas très bien négocié certains contrats, ce qui fait qu’il y a certains composants sur lesquels ils ont eu des problèmes sur le support au passage de versions d’Android. Donc ma question c’est, combien de temps vous, vous pouvez vous engager à maintenir le téléphone et à pouvoir monter les versions ? Comment est-ce que ça se passe pour vous ?

Gaël : Ça c’est un peu la limite du modèle. Je pense que ce dont on parle Agnès, c’est le support logiciel sur les firmware, notamment typiquement le modem.

Le capteur d’empreintes digitales, par exemple, c’était l’exemple qu’elle avait donné. Il y a deux choses, tu as l’OS et puis il y a toutes ces couches très bas niveau. Donc là clairement c’est la limite de notre modèle, c’est que nous, les petits firmwares qui servent à exploiter la caméra, le capteur d’empreinte digitale ou même le module NFC, on n’a pas la main dessus. Ça, ce sont des composants propriétaires. Malheureusement dans le monde du smartphone, c’est la norme, on n’a pas le choix, on le subit. J’espère qu’un jour on trouvera un moyen d’adresser ce problème mieux, mais aujourd’hui là, on est complètement bloqué. Après ça dépend comment tu travailles. Le problème, je pense auquel qu’elle allait faire référence, c’est d’avoir éventuellement un firmware qui ne va plus fonctionner parce qu’ils ont une version d’Android qui est trop restreinte, soit qui va fonctionner mais est un peu dépassé. Pour l’instant, on n’a jamais trop vu ce problème et on continue de pouvoir faire vivre des téléphones qui sont anciens, y compris le Fairphone 2 qu’ils ont arrêté de supporter en avril : nous on continue de le supporter. Après clairement, sur des modèles vraiment très anciens comme ça, tu vas avoir l’OS qui peut être assez à jour, même peut-être très récent, très fonctionnel, mais tu peux avoir dans les couches basses des firmwares qui vont être assez anciens. Potentiellement, il peut y avoir des questions sur les mises à jour de sécurité qui seront anciennes, etc. Donc il peut y avoir ce genre de questions là.

Mais tu as quand même un téléphone qui peut continuer à vivre, quoi. Et pour beaucoup de personnes, c’est quand même important. Pour le développement durable, c’est aussi important. Nous, on essaie de jongler avec tout ça. Et je ne crois pas qu’on était bloqués, en tout cas pour l’instant. On verra avec le Fairphone 3 comment ça se passe. Vraiment, tu vois un truc qui arrête de fonctionner parce que le firmware est trop vieux ou ce genre de choses.

Walid : moi-même, j’ai découvert /e/ parce que je l’ai installé sur un Moto E 2017, un vieux téléphone. J’ai flashé le téléphone avec /e/ et là j’ai été hyper impressionné : le téléphone est devenu hyper rapide et je m’en sers toujours comme mon téléphone de backup. Dernière question sur ce sujet là : qu’est-ce que le Murena One vous a appris en termes de retour d’expérience ?

Gaël : alors le Murena One, on a rencontré des soucis, qu’est-ce que ça nous a appris ? Bonne question. Peut-être que sur un projet comme ça, il ne faut vraiment rien laisser au hasard, c’est-à-dire qu’il faut que le truc soit bordé mais vraiment sur tous les sujets. Ce qu’on a remarqué c’est que sur le portage du Murena One, quand on a porté /e/OS sur le matériel Murena 1, ça a été relativement rapide, ça prend un mois, un mois, un mois et demi, ça dépend. Et là, à un moment, t’as l’impression que tout fonctionne, c’est-à-dire que le téléphone il démarre, t’as l’écran, le touch screen il fonctionne, t’as le son, t’as la Wi-Fi, la SIM ça a l’air de marcher, tout ça.

Murena One (source : murena.com)

Et là, tu te dis c’est cool, ça y est, c’est bon, c’est fait. Sauf que, si tu pousses tes tests un tout petit peu plus loin, en profondeur, tu vas souvent commencer à rencontrer des problèmes sur un truc particulier. Par exemple, Bluetooth ça fonctionne. Ah oui mais par contre, j’ai testé sur des AirPods audio, le Bluetooth audio, et là ça ne marche pas, le son ne fonctionne pas. Là tu te dis, « ah bah merde, c’est con, parce que le Bluetooth il fonctionne, le truc, la connexion elle se fait, par contre le son il ne passe pas, il n’arrive pas ». Finalement, je n’ai pas fini le boulot, je ne suis pas allé jusqu’au bout du boulot. Tu as l’impression que ton effort de portage est intense au début et qu’après c’est ok, mais en fait non c’est pas exactement ça, c’est que tu as un gros effort à faire au début pour que ça fonctionne, après tu as un espèce de plateau où tu vas continuer à développer, à améliorer des trucs, à faire progresser ton produit. Et à la fin pour aller vraiment à une qualité acceptable, pour mettre sur le marché un produit pour un utilisateur qui n’en a rien à foutre, ils veulent juste que ça marche, c’est normal, là tu as encore un énorme effort à faire pour finir tous les petits détails et parfois revenir vers ton partenaire technique, l’intermédiaire de l’ODM, et lui dire « bah oui mais là sur la deuxième lentille, le focus il marche mal ou il faut être à 3 mètres minimum », etc., et rentrer dans ce genre de détails pour que in fine tu sois à peu près sûr que 99% des fonctionnalités vont fonctionner comme attendu. On en avait un peu conscience avant, mais avec le Murena 1 c’était vraiment une grosse prise de conscience qu’il faut prévoir presque 6 mois pour un lancement.

Walid : vous ne pouvez pas faire des tests unitaires là-dessus en plus, c’est compliqué, c’est forcément de l’humain qui va devoir tester ?

Gaël : c’est ça et puis avec une explosion combinatoire des cas possibles parce qu’un truc tout con mais parfois tu vas avoir un téléphone qui fonctionne très bien avec une SIM Orange et puis tu vas t’apercevoir que tu as un client qui utilise une SIM Bouygues et que, dans son cas, le partage de connexion il ne fonctionne pas. Et là tu dis « ah ouais quand même ». Rien que le fait que ça soit une SIM Bouygues le reste ça marche, le SMS ça marche, par contre le partage de connexion il ne fonctionne pas. Je n’avais jamais imaginé que tu puisses avoir des cas spécifiques comme ça sur un opérateur particulier. Et ça, on en a quelques-uns en Allemagne, et à chaque fois ça peut être un peu long à débugguer, à tester parce qu’il faut trouver la SIM, tu vas le tester sur quel réseau, etc. Donc c’est un gros challenge de faire du Smartphone.

Walid : ouais c’est clair. Prochain sujet qui m’intéresse particulièrement c’est les relations que vous avez avec les autres projets et avec l’écosystème libre en particulier. Quelles sont vos relations avec LineageOS, avec MicroG ? Est-ce que vous leur payez des développements ? Comment ça se passe ? Qu’est-ce que tu peux nous expliquer ?

Gaël : c’est un écosystème qui n’est profondément pas structuré. Donc c’est sauvage et ça dépend vachement des relations que tu peux avoir avec telle personne qui est dans l’écosystème, c’est surtout ça. LineageOS, essentiellement on a très peu de relations. Alors on a des relations avec des développeurs de LineageOS, qui parfois d’ailleurs viennent bosser chez nous. Mais en fait, LineageOS c’est un projet assez communautaire, qui n’est pas vraiment centralisé. Par contre MicroG, beaucoup plus. Pour le coup même, on finance Marvin Wißfeld qui est le fondateur de MicroG.

On finance une autre personne d’ailleurs sur ce projet-là qui contribue, et une troisième personne.

Walid : c’est sur des fonctionnalités en particulier ou c’est plutôt du sponsoring ?

Gaël : alors pour MicroG c’est vraiment du sponsoring. L’idée c’est qu’il puisse bosser sereinement sur le projet sans se soucier d’aller faire ses courses demain. Sur MicroG on n’influence pas, on ne lui dit pas « tiens il faut ça il faut ça il faut ça » après parfois on dit « ça serait bien qu’on ait ça. Est-ce que tu penses que machin, nous on peut le faire ? Est-ce que ça correspond à ta vision du truc ? ». Ça fonctionne davantage comme ça. Là oui oui là il ya un vrai soutien qui est depuis au moins deux ans, peut-être un peu plus. Micro-G, pour ceux qui nous écoutent, c’est une brique logicielle totalement open source qui permet de recréer toute la partie Play Services de Google parce que nous on l’enlève. C’est propriétaire, on l’enlève, on veut pas de ça dans l’OS, donc on le remplace par MicroG et ça ça permet d’accéder à certains services par exemple la géolocalisation etc. Nous on utilise des bases de données Mozilla mais ça peut être aussi pour accéder aux les notifications push qui arrivent dans ton téléphone : ça passe par un service Google donc on veut l’anonymiser. On passe donc par MicroG pour ça. Mais dans les Play Services il doit y avoir 40 ou 50 APIs. C’est colossal : c’est leur manière de propriétariser l’Android qui est à la base open source. Et donc sur ces 40 ou 50 APIs, il n’y en a peut-être que 10 qui sont implémentés. Ce sont les plus visibles, les plus importantes. La plupart des gens ne s’aperçoivent pas qu’il en manque encore 30 qui ne sont pas implémentés. Mais il y a un boulot encore colossal à faire sur MicroG. C’est pour ça qu’on ajoute des ressources, on essaie de trouver des financements sur MicroG, on monte des projets pour eux.

Donc voilà. Pour répondre à ta question, c’est vraiment au cas par cas, en fonction du fit. Est-ce qu’on contribue ? Oui. Sur Nextcloud, par exemple, on contribue des patches, des améliorations, des bug fixes, des trucs comme ça. Sur d’autres projets aussi, on pousse des trucs. Et après, c’est très variable. Au cas par cas.

Walid : Je trouve ça vraiment intéressant de comprendre comment une société, elle évolue dans son écosystème.

Gaël : peut-être compléter par rapport à ça. Il se trouve qu’on ne l’a pas encore annoncé, mais je peux en parler, je pense, puisque de toute façon, c’est fait. e Foundation a monté un projet suite à un appel à un projet européen. On a fait un travail colossal pour déposer un gros dossier cette année. Ce projet s’appelle Mobifree, et dans ce projet-là, on a invité plein de projets européens, y compris F-Droid. F-Droid, c’est un magasin d’applications open source. Y compris MicroG, il y a plein de beaux projets comme ça open source qu’on utilise autour du mobile, donc sur le magasin d’application, sur MicroG, sur l’OS, sur plein de sujets. L’Union Européenne nous a subventionné à hauteur de plusieurs millions pour ce projet là. C’est vraiment de la subvention et c’est e Foundation qui va redistribuer tout cet argent à tous ces projets là. Donc on est aussi là pour ça, pour favoriser l’écosystème open source en Europe.

C’est aussi notre manière de contribuer, de trouver des financements pour que ça vive.

Walid : alors l’heure tourne, et je voudrais qu’on parle de la FairTEC. Est-ce que tu peux nous expliquer un peu ce que c’est que la FairTEC ? Quel est votre rôle dans la FairTEC ?

La FairTEC (source : fairtech.io)

Gaël : la FairTEC, au départ c’est une initiative de Fairphone qui avait lancé l’idée de s’unir pour lancer une offre commune. Tu vois, Fairphone, ils font les téléphones au niveau matériel. Nous on fait l’OS voir le cloud et puis après tu as d’autres acteurs. Telecoop, ils font des offres de téléphones mobiles avec une vision un peu différente : l’idée c’est pas de ne surconsommer. Leurs plans data ils font pas 50 gigas parce qu’ils te disent voilà que peut-être ce n’est pas utile de consommer 50 gigas. Et partout en Europe, tu as WEetell aussi qui fait un peu la même chose, tu as Commown sur la partie location de smartphone. On s’est tous mis ensemble, on a compris qu’un client de Fairphone, il va peut-être avoir envie d’avoir /e/OS dessus et peut-être avec une SIM Telecoop tu vois, ou WEtell dans d’autres pays, donc ça s’est vraiment lancé comme ça.

Alors, en termes de business, cela ne s’est pas vraiment concrétisé. Nous ne sommes pas encore équipés aujourd’hui pour réussir à vendre un ensemble composé d’un téléphone, d’une carte SIM, et éventuellement d’autres accessoires à un client qui souhaiterait l’avoir. Actuellement, s’il souhaite la carte SIM, il est obligé de se rendre chez Telecoop, et s’il veut le téléphone, il peut venir chez nous, chez Fairphone ou chez Commown. Au niveau business, cela ne s’est pas concrétisé comme nous l’imaginions. Cependant, cela nous a permis de communiquer, de faire savoir que nous existons, que nous avons une vision différente et plus vertueuse sur le marché du smartphone et de la téléphonie. Cela nous a également permis de mieux nous connaître et de travailler ensemble. Je pense que nous sommes tous un peu sur la même longueur d’onde. En ce moment, nous réfléchissons à la manière de faire évoluer FairTEC pour le redynamiser et le rendre peut-être un peu plus concret.

Walid : le dernier sujet concerne les défis à venir pour /e/ et pour Murena. C’est une question très vaste. Quels sont, pour toi, les défis que tu imagines dans les prochaines années ?

C’est une question très large. Désolé.

Gaël : Évidemment, tu peux imaginer que sur un OS comme /e/OS, on a des projets dans tous les sens. Malheureusement, un peu trop, donc on essaie d’être focus. C’est pour ça aussi que parfois il y a des frustrations, parce que tu as des petits sujets : par exemple les applications par défaut. Il faudrait qu’on puisse les désinstaller. Ça fait 3-4 ans qu’on se dit et on est d’accord, mais en fait, une petite, entre guillemets, fonctionnalité comme ça derrière un développement qui est colossal. Pour l’instant, on ne l’a pas fait. Je pense qu’un jour on va le faire, et là, pour le coup, c’est dans la roadmap. Mais des fois, tu as d’autres priorités. Quand tu as un gros bug, quand tu as un gros truc à intégrer, une nouvelle version d’Android à supportée, c’est toujours une question. Tu as toujours des priorités, il faut faire des choix et gérer les ressources. C’est le côté qui peut être un peu frustrant.

Donc, pour moi, l’avenir, c’est vraiment de continuer à progresser. On a des sujets sur le chiffrement de bout en bout aussi qu’on veut amener dans la partie cloud. On a plein de sujets sur la détection des pisteurs parce qu’on n’en a pas trop parlé, mais on a un module dans /e/OS qui permet de détecter les trackers, enfin les pisteurs en français, et les couper. C’est un truc qui fonctionne bien mais qui aujourd’hui fonctionne de manière assez statique, c’est-à-dire qu’il faut lui nourrir régulièrement avec des listes identifiées de pisteurs qu’on a connus. Et ça, on voudrait le rendre beaucoup plus dynamique. Et donc on a une thèse en intelligence artificielle qui va arriver cette année, un thésard qui se lance là-dedans parce qu’on a des pistes, des choses qui ont été faites dans d’autres domaines, détection des pubs, adblocker, tout ça, qu’on doit pouvoir mettre en place sur l’OS, mais avec plein de challenges. Et la recherche, c’est assez passionnant. Pour nous, en termes de stratégie, ce qui est important, c’est de nous développer. Je suis convaincu que le monde est en train de changer, il y a plein de choses qui se passent, des fois c’est un peu effrayant, mais je pense qu’il y a aussi plein de monde, beaucoup de personnes qui ont envie de faire des choix plus vertueux dans leur vie. Ils préfèrent souvent manger bio, peut-être avoir une voiture électrique plutôt qu’une voiture diesel, parce que tu sais que tu as un impact, parce que tu as envie d’avoir une vie plus saine et d’avoir des valeurs plus vertueuses. Nous, on s’inscrit vraiment là-dedans, sur la protection des données personnelles, mais aussi sur la durabilité parce que l’OS qu’on développe, il permet à des téléphones de vivre plus longtemps et juste toute petite parenthèse mais 80% de l’impact carbone d’un smartphone c’est sur sa construction, sa commercialisation et 20% seulement sur son usage. Donc si tu le fais vivre trois fois plus longtemps sur sa durée de vie, tu divises, tu mitiges son impact sur trois fois plus de temps, c’est hyper intéressant.

Et voilà. Mais donc on est totalement convaincus qu’en Europe en tout cas, mais aussi sans doute aux États-Unis, il est en train de se passer quelque chose, que le marché est en train de demander autre chose. Après, il nous faut grossir et pour grossir, il faut aussi qu’on puisse se faire connaître davantage. Donc, marketing, communication. On doit commencer à vraiment y réfléchir beaucoup plus que ce qu’on a fait par le passé, et puis se financer parce qu’il y a des moments où il faut investir pour grossir, pour développer les produits, se faire connaître. Donc, pas mal de challenges, mais c’est le propre d’un projet comme le nôtre et puis pour le coup c’est assez excitant, ça motive bien pour se lever le matin.

Walid : je trouve qu’il y a encore du boulot à faire par exemple sur le profil professionnel. Je trouve que ce n’est pas forcément hyper clair et qu’il y a vraiment du travail à faire, surtout quand t’as un compte pro qui est un compte Google, là c’est un peu compliqué.

Je voulais signaler que je trouvais très cool votre rythme de release qui était globalement un mois, au lieu de quelque chose comme ça. Et puis je voulais savoir un peu comment vous construisiez la roadmap?

Gaël : On fait une release par mois, minima en général, sauf accident de parcours, mais parce qu’on a des updates de sécurité à pousser dans le produit. Et oui, je suis totalement d’accord avec toi. Sur la partie pro, justement en 2024, là pour le coup, ça va être l’année où on va amorcer une extension vers le B2B. Aujourd’hui, on était vraiment focus sur l’utilisateur personnel. Et là, on va aller davantage vers des offres B2B qu’on va dériver, aussi bien dans le cloud que dans la gestion de flotte de smartphones. Donc voilà, tous ces sujets là on va commencer à vraiment bosser dessus.

Walid : La gestion de flotte de smartphones en open source, on en parle un peu avec Florent de Commown dans son épisode, il n’y a pas grand chose, il y a tout à faire. On a balayé pas mal le sujet. Avant de te laisser, je vais te donner la parole pour une tribune libre. Tu peux dire ce que tu as envie de nous dire.

Gaël : j’ai juste envie de dire, venez jeter un coup d’œil à ce qu’on fait. Je pense que c’est aussi ce que tu disais tout à l’heure, c’est-à-dire qu’il y a aujourd’hui dans ce marché du smartphone, qui est dominé par des géants, des pratiques commerciales avec comme objectif de te revendre un smartphone le plus vite possible. En d’autres termes, ton smartphone va vivre en moyenne 2,7 ans, apparemment, si j’en crois les statistiques. Après, il est considéré comme obsolète, et il est encouragé d’en acheter un nouveau. Nous, on n’est pas du tout dans cette optique. On pense qu’un smartphone doit, au contraire, vivre le plus longtemps possible. Comme tu le disais avec ton Motorola, j’ai également constaté qu’il y a des téléphones qui ont 6, 7 voire 8 ans. Prend un téléphone ancien, sous Android, qui n’est plus maintenu depuis des années : il est complètement désuet, les applications ne fonctionnent plus, il est lent à cause des applications inutiles, etc. Tu installes /e/OS à la place et tu te retrouves avec un téléphone aussi performant que le premier jour, voire quasiment aussi rapide.

Prend un téléphone ancien, sous Android, qui n’est plus maintenu depuis des années : il est complètement désuet, les applications ne fonctionnent plus, il est lent à cause des applications inutiles, etc. Tu installes /e/OS à la place et tu te retrouves avec un téléphone aussi performant que le premier jour, voire quasiment aussi rapide.


Et là, tu te rends compte que l’industrie du smartphone te vend un truc complètement factice. Quand on te dit d’acheter le nouveau téléphone parce qu’il est vachement mieux, vachement plus rapide, c’est un peu vrai, mais pas tant que ça. Ok, il y aura un peu plus de RAM, mais les applications, maintenant, si tu n’as pas au moins 3 Go de RAM, ça commence peut-être à devenir compliqué. Depuis 2-3 ans, les spécifications évoluent très peu, donc il n’y a aucune raison que les téléphones ne durent pas beaucoup plus longtemps. Ce que j’ai envie de dire, c’est intéressez-vous à ce que nous faisons. Vous verrez, c’est un monde beaucoup plus serein avec des téléphones qui sont là pour faire l’essentiel des usages dont on a besoin : prendre une photo, envoyer un mail, envoyer des SMS, appeler, recevoir des appels, utiliser quelques applications, et tout se passe super bien. Vous ne serez pas embêtés par les publicités partout, les virus, et vous ne livrerez pas vos données personnelles à Google.

Walid : Voilà, c’est le mot de la fin. Je voudrais d’abord te remercier en tant qu’utilisateur très satisfait de /e/OS, pour tout votre travail.

Merci beaucoup d’avoir pris le temps de discuter en profondeur avec nous. Pour les auditrices et les auditeurs, si cela vous a plu, n’hésitez pas à faire tourner cet épisode. Vous pouvez laisser des commentaires, notamment sur Mastodon, où je réponds assez régulièrement, par mail ou également sur LinkedIn. Vous trouverez toutes les coordonnées sur le site internet projet-libre.org. Je vous dis à bientôt, portez-vous bien et Gaël, j’espère à une prochaine fois.

Gaël : merci à toi.

Cet épisode est enregistré le 29 décembre 2023.

Liens à propos de /e/OS, Murena et Gaël Duval



License


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (6 months ago)

Benjamin Jean – Juriste et fondateur de INNO3


Partons à la rencontre du métier de juriste spécialisé en logiciel libre, avec Benjamin Jean. Benjamin est juriste de formation, et fondateur du cabinet Inno3.

podcast.projets-libres.org/@pr…

Sommaire

Entretien avec Benjamin Jean


Partons à la rencontre du métier de juriste spécialisé en logiciel libre, avec Benjamin Jean.
Benjamin est juriste de formation, et fondateur du cabinet Inno3

Walid Nouh : Bonjour et bienvenue sur Projets libres !. Je m’appelle Walid Nouh, je suis tombé dans la marmite du logiciel libre il y a plus de 20 ans. Que vous soyez libriste confirmé ou néophyte, venez découvrir avec moi les portraits des femmes et des hommes qui font du logiciel libre : communautés, modèles économiques, contributions, on vous dit tout.

Bonjour et bienvenue sur Projets libres !. Nous sommes le 5 juillet [2023] et aujourd’hui nous allons parler du métier de juriste spécialisé en logiciel libre. Quand je pense au terme de « juriste spécialisé en logiciel libre », je pense tout de suite aux licences, mais aussi à certains procès médiatiques qu’on a pu avoir ou à d’autres procès à propos de violations de licences. Pourtant, ce n’est qu’une petite partie de ce que les juristes font.
Pour parler de ce métier, j’ai invité Benjamin Jean, un acteur français engagé depuis très longtemps dans le logiciel libre et fondateur du cabinet Inno3. Benjamin va nous présenter les différentes actions qu’il mène au quotidien.
Benjamin, merci beaucoup d’être là, j’espère que tu vas bien.

Benjamin Jean : Bonjour. Très bien, merci beaucoup. Ravi d’être avec toi.

Benjamin Jean (source: profil LinkedIn)

Walid Nouh : Est-ce que tu pourrais nous expliquer ton parcours et quand est-ce que tu as découvert le logiciel libre ?

Benjamin Jean : Benjamin Jean, je suis juriste de formation, spécialisé en propriété intellectuelle. Dans la propriété intellectuelle avec deux thématiques : à la fois tout ce qui était appliqué à la musique, musique jazz, tout ce qui était improvisation et travail collectif dans la musique et aussi tout ce qui était lié au développement logiciel pour en avoir fait moi-même un peu auparavant. Dès la fin de mes études, j’ai été pris dans une société de développement en logiciel libre pour tout dire, sachant que j’avais fait à l’époque mon mémoire sur le sujet de la compatibilité des licences open source, donc déjà assez en immersion. Voilà pour ce qui me concerne.
Aujourd’hui, je suis fondateur du cabinet Inno3 qui est une structure un peu hybride. Nous sommes dix aujourd’hui. Dans le cabinet, il y a trois juristes seulement, dont un thésard, un doctorant et le reste ce sont des compétences qui sont soit ingénieur logiciel, soit designer, soit plus orientées socio, usages. On accompagne surtout à la fois sur l’acculturation, la compréhension de la dimension juridique des licences dans laquelle s’embarquent les acteurs qui utilisent ou qui diffusent des logiciels libres et open source ; toute la dimension communautaire aussi, comment organiser la collaboration au sein d’une communauté diversifiée, les acteurs publics/privés à l’international.

Walid Nouh : Tu nous dis que tu as un parcours un peu technique À quel moment, dans ton parcours, as-tu croisé le logiciel libre ?

Benjamin Jean : À partir du moment où on développe. C’était il n’y a pas si longtemps mais quand même, en 2001 je pense, mon projet de bac c’était développer un moteur de recherche. J’ai utilisé massivement de l’open source, en fait c’était la base.
De toute façon, pour développer, il fallait utiliser du logiciel libre et open source. À l’époque, je n’avais pas la culture juridique que j’ai acquise ensuite, qui m’a permis de me spécialiser non pas sur le développement, je ne développe plus du tout, mais sur la dimension juridique qui lui est associée. Au-delà du juridique, tous les outils qui permettent cet interfaçage entre plein d’acteurs partout dans le monde.

Walid Nouh : Toi qui es juriste, comment définis-tu une licence ?

Benjamin Jean : Il y a plusieurs manières d’y répondre. La notion même de licence n’est pas quelque chose qui est défini par la loi pour la partie droit d’auteur, c’est plus une vision, c’est la terminologie qui est utilisée aux US.
La licence c’est une offre de contracter dans le sens où l’auteur, ou les auteurs d’un logiciel, associent à leur logiciel une offre en disant « si jamais vous voulez l’utiliser, alors vous devez respecter les conditions qui sont associées ». C’est donc une offre de contracter par laquelle l’auteur donne, en tout cas partage de manière non exclusive – c’est-à-dire qu’il partage ses droits, mais il les garde aussi pour lui, il ne s’en dépossède pas – l’ensemble de ses droits de propriété intellectuelle associés aux contributions qu’il a pu réaliser pour le monde entier, pour toute la durée des droits et de manière gratuite, c’est aussi un point qui est important.
Celui qui veut utiliser le logiciel accède au logiciel, lit le contrat, l’accepte et, à partir de là, il peut bénéficier des droits qui sont dans la licence, dès lors qu’il respecte les conditions assorties au bénéfice de ces droits. C’est là qu’il y a parfois des mauvais usages : si on ne respecte pas les conditions, alors la licence cesse et on devient contrefacteur. Très récemment, il y a eu un procès perdu par Orange sur le sujet, peu importe qui l’a perdu, un procès qui a rappelé que le simple fait de ne pas respecter la licence ne permet pas de prétendre au bénéfice des autres parties de la licence, donc on retombe sur la contrefaçon.

Walid Nouh : Donc, au départ, tu as commencé par développer, ensuite tu as fait des études de droit. Comment as-tu fait pour t’intégrer dans ce travail législatif autour des licences ?

Benjamin Jean : C’est toujours pareil, ce sont des rencontres, ce sont des personnes avec qui j’ai été amené à monter des projets. Au début, l’implication était surtout dans les communautés, type Framasoft et j’en fais encore partie mais de loin, je suis, de loin, le plus inactif de l’association. On avait créé un sous-projet, qui était aussi une association qui s’appelait Veni, Vidi, Libri, qui faisait ce travail de répondre aux demandes des différents projets qui butaient sur la question des licences, sur la question des contrats de CLA [Contributor License Agreement], les contrats de contribution, tout ce qui était un peu trop juridique pour eux et qui nous semblait facile d’une part à résoudre et ensuite à documenter pour permettre à d’autres de trouver des réponses. C’est l’objet de Veni, Vidi, Libri.

Veni Vidi Libri (source : inno3)

Ce qui m’a intéressé et qui répond aussi à une partie de ce que tu évoquais tout à l’heure quant au processus de création de licence en réalisation, c’est justement qu’il y avait très peu d’acteurs qui travaillaient sur ces sujets. Quand j’ai commencé à m’intéresser à analyser les licences libres et open source, ce qui était compliqué c’est qu’il y avait très peu de littérature donc, globalement, c’était lire deux/trois licences par soir, en tirer une analyse et, d’analyse en analyse, essayer d’en sortir une matrice et une grille de lecture. Aujourd’hui, ce sont des choses qui sont beaucoup plus partagées. D’ailleurs, c’est très facile, d’une licence, de retrouver la structure qu’on peut ensuite comparer à une autre licence.
À l’époque il n’y avait pas tout cela, donc peu de personnes encore impliquées et une communauté qui était assez réduite, mais qui s’entraidait beaucoup, qui cherchait à partager les solutions juridiques qui étaient trouvées par les unes ou les autres.

Il y avait aussi une compréhension du métier du droit. Je ne sais pas si c’est bien formulé, mais beaucoup de licences libres et open source ont été rédigées par des non juristes, des personnes qui n’étaient pas du tout du métier du droit ; c’est plutôt une bonne chose parce que ça veut dire que ça correspondait à leur besoin. En revanche, de la même manière que lorsqu’un juriste développe un logiciel, il y a quelques imperfections quant à la manière de faire.
Ensuite, il y a eu ces rencontres entre juristes et développeurs, hackers, communautés du logiciel libre, dans lesquelles les juristes ont commencé à être plus impliqués et à apporter des rédactions de contrats qui étaient à la fois plus traditionnelles au sens des usages qu’il y avait dans le milieu juridique, mais aussi, peut-être, plus pertinentes, peut-être plus adaptées aux besoins des projets d’un point de vue juridique.
Le travail de rédaction d’une licence est quelque chose qui n’arrive pas tous les jours non plus, je pense que ce n’est qu’une partie du rôle du juriste dans la communauté libre et open source. Ce travail se fait de plus en plus, maintenant, en concertation entre juristes, entre communautés concernées et ça participe aussi à l’engagement des acteurs.
Si une licence n’est pas utilisée elle ne sert pas à grand-chose. Aujourd’hui plein de licences ne sont plus utilisées et, finalement, sont un peu reléguées au second plan. Parfois on voit des projets qui les utilisent et, quand c’est le cas, on regrette un peu parce qu’on sait que derrière il n’y a pas vraiment de doctrine au sens de possibilité d’interpréter les imprécisions de la licence, il n’y a pas de suivi : si jamais on veut contacter les auteurs de la licence ils ne sont pas disponibles, ils n’ont a pas de moyens dédiés. Il y a quand même un rôle de vision, un projecteur qui est mis sur quelques licences seulement. C’est aussi ce que fait de plus en plus l’Open Source Initiative, c’est-à-dire essayer de lutter contre la prolifération de licences et aider les développeurs et les communautés à choisir les licences qui répondent le mieux à leurs projets.

OSI (source : wikipedia)

Walid Nouh : Est-ce que c’est ce que vous appelez la standardisation ? En fait, j’ai découvert qu’au début du logiciel libre il y avait quelques licences mais rien de bien normalisé et que, à un moment, il y a eu un besoin de standardiser les licences pour pouvoir passer à l’échelle et avoir des choses plus compréhensibles.

Benjamin Jean : Ça c’est fait, mais pas par les juristes. Tu sais que le droit c’est beaucoup de bon sens. À l’époque, au tout début des licences libres et open source, ce n’étaient que des licences projet par projet. On avait la GNU Emacs Public License, la GNU General Public License et j’en passe. Un jour ils se sont dit « si on veut que d’autres projets puissent réutiliser la licence et qu’on puisse plus facilement partager du code d’un projet à l’autre, il faut qu’on ait une licence générique ». La GNU General Public License, la GPL, c’est cette idée de « je sors d’un projet spécifique pour en faire une licence qui peut être utilisée sur d’autres projets ». Les premiers projets qui l’ont utilisée c’est Linux, c’est Perl . Ça a montré cet intérêt pour d’autres projets que ceux de la Free Software Foundation à l’époque, d’avoir des outils génériques susceptibles d’être utilisés, parce qu’un peu agnostiques, à l’époque c’était considéré comme tel. Pour moi, le succès des licences libres et open source c’est justement d’être devenues des standards.

Les licences sont des interfaces juridiques — je ne sais pas si, tout à l’heure, j’ai utilisé le terme interface. Les licences c’est vraiment ce qui permet à des humains ou à des organisations de travailler les uns, les unes avec les autres, donc, pour que ça marche, il faut qu’elles soient standardisées, c’est comme du code. Le succès des licences libres et open source c’est vraiment ça : où qu’on soit dans le monde, telle version de la MIT c’est la même version, pour utiliser une licence complètement libre ; la licence Apache 2.0 c’est la même version, on y associe des effets qui sont quasiment les mêmes, et c’est pour cela qu’on peut travailler ensemble.

Walid Nouh : Il y a donc vraiment beaucoup de licences. Quel est l’intérêt d’avoir des licences plutôt à l’échelle française ou à l’échelle européenne ?, parce que là on parle de MIT, on parle licence Apache qui sont des licences qui ont été rédigées plutôt par des Américains.

Benjamin Jean : Oui, complètement la majorité des licences sont américaines, de toute façon. Ça peut s’expliquer, je pourrais passer du temps sur l’explication.
La question du besoin sous-jacent à la rédaction de nouvelles licences est, pour moi, cruciale, mais ce n’est pas si automatique que ça. Ça fait peut-être partie des biais des juristes : les juristes ont souvent tendance, lorsqu’on leur demande de rédiger un contrat ou de modifier, d’amender un contrat, de repartir de zéro, parce que, simplement, ils contrôlent mieux, ça répond à leurs pratiques, à leurs usages, donc ils sont en confiance.
Je pense qu’il y a quand même pas mal de licences libres et open source qui, au début, ont été rédigées parce ça sécurisait. Et puis c’était certainement aussi l’une des raisons pour lesquelles l’open source, au début, a eu tant d’engouement de la part des sociétés : plein de sociétés se sont dit « génial, je vais créer ma propre licence ». À l’époque, juste après la création de l’Open Source Initiative, dans les années 2000, on a eu la définition, l’open source definition, il y a donc plein de nouvelles licences, notamment la Mozilla Public License, qui ont pris les modèles de licences existantes et les ont un peu modifiés. On s’est retrouvé avec une prolifération : en cinq/six ans il y a eu des centaines de nouvelles licences. Après, heureusement, on est revenu en arrière, on a limité le nombre de licences, mais je pense qu’à l’époque c’était une bonne chose pour que des sociétés qui n’étaient pas en empruntes du Libre se sentent en confiance en se disant « on l’a adapté ; on avait ce besoin, on l’a fait. »

La question des licences françaises, en langue française — les licences CeCILL pour ne pas les citer, ce sont celles du CNRS/Inria — ont été rédigées par des centres de recherche français parce qu’ils considéraient, c’est une vision juste et très juridique, que les licences open source ne répondaient pas au formalisme et aux obligations auxquelles ils étaient assujettis. Créer ces licences permettait de lever un frein à l’open source, c’était donc une réponse intéressante de ce point de vue-là, en disant « on peut diffuser sous licence CeCILL, en plus elle compatible avec la GPL, donc plus tard, si les gens veulent fusionner, reprendre une partie de notre code pour développer, réutiliser dans certains autres projets, ils pourront le faire. »

La licence EUPL c’est un peu différent. C’est l’Europe qui a dit « de part mes statuts, je ne peux pas m’engager comme un quidam ». L’Europe ne peut pas se retrouver devant le tribunal, je dis n’importe quoi, de Caroline du Sud, parce qu’il y a eu contrefaçon. Il y a donc une posture qui était de dire « il faut nécessairement qu’on ait des contrats qui soient adaptés à la spécificité qu’est l’Europe au vu du monde entier ». Donc nouvelle licence qui n’est pas une licence inintéressante, qui est utilisée, aujourd’hui, essentiellement par l’Europe pour ses propres programmes, qui n’a pas vocation à être utilisée par d’autres projets. En fait, tel qu’elle a été rédigée, c’est une licence qui permet surtout à d’autres projets de reprendre du code qui a été développé sous licence EUPL, mais ce n’est pas une licence qui vise à centraliser des développements de tiers sur ses propres projets.

Les licences CeCILL , en France, c’est un peu différent. Je pense qu’à l’époque il y avait ce besoin, aujourd’hui il n’y a plus ce besoin, les gens utilisent des licences libres et open source classiques, n’ont plus besoin d’utiliser les licences CeCILL pour être rassurés. Au contraire, lorsque j’en discute avec des centres de recherche, j’ai plutôt tendance à leur déconseiller d’utiliser les licences CeCILL parce que, en fait – ça repend ce que j’évoquais tout à l’heure – ils se retrouvent sans support à l’interne voire parfois avec des désaccords sur la manière d’interpréter la licence. Je pense que si on utilise une licence libre et open source, la majorité du temps c’est pour se simplifier la vie. Tout ce qui complique la collaboration, l’interprétation, qui amène à des discussions, des négociations supplémentaires, c’est plutôt à éviter.

Walid Nouh : En fonction des licences utilisées, ça peut être plus ou moins compliqué, pour un développeur, de contribuer à un projet. Je suppose que si tu es contributeur étranger sur un projet qui utilise une licence CeCILl , ça doit être plus compliqué.

Benjamin Jean : Disons que ça fait très cocorico, ça affiche le drapeau français. Ceux qui connaissent les licences vont dire « de toute façon elle est compatible avec l’AGPL, donc je n’ai même pas besoin de la lire, je vérifie la licence AGPL ». Ceux qui ne connaissent pas la licence, qui vont la lire pour essayer de la comprendre, c’est compliqué. Si on lit l’ensemble des licences CeCILl, pour moi il y a des vrais sujets, ce n’est pas aussi fluide et clair que ça devrait l’être.

Walid Nouh : Tu as évoqué le fait qu’au départ, quand tu es arrivé, vous étiez une petite communauté de juristes, que vous parliez beaucoup. Que représente la communauté française des juristes dans laquelle tu travailles ? Je suppose que ce n’est pas une communauté très grande, que vous vous connaissez tous.

Benjamin Jean : Oui. Il n’y a pas beaucoup de juristes qui travaillent sur ces sujets, d’ailleurs il y en a pas mal qui sont aussi passés par le cabinet, je pense qu’on alimente par les stages, par les personnes qui passent chez nous, cette formation, cette acculturation au Libre et ensuite c’est maintenu.
Dire combien de juristes sont aujourd’hui mobilisés sur ces sujets, ce n’est pas facile. Je pense qu’en France, globalement, ce sont surtout les juristes des entreprises soit qui débloquent des logiciels libres et open source, qui ont cette sensibilité, soit, de plus en plus, des grands utilisateurs de logiciels libres et open source qui sont obligés de monter en compétences sur la partie open source compliance, donc mise en conformité de leurs logiciels au regard des licences des composants open source qu’ils utilisent. Ça vient doucement. C’est une manière de le compter. Tous les ans on donne de la formation et tous les ans, depuis dix ans, je pense qu’on forme une vingtaine de personnes. Nous ne sommes pas les seuls à donner une formation sur ces aspects-là mais presque, je pense que c’est assez représentatif des personnes concernées.
Au-delà des juristes, au sein des entreprises, il y a des avocats. Il n’y a pas de cabinets d’avocat qui ne font que ça, qui ne sont concentrés que sur l’open source. En revanche, il y a quand même pas mal de cabinets, plutôt orientés numérique, qui commencent à montrer en compétences sur ces sujets parce qu’ils ont assez de clients pour maintenir leur niveau d’expertise.

FSFE (source : wikipedia)

À l’échelle européenne, il y a un réseau de juristes animé par la Free Software Foundation Europe. C’est très ouvert, d’ailleurs il y a plein de juristes américains. Aujourd’hui nous sommes plus de 500 ; à l’époque, il y a plus dix ans, nous étions une dizaine, maintenant c’est en plusieurs centaines, d’ailleurs je pense que nous sommes bien plus de 500 maintenant. Et là, ce sont des échanges entre juristes pour pouvoir mettre sur la table un peu les sujets du moment, parfois aussi identifier les ressources clefs pour anticiper les conflits parce qu’il y en a, ça arrive. C’est aussi une autre manière de voir que la communauté s’est quand même bien diversifiée avec des projets comme SPDX qui sont technico-juridiques. SPDX a deux faces. L’une des faces c’est de pouvoir avoir un identifiant unique par licence et la seconde c’est de pouvoir avoir un fichier dans un format qui concentre toutes les informations, les métadonnées d’un package d’un projet global. Il y a plein de juristes de plein d’organisations aussi. On voit quand même que la compétence est de plus en plus partagée .

Walid Nouh : Comment vous parlez-vous dans la communauté ? Est-ce que vous avez des meetups comme dans le logiciel libre ? On peut se retrouver par exemple au FOSDEM [Free and Open Source Software Developers’ European Meeting] et faire nos réunions d’équipe. Comment collaborez-vous entre juristes de différents pays ?

Benjamin Jean : Je dirais que ça se fait surtout par des évènements. Il y a une liste dont je parlais tout à l’heure, une liste de diffusion de la FSFE. Sinon, ce sont plus des évènements que la FSFE organise. On organise aussi un événement annuel qui s’appelle EOLE, European & Free Software Law Event. C’est un exemple. L’intérêt de ce type d’événement c’est de pouvoir se rencontrer, échanger, mettre un peu à jour nos pratiques respectives.

EOLE (source : inno3)

EOLE, pour cette année, est un peu lien avec ce que tu viens d’évoquer : il y a un événement final en présentiel, à Paris, en décembre. Mais on organise quelques webinaires, même des workshops, plus des ateliers de travail. J’ai animé le premier, le deuxième était animé par Malcolm Bain, qui est avocat espagnol très impliqué sur ces sujets, il y avait une vingtaine de personnes. À chaque fois ce sont vraiment des juristes qui partagent tout ce qu’ils peuvent partager, à la fois sur les besoins et sur les réponses apportées de leur côté. Il y a plus de besoins que de réponses aujourd’hui mais c’est le but, justement, de ce partage.

Walid Nouh : Tout à l’heure tu parlais d’une licence et de faire des clarifications sur des licences archiconnues comme une GPLv3, une AGPLv3 . Est-ce qu’il y a toujours des choses à clarifier ou alors est-ce que c’est plutôt sur des licences plus récentes ou moins utilisées ?

Benjamin Jean : Il reste toujours des zones d’ombre sur des licences de type GPL, mais qui sont des zones d’ombre volontaires. Je pense qu’il n’y a pas forcément de consensus dans la communauté des juristes là-dessus, mais la licence est aussi un instrument de négo et ça peut être utilisé pour tordre un peu le bras de ceux qui ne voudraient pas partager. Il y a toujours cet enjeu. Tout le monde, autour de la table, n’a pas les mêmes objectifs. Il faut être conscient du fait qu’on ne soit pas tout le temps d’accord, de manière à se ménager quelques armes en cas de désaccord.
Dans les licences type GPL, il y a des choses qui sont interprétées notamment dans les FAQ de la FSE, la Free Software Foundation, de manière ultra-extensible ou alors de manière assez biaisée. Quand on lit la FAQ, les questions sont posées de manière à ce que les réponses soient évidentes. Pour autant, parfois, les questions ne sont pas aussi simples. Cette dimension d’interprétation des licences est pour moi un enjeu. On essaye d’accompagner dans une maximisation, qu’il y ait de plus de plus de personnes qui utilisent, qui rejoignent les communautés open source. Pour nous ça passe par acculturation et par gommer toutes les zones d’ombre.

Sur la partie interprétation on a lancé un projet, je n’en ai parlé tout à l’heure, mais ça rejoint un peu ce que j’évoquais, qui s’appelle Hermine. C’est à la fois un logiciel de mise en conformité de l’open source, en interne, des organisations, notamment d’un point de vue des aspects juridiques, et aussi une base de données ouverte, sous licence open data, d’interprétation, en tout cas de compréhension liée aux licences. Le but c’est de faire ce travail : plutôt que d’avoir chacun une lecture différente d’une même licence ou des lectures convergentes, on ne le sait même pas, d’avoir un standard, une lecture un peu consensuelle de cette licence en se disant qu’ensuite chacun peut installer chez lui le logiciel et modifier la base de données, mais qu’on parte d’un point de départ pour faciliter le consensus et aussi pour mieux gérer les risques.
Je pense qu’il reste encore un effort d’interprétation, mais on commence à trouver des solutions qui parfois sont techniques. L’exemple d’Hermine c’est technique même si ça, d’ailleurs,ça repose sur une communauté de juristes qui l’alimente et c’est une bonne chose. L’intérêt de la technique c’est qu’on a des canaux, la forme est là, on est donc obligé de se mettre d’accord sur ce qui passe dans ces tuyaux. C’est une bonne chose parce que ça simplifie les réponses en interne et aussi en externe. L’un des enjeux de l’open source c’est aussi la collaboration qu’on va avoir avec les autres acteurs de la Supply Chain, l’idée c’est qu’on soit à peu près en phase sur les réponses qu’on peut apporter à chaque compréhension des licences qu’on utilise globalement.

Walid Nouh : Imaginons que je suis quelqu’un qui veut faire du logiciel libre, je vais déposer mon code sur une plateforme, il va falloir que je choisisse une licence. Si je ne suis pas un expert, quelles sont les grandes choses auxquelles il faut que je fasse attention ? Et où est-ce que je peux trouver de la documentation pour en savoir plus sur ces sujets-là ?

Benjamin Jean : Pour répondre au premier point, lorsqu’on veut diffuser sous licence libre ou open source, la première question c’est : est-ce qu’on est en capacité de le faire ?, donc déjà savoir quelles sont les contraintes qu’on a en interne, au sein de l’organisation, d’un part. On peut avoir des contrats avec des tiers, peu importe, il peut y avoir des engagements contradictoires, et au regard du projet aussi, notamment si le projet utilise des dépendances qui sont soumises à des licences contraignantes, qu’elles quelles soient, ça va conditionner le choix qu’on peut faire in fine de sa propre licence.

Sur l’organisation et sur le projet d’autres facteurs sont en prendre en compte. Je dis n’importe quoi, « je suis une administration française, le nombre de licences, le choix que je peux faire en termes de diffusion sous licence libre est limité » ; il y a une quinzaine de licences qui peuvent être utilisées par les administrations françaises et pas d’autres, il y a une liste par décret du Premier ministre. Très bien, il faut le prendre en compte.
Le projet lui-même est un projet qui fonctionne en SaaS [Software as a Service], pareil, il faut prendre en compte les spécificités liées au projet parce toutes les licences n’intègrent pas ces typologies d’exploitation.

Une fois qu’on a une vision un peu claire de ce que sont nos besoins et aussi nos contraintes internes, la manière dont on procède quand on veut rationaliser un peu le choix d’une licence c’est de lister nos objectifs : qu’est-ce qui est important pour nous ?, la simplicité, le côté international, la modularité, la compatibilité avec les autres projets. Donc on liste quelques éléments comme cela, il faut vraiment le faire sur une feuille blanche ce qui permet d’objectiver pourquoi on choisirait telle licence ou telle autre. Une fois qu’on l’a fait, c’est assez facile. Il y a énormément de licences libres et open source, on l’a dit tout à l’heure, mais, globalement, licences les plus utilisées sont une quinzaine, 10/15 licences. On peut donc prendre les licences les plus connues, les plus utilisées et, juste sur la base des critères qu’on a établis avant, déterminer celles qui répondent au besoin.
C’est assez facile une fois qu’on a fait cet exercice, ça ne prend vraiment pas beaucoup de temps, de converger sur le choix de l’Affero GPL ou le choix de la licence Apache.

C’est un peu plus compliqué quand on est dans un grand groupe, qu’il y a plein de personnes avec plein de besoins différents parfois incompatibles, mais ça peut se concilier.
À l’aune des critères qui sont importants pour nous une fois qu’on a tout posé à plat, il est intéressant de constater, de voir que parfois deux licences tout à fait différentes peuvent être tout à fait pertinentes pour le même projet. C’est un choix, il faut qu’on choisisse : soit on reste, j’ai un exemple en tête, sur de l’Affero GPL parce qu’on veut vraiment orienter vers la dimension populaire du projet, s’assurer que toutes les contributions soient bien reversées, repartagées et ainsi de suite ; soit on choisit la licence Apache parce qu’on se dit que finalement ça va maximiser les utilisations et, globalement, on sait que les acteurs vont effectivement reverser, ou alors on met en place d’autres dispositifs qui ne sont pas forcément juridiques pour qu’ils soient incités à redistribuer les contributions qu’ils apportent au projet. Tout ça se comprend globalement.

Où est-ce qu’on trouve des ressources sur ces sujets. Il y a Veni, Vidi, Libri , c’était l’un des objectifs du site qui aujourd’hui n’est plus en ligne, c’est donc problématique.
Sur Wikipédia on trouve pas mal d’infos. Il faut quand même dire qu’à l’époque, quand on avait lancé Veni, Vidi, Libri, Wikipédia était très incomplet sur ces sujets, ce n’est plus le cas, maintenant il y a énormément de ressources.
Ensuite des méthodologies un peu éprouvées. On avait partagé des choses, mais plus sous forme d’articles. Je trouve que ce n’est peut-être pas assez simple, aujourd’hui, de s’emparer de ces différentes étapes qui mènent au choix de la licence. Ça me fait penser, ça vient juste comme ça, que ça mériterait peut-être d’avoir une sorte de matérialisation, de mise en forme juste sur une page de tout ce que je viens de dire pour clarifier : je dois choisir ma licence, voilà les différentes étapes et ce vers quoi ça peut me mener. On le fait sur d’autres projets. On est en train de travail sur ce qu’on appelle un commons model canvas, une sorte de Business Model Canvas adapté à la mise en place d’une logique de communs au sein d’une communauté, donc projet de ressources ouvertes qui soient gérées et maintenues par ses utilisateurs. Ce sont des choses où il y a un peu de jus de cerveau au début, mais une fois qu’on l’a mis on peut le mettre sur du A4 ou du A3 et c’est assez encapacitant, les personnes peuvent assez facilement ensuite s’en saisir.

Walid Nouh : Donc ce serait à ma portée ?

Benjamin Jean : Ce serait utile.

Walid Nouh : Quand je fais des interviews de projets libres, à chaque fois je demande quelle licence ils ont choisi et pourquoi. Les réponses sont assez intéressantes.
Si je prends mon exemple, dans les logiciels que j’utilise on va souvent trouver deux licences qui sont assez opposées. Il y a en a beaucoup qui vont choisir des licences AGPL parce qu’ils veulent être sûrs que toutes les contributions seront bien reversées. À l’opposé, il y a pas mal de projets qui utilisent une licence MIT. J’ai toujours eu un peu un problème avec ça parce que, pour moi, la licence MIT c’est, en gros, on te fournit le code source et après tu fais ce que tu veux avec, tu peux l’inclure dans un logiciel propriétaire. Qu’est-ce qui fait qu’on a envie de choisir une licence MIT ?

Benjamin Jean : Sur l’exemple MIT ou Apache, mais MIT, je pense que justement ce sont vraiment les projets qui sont dans une recherche de la simplicité à outrance. En fait, on préfère mettre de côté tout ce qui serait un peu trop juridique, trop compliqué et, finalement, ce sont des projets qui considèrent que s’il n’y a pas de contributions ce n’est pas très grave et si elles doivent venir elles viendront. Il faut qu’il n’y ait aucun frein à l’utilisation.
La MIT c’est parce qu’on veut de la simplicité à outrance, on veut que la lecture se fasse, ce sont cinq lignes.
La licence Apache, c’est quand on est dans une logique où on veut favoriser les usages, mais on veut quand même sécuriser juridiquement. Pour moi, elle est assez connue, c’est justement un standard. Les gens ne vont pas aller lire la licence Apache à chaque fois qu’ils la voient, ils comprennent que c’est une licence Apache et ça leur suffit.
L’avantage MIT ou Apache, encore plus Apache, c’est d’un point de vue communauté plus industrielle, ça va être un gros plus à la contribution parce qu’en fait ça les rassure.
MIT, c’est peut-être plus des communautés, d’ailleurs dans la recherche c’est très utilisé. Là c’est plus, je dirais, une affinité, ce n’est pas personnel, c’est juste que les chercheurs ont l’habitude, donc sont à l’aise avec des projets sous licence MIT. Quand ils voient d’autres projets ça peut les rebuter, simplement. S’ils doivent les comparer à un autre projet qui ressemble mais qui est sous licence MIT, ils vont favoriser le projet MIT.
Il y a ce côté un peu communication par l’utilisation des licences open source qui peut être important. C’est ma première réponse.

La question de la manière dont on peut engager, au-delà de la dimension du choix de la licence, je pense que c’est toute la question des outils qu’on met à disposition de la communauté, de la manière dont on anime dans le sens où on fournit vraiment tous les process, les règles et le cadre pour que les acteurs se sentent en confiance, puissent facilement contribuer, partager leurs contributions sur le projet sans se sentir complètement stupides parce que ce sont effectivement leurs débuts. Ce sont plus ces dispositifs-là qui vont être utiles.
Ça c’est pour des projets qui sont assez communautaires, ouverts et plus avec des individus.

Pour des projets qui vont concerner les organisations, on va penser plus des partenariats ou des logiques de distribution aussi, disant « finalement vous avez un intérêt à participer à ce projet-là parce que vous avez beaucoup de mal avec votre business, il y a donc d’autres contrats à côté qui viennent sécuriser l’ensemble ».

Un point important. On parle des licences, mais, dans un projet, il y a d’autres aspects qui viennent sécuriser, je pense notamment aux DCO. Les DCO ce sont ces petits documents, je ne sais pas quel terme utiliser en français, attestation de paternité, globalement c’est juste une déclaration de l’auteur qui dit qu’il est conscient que ce qu’il met dans ce projet c’est diffusé selon la licence du projet, déjà il indique que sa contribution sera bien diffusée sous licence libre, et qui atteste qu’il reconnaît qu’il a bien les droits sur ce qu’il contribue et, s’il ne les a pas, il a eu l’autorisation des personnes concernées.
Ce sont des choses qu’on voit quasiment systématiquement aujourd’hui, qui sont dans une logique complètement horizontale dans le sens où on ne cherche pas à centraliser les droits, chacun reste titulaire de ses propres droits, mais qui permettent de gommer d’autres risques, de réduire d’autres risques qu’on a dans l’open source qui est qu’on utilise des contributions qui sont amenées par des personnes qu’on ne connaît pas et si la personne amène n’importe quoi on est responsable. Des procès ont été perdus là-dessus, derrière il y a une société sinon ça ne sert à rien d’attaquer. Là c’était une société qui avait un projet communautaire et qui, automatiquement, mettait sur son site la version sans aucune validation de l’ensemble des contributions qui étaient apportées au projet. Quelqu’un, à mon avis de bonne foi, a pris du code qui ne lui appartenait pas, l’a contribué au projet. La société qui publiait le code s’est retrouvée en situation de contrefaçon puisqu’elle publiait le code d’un tiers sans son autorisation et elle s’est fait condamner.
L’enjeu c’est comment on peut réduire ce type de risque dans un projet communautaire parce qu’on a intérêt à ce que les gens contribuent, mais il ne faut pas non plus que ça génère un risque trop important pour l’organisation.

Walid Nouh : Est-ce qu’on sait s’il y a des licences pour lesquelles il y a plus de procès ou de procédures que d’autres ?

Benjamin Jean : Oui. Les licences copyleft, donc avec obligation de partage à l’identique, telles que l’AGPL , la plus connue, l’Affero GPL, la MPL [Mozilla Public License] , l’EUPL , il y en a plein. Les licences copyleft ont des obligations qui sont assez contraignantes parce qu’elles imposent ce partage des évolutions du projet, avec parfois des zones grises : on ne sait pas exactement quel est le périmètre de ce qui doit être partagé, c’est là où il y a parfois justement ambiguïté, donc conflits.
Ces licences, par ces obligations particulières, vont amener à plus de procès, parce que, lorsque ces obligations ne sont pas respectées, ceux qui ont partagé le code, les auteurs, les titulaires de droits ont tendance à réagir assez violemment en disant « c’est la principale condition qu’on associe à la réutilisation de notre code, si vous ne le faites pas si vous êtes contrefacteur. On vous avertit une fois, la deuxième fois on tapera très fort ». Je pense que ce sont plutôt ces licences-là.

Maintenant, pour réutiliser ce que je viens de dire, il y a quand même beaucoup de procès qui concernent uniquement un non-respect du formalisme. C’est-à-dire que ce sont des personnes qui se sont dit « je ne partage pas le code source du projet que je réutilise parce que, de toute façon, il est disponible sur GitHub à tel endroit », donc elles fournissent juste le lien. Oui, mais la licence vous demande de fournir le code source, pas le lien. Les sociétés maintiennent leur positionnement, le juge lit la licence, considère qu’effectivement elles auraient dû faire plus que ça et condamnent la société pour non-respect de la licence. C’est un peu bête parce que si elles avaient été un peu à l’écoute de la communauté et si elles avaient mieux cerné les risques dans le sens pris en compte le principe même des licences libres et open source qui est de s’appuyer sur la propriété intellectuelle, donc le risque d’action de contrefaçon si ce n’était pas respecté, toutes ces organisations n’auraient pas été condamnées comme elles l’ont été.

Walid Nouh : C’est un sujet qui revient régulièrement : si tu fais un projet libre tu n’as pas forcément beaucoup d’argent et si tu penses qu’il y a une violation de licence, dans ce cas-là quels sont les organismes à ta disposition dans la communauté du Libre pour t’aider à te défendre, car ça peut coûter très cher ?

Benjamin Jean : Le point c’est que n’importe qui ne peut pas agir pour non-respect d’une licence. Je fais un aparté rapide : dans le projet de loi pour une République numérique d’Axelle Lemaire, en 2016, il y avait la proposition d’un article qui visait à ce que des sociétés puissent défendre l’intérêt – ça parlait des communs mais ça pouvait complètement concerner le logiciel libre – de communautés ou de personnes qui diffusaient librement leurs produits, mais qui n’étaient pas en capacité d’agir par elles-mêmes. Il y aurait eu des associations, type associations de consommateurs, qui auraient été en capacité d’agir pour le compte de. Ça n’a pas été retenu dans la loi telle qu’elle a été publiée in fine et c’est bien dommage.
Le problème, aujourd’hui, c’est que seuls les titulaires de droits sont en capacité d’agir pour violation de leur licence. Si ces titulaires ne sont pas structurés dans une association, dans une fondation, une entité juridique qui a les moyens de pouvoir agir en justice, parfois c’est un peu David contre Goliath, c’est quand même très difficile d’envisager d’agir contre un énorme acteur. Néanmoins, il y a énormément de procès en Europe, notamment en Allemagne, qui ont été initiés par la même personne, Harald Welte, qui était un contributeur à Linux, à BusyBox, et qui, sur ce fondement-là avait l’intérêt et la capacité d’agir. C’est lui qui agissait, mais il était soutenu par des structures associatives locales, qui le finançaient dans ses actions, ce qui était d’autant mieux qu’il ne le faisait pas pour gagner de l’argent, il le faisait juste pour faire respecter les licences et il ne demandait que l’indemnisation des coûts du procès. Ce n’était pas rentable, je pense que c’était une implication très louable et forte de sa part, lui demander en plus de tout payer, c’était compliqué.

Il y a quelques structures qui sont des structures un peu parapluie, des fondations parapluie, des structures qui aident les projets.
Celle qui irait le plus dans ce sens-là c’est la Software Freedom Conservancy, avec Bradley Kuhn, qui joue ce rôle d’héberger des projets, mais aussi d’agir pour défendre les intérêts des projets. Ils ont initié quelques procès. C’est quand même très compliqué parce que souvent les personnes qui sont en contrefaçon sont aussi des partenaires. C’est le principe, c’est donc un peu le bâton d’un côté et la carotte de l’autre et ce n’est pas toujours simple de savoir qui tape et qui propose la carotte, qui cherche à s’appuyer sur ces nouveaux entrants dans le logiciel libre et open source pour renforcer l’écosystème et qui tape sur ces mêmes acteurs parce qu’ils ne font pas encore bien les choses, donc, parfois, c’est complexe. Il y a des structures, je pense au FSC, donc celle-ci.
En France, je sais que la Free Software Foundation France, un chapitre local de l’association, avait aussi aidé Harald Welte pour agir contre Free à l’époque. [La Free Software Foundation France a été dissoute en février 2022, NdT]

Walid Nouh : La Free Software Foundation France aide par quels moyens ? Elle met à disposition des ressources ou de l’argent ?

Benjamin Jean : De ce que je sais, mais je ne suis pas assez impliqué dans la structure elle-même, pour moi la FSF France est une copie, ça permet juste de soutenir des actions. Je ne suis pas sûr qu’elle ait le budget dédié, qu’elle puisse vraiment donner les moyens financiers. En revanche, ils font les contacts, ils font le réseau, l’interface avec d’autres acteurs qui ont les moyens et qui peuvent participer à.
Je pense qu’à l’époque c’était plus pour apporter un soutien et faire en sorte que l’action puisse aboutir. Pour quelqu’un qui n’est pas du métier, arriver en France et agir c’était loin d’être simple. Je pense qu’ils ont fait cette intermédiation qui a, finalement, rendu possible l’action.

À ma connaissance, il n’y a pas de fonds dédiés, sauf, peut-être, dans les fondations qui ont leurs propres budgets.

Juste pour finir là-dessus, j’ai oublié son nom, il y avait aussi, dans la communauté Linux, une personne qui avait été un peu le troll sur le sujet, un contributeur historique qui agissait mais à des fins personnelles, c’est-à-dire qu’il agissait contre plein de boîtes juste pour gagner de l’argent sur la base du non-respect des licences. Ce que j’ai trouvé intéressant c’est que la communauté s’est désolidarisée de ce comportement justement parce que ce n’était pas conforme à l’esprit du logiciel libre et de l’open source.
Je pense que c’est une bonne chose, même si ce n’est pas encore tout à fait pérenne, que ce ne soit pas un business en tant que tel d’attaquer des organisations parce qu’elles utilisent mal ou qu’elles ne sont pas conformes aux licences.
C’est un process qui prend du temps, il faut voir avec tous les acteurs impliqués dans le travail. Ce sont des gens qui sont quand même plutôt de bonne volonté. C’est rare, c’est exceptionnel qu’il y ait une volonté de nuire ou qu’il y a une vraie connaissance de la mauvaise application des licences.

Walid Nouh : Si je reviens sur toi et sur le cabinet Inno3 , quels sont vos sujets quotidiens et vos sujets actuels ?

Benjamin Jean : On travaille principalement sur les logiciels libres et open source, un peu open data et open source hardware et, parfois, on travaille sur des démarches qui sont un peu plus macros, en tout cas plus globales, type open science, open innovation, science ouverte et innovation ouverte, plus des postures d’innovation.
On intervient à trois niveaux principalement : au niveau des projets on fait de l’audit de code. Là, c’est vraiment identifier, dans le code qui est utilisé, l’ensemble des dépendances, les dépendances récursives, avoir un software Bill of Materials le plus large, le plus exhaustif, associé à chaque licence qui correspond à chaque partie de ses dépendances et de ses composants. On fait souvent aussi ce travail de rectifier les informations de licence qui ne sont pas les bonnes, parce que ce sont encore beaucoup de métadonnées et c’est tout à fait perfectible et d’en ressortir une analyse et une idée précise sur quels sont les tenants et les aboutissants au regard de l’ensemble des composants utilisés.
Le côté SBOM [Software Bill of Materials] est une partie de notre activité.
Sur le projet on fait toujours beaucoup de valo, de valorisation de projet, donc définir quel est le modèle économique vers lequel on peut tendre en fonction des besoins, ce à quoi répond le projet et ses besoins, et des communautés cibles.

Ensuite, on fait aussi beaucoup de stratégie et de politique open source. C’est vraiment aller à la rencontre de l’ensemble des départements d’une organisation, comprendre quels sont leurs process, leurs enjeux, leurs moyens et voir dans quelle mesure ils peuvent changer pour mieux intégrer la communauté open source. C’est un peu plus que conformité, parce qu’on intègre aussi tout ce qui est soutenabilité, donc vision des communautés sous-jacentes, il peut éventuellement y avoir des liens avec la qualité ou la sécurité. Ça c’est plus pour les acteurs privés, il y a quelques boîtes publiques aussi.

On fait un peu de politique publique. En ce moment, on agit pas mal avec France Relance. C’est intégrer dans les politiques cette idée que tout ce qui va être financé doit être diffusé sous licence libre et open source, doit être produit dans le cadre de communautés qui pérennisent aussi les ressources dans le temps, donc penser à ça.

Le dernier point, le dernier niveau d’intervention, c’est plus l’écosystème dans le domaine de la mobilité. Là on est sur un véhicule intermédiaire, on l’a fait dans d’autres sujets, c’est de se dire comment est-ce qu’on réunit tous ces acteurs, d’un marché plus ou moins développé, pour qu’ils puissent produire des ressources web partagées et les maintenir dans le temps. Là c’est vraiment une vision systémique dans lequel le logiciel libre, open source, open data, sont autant de moyens d’amener une collaboration, en tout cas une clarification du cadre de collaboration de ces acteurs.

Walid Nouh : Sur ce sujet des SBOM, des nomenclatures logicielles, ce sont des entreprises qui viennent vous voir pour que vous fassiez ce travail ? Je l’ai vu faire chez des industriels français quand j’étais en presta et c’est un travail qui est vraiment long, fastidieux, qui demande de sacrées compétences techniques.

Benjamin Jean : Oui. Ce sont des entreprises. On le fait aussi pas mal pour le compte des collectivités, il y a pas mal de collectivités territoriales qui sont dans cette logique de « on diffuse notre projet en open source, on permet à d’autres collectivités de pouvoir l’utiliser puisqu’elles ont les mêmes besoins, les mêmes missions de fond ». Il y a aussi des entreprises qui nous demandent de les aider là-dessus.
Généralement, ce ne sont pas des choses qu’on essaye de pérenniser dans le sens où on le fait pour les faire monter en compétences et on essaie de documenter, d’accompagner aussi dans la compréhension de la méthodologie ces acteurs-là, parce que c’est nécessaire. C’est effectivement fastidieux et le but c’est quand même que ce soit le plus automatisé le plus possible.
Hermine vise vraiment à automatiser le maximum de ça. Le but d’Hermine [16] , c’est de pouvoir propager chaque décision qui est prise et de mutualiser. Dans un projet, quand on détecte une dépendance qui, je dis n’importe quoi, comme licence a un mauvais identifiant SPDX, on corrige une fois et le but c’est que ça soit corrigé pour toutes les autres occurrences de cette même dépendance. Ce sont des choses qu’on essaie d’associer, en tout cas de les outiller. Le but d’Hermine c’est qu’ils aient aussi les outils qui leur permettent de perdurer dans le temps.
Dernier point. Ce sont effectivement des choses qui sont longues, mais c’est aussi un métier assez complet quand on permet de générer des software Bill of Materials.
Il y a un vrai regain d’intérêt, une prise de conscience de ça, notamment parce qu’aux US c’est maintenant quelque chose d’obligatoire : dès lors qu’on travaille avec l’État, il faut fournir des SBOM exhaustifs. Il y a même de plus en plus d’acteurs qui se positionnent dessus et c’est une bonne chose. En fait, on se rend compte qu’avant, ce qui était livré au client ne correspondait pas à ce qui fonctionnait réellement sur les serveurs in fine. Il y avait donc une méconnaissance assez énorme, à cause du numérique et peut-être de la complexité du développement, de ce qui était vraiment acheté et ce que ça emportait en termes d’incidence des licences.

Walid Nouh : Au niveau de l’État français, qui travaille sur ces sujets ?

Benjamin Jean : En France, la DINUM, en interne, est assez structurée avec un pôle logiciel libre et communs numériques. Ils sont plusieurs maintenant. C’est aussi le rôle de la DINUM d’avoir une vision de l’infrastructure de l’ensemble des administrations, des autres ministères à intégrer.

J’avais travaillé avec eux sur la politique de contribution aux logiciels libres de l’État français il y a quelques années, qui visait aussi à être instanciable par n’importe quel ministère.
Ensuite, au-delà de la DINUM, ce sont des sujets qu’on entend. Dans les centres de recherche, c’est assez fréquent. Il y a un vrai besoin parce qu’il y a beaucoup d’open source dans la recherche. Dans la valorisation qui est faite des projets de recherche, en revanche, ce sont des compétences qui sont encore peu connues et développées, on intervient donc souvent avec eux.
Ensuite, d’un point de vue plus stratégie politique, des acteurs assez moteurs, c’est l’ADEME, l’ANCT, l’Agence nationale pour la cohésion des territoires. Récemment on a fait une mission pour le ministère de l’Éducation nationale qui, de plus en plus, utilise l’open source dans le cadre des services qu’il fournit au territoire et incite aussi à la production de logiciels libres et open source.

J’y pense maintenant. En Europe il y a quand même une incitation assez forte aux logiciels libres, aux communs numériques aussi. Le terme « communs numériques », de manière volontaire, c’est quand même la terminologie qui simplifie parfois l’accès, en tout cas le changement de posture d’acteurs publics et privés. Pour moi, c’est assez représentatif du logiciel libre tel qu’on l’entend, c’est-à-dire que c’est orienté, c’est finalisé : on pense aux utilisateurs, on pense aux communautés. L’idée de ces communs c’est justement que ces communautés se saisissent finalement de ce dont elles ont besoin. Ça tend vraiment vers les logiciels libres alors qu’on parle de communs numériques. L’Europe le fait de plus en plus. C’est une prise de conscience importante parce que ça renforce, ça soutient ensuite les politiques des États et, dans les États, des agences.
Au-delà de ça, à l’échelle européenne, il y a aussi des mutualisations qui sont intéressantes. On avait mené une mission pour l’Europe, il y a an, qui s’appelait FOSSEPS [Free Open Source Services for European Public Services], qui visait à identifier les logiciels open source critiques utilisés par l’administration au sens ultra large, les villes françaises en font partie, tous les acteurs publics, finalement se demander ce qui est stratégique, critique. C’était à la fois lorsqu’il y avait un usage, entre guillemets, « très important » : on se rend compte qu’en bibliothèque il y a un logiciel qui est utilisé par toutes les collectivités, j’exagère, donc oui, c’est critique, il ne faut pas que ça ne fonctionne plus, il faut faire attention à ce qu’il n’y ait pas de vulnérabilités et ainsi de suite.
L’autre situation qui était critique parce que dans des situations qui sont effectivement critiques : je dis n’importe quoi, pour favoriser le rôle du SAMU dans les calculs d’itinéraires, il ne faut pas que, du jour au lendemain, ça ne fonctionne plus ; ce n’est peut-être pas le meilleur exemple, mais il y avait aussi cette autre dimension.
C’est intéressant de voir que l’Europe se saisit de cette vision un peu haute et stratégique de l’open source dans l’idée d’apporter des réponses dont certaines sont des financements, mais pas que.

Walid Nouh : C’est bien qu’on parle de l’Union européenne. De par mon passé de libriste j’ai peut-être un biais, mais j’avais l’impression qu’en France ou en Allemagne on était plutôt bien lotis parce que c’est possible de vivre du logiciel libre. Est-ce que, pour toi, il y a des pays qui sont plus en avance en termes de structuration open source ou est-ce que, finalement, ils en font tous à leur échelle de manières différentes ?

Benjamin Jean : Je pense que France et Allemagne nous sommes plutôt bons effectivement. Les Allemands sont très industriels dans l’utilisation de l’open source. Ils ont des réponses très industrielles aussi de qualité.
Pays-Bas, pareil, on peut les prendre ensemble.
L’Italie c’est beaucoup plus politique : il y a une obligation que tout ce qui est acheté par de l’argent public soit open source.
L’Espagne, justement à Barcelone, il y a des logiques plus de communs, c’est intéressant de faire en sorte qu’il y ait des communautés de fournisseurs, d’acteurs économiques, des communautés de collectivités qui se fédèrent pour pouvoir maintenir dans le temps.
Au Royaume-Uni, ce sont plus des logiques d’interopérabilité qui allaient aussi vers un usage de maximisation de l’open source.
En fait globalement, partout on voit des choses intéressantes, mais je pense que c’est à chaque fois relativement différent. C’est intéressant aussi de voir les différences qu’il y a entre toutes ces actions-là.

Walid Nouh : Finalement, quand tu discutes avec des gens, que tu arrives au même point mais par des portes d’entrée différentes, ça doit être vraiment intéressant.
Dernière question : est-ce qu’il y a des grosses questions européennes que vous suivez de près ou sur lesquelles vous intervenez ?

Benjamin Jean : Il y a la question des réglementations européennes qui peuvent avoir une incidence sur les communautés open source. On l’avait vu notamment pour toute la dimension sécurité, donc CRA, Cyber Resilience Act, disant que si on impose des contraintes trop fortes aux communautés open source au titre du nécessaire audit de vulnérabilité, en tout cas d’une sécurité, cybersécurité des secteurs finaux, à la fois on comprend le besoin, mais, en même temps, ce n’est pas adapté aux communautés, donc on va mettre à la charge des communautés des choses qu’elles ne peuvent pas générer. C’était un vrai risque dans le sens où une communauté n’est pas une entreprise, elle ne fonctionne pas de la même manière et plus on lui impose des choses pas intéressantes à faire, plus on désengage les acteurs.
Je pense qu’il y a vraiment des sujets de ce type-là. À ma connaissance, il y a eu quand même pas de fondations en Europe, même d’acteurs, qui ont cherché à se mobiliser pour expliquer comment faire sortir les communautés open source de ces contraintes, de ce cadre. Un peu comme pour l’export contre les US. Pour moi, la bonne manière de faire c’est de dire « dès lors que le projet est public, qu’il est diffusé selon une licence libre, on considère qu’on ne lui impose pas la même chose que si c’est un projet qui n’est pas public ou d’une organisation » , ça permet de faire le distinguo. C’est un point.

Ensuite, je trouve intéressant, plutôt bénéfique pour le coup, la manière dont l’Europe opère ses financements aujourd’hui, je pense notamment à NGI, Next Generation Internet. Ce sont des micro-financements, ils sont à 20 ou 30 millions. Au lieu de donner ces dizaines de millions d’euros à un projet avec de très gros acteurs et centres de recherche européens et tous les quatre/cinq ans ça recommence et on repart de zéro. Là ce sont des organismes sans but lucratif, des structures type associatif qui sont délégataires de ces budgets et qui, ensuite, micro-financement à hauteur de 50 à 150 k, plutôt du 50 k, des projets très concrets.
Je trouve ça super intéressant parce que sur des phases de trois/six mois, un an grand max, c’est sur des besoins très ponctuels, bien délimités, et ensuite c’est pas par pas, c’est-à-dire que celui qui se fait financer une première fois peut se faire financer une deuxième fois. Je trouve que ce sont des logiques qui sont très compatibles avec les communautés logiciel libre et open source et c’est très simple d’y répondre. Je trouve que c’est vraiment une super évolution d’un point de vue financement européen. Avant ils étaient détachés du terrain et là, à l’inverse, j’ai l’impression qu’ils sont beaucoup plus proches du terrain que la majorité des autre financements qu’on peut avoir.

Walid Nouh : De tes propos, je dirais qu’en termes de logiciel libre, l’avenir semble radieux, tout du moins ça semble positif.

Benjamin Jean : J’ai tendance à être positif de manière générale. On a la chance, actuellement, d’avoir une dynamique qui est vraiment très favorable. Ce n’est pas encore quelque chose de pérenne dans le sens où ça repose sur quelques individus, ça repose sur quelques expérimentations, ce n’est pas cranté, ce n’est pas gravé dans le marbre, mais c’est quand même tellement mieux que ce qu’il avait il y a dix ans. J’ai l’impression qu’on va dans le bon sens. En plus, avec cette convergence qu’il y a entre des actions de plein de ministères, des acteurs privés aussi qui comprennent ces logiques de mutualisation, de développement en logiciel libre et communautaire des projets, on avance sur le bon chemin.
Je pense que plus ça va, plus le numérique ira vers ça. Je pourrais émettre de réserves, mais je pense que maintenant tout le monde est conscient qu’il faut s’approprier, en tout cas comprendre ce qu’on utilise et qu’il n’y a pas de meilleure façon que de participer à la gouvernance des projets qu’on utilise. Il y a une maturité croissante chez les acteurs publics et les acteurs privés, et je pense que ça va vraiment dans le sens du développement des logiciels libres et d’une société plus libre et ouverte.

Walid Nouh : De mon point de vue, j’avais aussi l’impression que le RGPD avait donné un coup de fouet à l’utilisation du logiciel libre avec toutes les problématiques de confidentialité et de propriété des données.

Benjamin Jean : En fait, pour tout. On a parlé de Framasoft très rapidement, mais d’un point de vue privacy, respect de la vie privée, ce dont on est conscient c’est que si on s’appuie sur des solutions gratuites qui sont fournies par des acteurs outre-Atlantique ou chinois, oui, effectivement nos données c’est ce qui permet de rentabiliser leurs services.
À l’inverse, si on s’appuie sur des acteurs locaux, si on ne peut pas le faire soi-même, on a d’autres coûts mais qu’on maîtrise et on sait pourquoi on les a. Je pense que ça permet de mieux comprendre ce qu’on achète, pourquoi, comment, de mieux appréhender le numérique.

Walid Nouh : Il y a des sujets qu’on a à peine abordés, qui mériteraient une émission complète, je pense en particulier au modèle économique du logiciel libre, car c’est vraiment le genre de sujet qui m’intéresse beaucoup.
Puisque c’est maintenant l‘heure de conclure, je vais te laisser la parole, Benjamin : est-ce qu’il y a des sujets ou un message que tu voudrais faire passer ? C’est la tribune libre, c’est à toi.

Benjamin Jean : J’ai déjà dit énormément de choses. Ce que j’aurais envie d’ajouter c’est l’expression « la route est longue mais la voie est libre ». Globalement on sent que le sens de l’histoire est celui qu’on avait en tête et c’est plutôt une bonne chose. Il y a encore énormément de besoin d’acculturation et de monter en compétences sur tous ces sujets. Je pense que c’est l’un des grands points des années à venir, ce n’est pas fini et ce n’est pas parce qu’on a tous compris pourquoi il faut aller vers ça qu’on sait tous le faire. C’est peut-être là où il y aura encore des initiatives associatives, communautaires, importantes. Il ne faut pas avoir peur de ne pas savoir, de le faire ensemble et d’en discuter. Je suis ravi d’avoir eu cet échange maintenant. J’avais tout à l’heure un appel avec un projet qui se posait plein de questions sur l’utilisation, justement, de l’open source, des incidences d’un point de vue économique. Il faut en parler, que ça avance et partager les connaissances. Il ne faut surtout pas hésiter.

Walid Nouh : C’est un très bon mot de la fin. Merci, Benjamin, d’avoir pris du temps pour parler des sujets qui sont ton quotidien et que tout le monde mériterait de connaître, finalement, parce que ce sont des questions de gouvernance, d’argent public, de ce qu’on veut comme type de société. Merci d’avoir pris le temps de discuter avec nous. J’espère te recroiser bientôt.

Benjamin Jean : De même. Ravi, à très vite.

Walid Nouh : Pour les auditeurs et les auditrices, si ça vous a plu n’hésitez pas à en parler autour de vous, à partager sur les réseaux sociaux, à nous laisser aussi un commentaire sur les plateformes de streaming, le podcast est disponible su toutes les bonnes plateformes de streaming.
Restez connecté pour les prochains épisodes à venir, il y a encore des interviews passionnantes dans des domaines tout à fait différents.
Je vous souhaite une très bonne journée. À bientôt.

Transcription réalisée par le groupe de transcription de l’APRIL, aussi disponible sur libre à lire est disponible, (un grand merci à l’équipe !).

En savoir plus sur Benjamin Jean et Inno3


Cet épisode est enregistré le 5 juillet 2023.

Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (1 year ago)

Nico (alias Nick) – Youtuber spécialisé dans le logiciel libre chez THE LINUX EXPERIMENT


Nico (alias Nick) est Youtuber pour la chaîne The Linux Experiment. Nous l’avons rencontré pour qu’il nous parle de sa chaîne, de la manière dont il travaille et son modèle économique.

podcast.projets-libres.org/@pr…

Sommaire

Description


Nico (alias Nick) est Youtuber pour la chaîne The Linux Experiment. Nous l’avons rencontré pour qu’il nous parle de sa chaîne, de la manière dont il travaille et son modèle économique.

A travers 3 vidéos et un podcast en anglais par semaine, The Linux Experiment traite l’actualité des logiciels libres.

Nous abordons avec lui :

  • son parcours
  • les débuts de sa chaîne Youtube
  • sa ligne éditoriale
  • son modèle économique
  • ses motivations
  • ses défis à venir

Cet épisode est enregistré le 26 septembre 2023.

Le contenu produit par The Linux Experiment (TLE) :



Liens pour en savoir plus



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (1 year ago)

L’histoire de Peertube – Pouhiou & Booteille – FRAMASOFT


Chez Projets Libres nous aimons de Peertube. Et ça tombe bien, car son actualité est riche : sortie de la v6 et annonce de la feuille de route de la v7 ! Dans ce long épisode avec Pouhiou et Booteille, nous parlons de son histoire et de son avenir, de so

podcast.projets-libres.org/@pr…

Sommaire

Peertube avec Pouhiou et Booteille


Walid : bienvenue à toutes et à tous sur Projets Libres! pour ce nouvel épisode. Alors là, je suis ravi aujourd’hui, car on va parler d’un logiciel, encore une fois, que j’aime beaucoup, comme dans la plupart de tous les épisodes que je fais, c’est Peertube.

Peertube, c’est un logiciel que j’utilise à titre personnel, qui me permet de publier des vidéos sur Internet sans avoir à passer par YouTube. Je m’en sers, à titre personnel, pour la mémoire de mon sport, pour éviter de mettre en fait toutes les vieilles vidéos et tout ce qui se passe dans mon sport qui est le roller. Et donc j’ai ma propre instance sur laquelle je mets des gigas et des gigas de vieilles vidéos. Et donc c’est comme ça que j’ai appris à connaître et à aimer Peertube. Et je voulais vraiment faire un épisode dessus pour savoir un peu l’histoire de Peertube, pourquoi ça avait été développé et aussi tout ce qui va autour du logiciel en lui-même, c’est-à-dire un peu l’économie de la création et avoir la vision de Framasoft de où est-ce qu’ils veulent aller avec Peertube, où est-ce qu’ils ne veulent pas aller. Et donc pour ce faire, je suis ravi d’avoir avec moi Pouhiou et Booteille qui sont deux membres de Framasoft et avec qui on va échanger sur ce sujet-là. Donc j’espère que vous allez bien et que vous êtes prêts pour parler beaucoup de Peertube aujourd’hui.

Pouhiou : je suis hyper chaud moi.

Walid : et toi Booteille ?

Booteille : ouais carrément, ça va être bien.

Présentation de Framasoft


Walid : avant que je vous passe la parole pour vous présenter, je voudrais que s’il vous plaît qu’on fasse une introduction assez rapide à Framasoft. Je pense qu’un jour on fera un épisode complet sur Framasoft parce qu’il y en a pareil, il y a beaucoup beaucoup à dire là-dessus. Mais là je voudrais qu’aujourd’hui on se concentre pas mal sur le Peertube. Alors est-ce qu’un de vous deux pourrait introduire ce qu’est Framasoft s’il vous plaît ?

Pouhiou : allez je me lance. Du coup Framasoft c’est une association à but non lucratif, à 1901, dont l’objet social, l’objectif c’est l’éducation populaire aux enjeux du numérique et des communs culturels. C’est un bien grand mot, mais derrière tout ça, en fait, l’idée c’est d’essayer de trouver comment faciliter dans la vie d’un plus grand nombre de personnes, à la fois l’usage de logiciels libres et de logiciels éthiques, parce que c’est pas parce que c’est libre que ça suffit à ce que ce soit complètement éthique, donc voilà, et de faciliter une vie numérique saine, émancipée, autonome, etc. L’association compte 38 membres uniquement, dont 11 de ces membres sont des salariés et j’en fais partie, alors que ? ?l’Unité ? ? est membre bénévole.
On est financé quasi exclusivement par les dons, on a plus de 50 projets actifs, c’est une association qui a quasiment 20 ans, enfin qui aura 20 ans l’année prochaine. Et selon le professeur Lalouche, l’institut du doigt mouillé, c’est totalement une estimation approximative, nous pensons que nos actions bénéficient à plus de 1,4 million de personnes chaque mois. C’est très difficile à savoir parce qu’une des règles c’est qu’on ne piste pas.

Walid : Je pensais que vous disiez qu’il y avait plus de membres en fait dans Framasoft ?.

Pouhiou : ça arrive souvent. Après attention, il y a plein de personnes qui sont les bienvenues pour contribuer bénévolement à nos projets, alors si tant est qu’on arrive à accueillir la contribution et ça, ça demande toujours du temps, de l’énergie du soin, dans la limite de l’énergie humaine disponible, mais c’est une toute petite association et c’est vraiment une des spécificités de Framasoft, l’idée de d’abord rassembler un petit groupe d’humains pour ce groupe d’humains qui est d’accord sur des valeurs et des façons de faire un manifeste, qui est sur notre site framasoft.org, se mettent d’accord pour faire avancer tous les projets que peut lancer l’association.

Présentation de Booteille et Pouhiou


Walid : maintenant, je vais vous demander à tous les deux de vous présenter.

Booteille : moi, du coup, c’est Booteille. Je suis membre bénévole de Framasoft depuis un an et demi et je passe un peu mon temps à faire de l’éducation populaire ou de la pédagogie autour des enjeux du numérique. Je fais ça à la fois à l’échelle bénévole chez Framasoft, je fais ça aussi un petit peu avec les petits débrouillards, une autre association dans laquelle je suis.

Et à l’échelle professionnelle, j’ai monté une auto-entreprise pour accompagner des structures dans leur transition numérique éthique et du coup les aider à sortir de Google, Microsoft, tout ça.

Walid : t’as quoi comme passé ?

Booteille : j’ai appris à programmer quand j’étais ado parce que j’aimais bien les mangas et je voulais filer un coup de main sur l’administration d’un site de mangas. Puis j’ai fini par posséder ce site de mangas. J’ai vécu de la publicité, notamment celle de Google, qui était très lucrative à un moment, plus beaucoup très rapidement. Et en fait, je suis juste un éternel curieux qui s’est intéressé à plein de sujets et c’est ce qui m’a mené progressivement vers le logiciel libre aussi.

Walid : tu as rejoint Framasoft en tant que bénévole il y a longtemps ?

Booteille : il y a un an et demi.

Walid : d’accord. Et toi Pouhiou ?

Pouhiou : je suis Pouhiou, je suis salarié de l’association et actuellement co-directeur de l’association. Donc l’idée c’est vraiment de travailler un peu à la fois la stratégie, la communauté et puis travailler aussi les prises de décisions pour qu’elles se fassent au maximum en collectif, tout ça dans le sein de l’association, ça c’est mon métier. En fait j’ai goûté au libre, je suis pas venu au libre par le logiciel, moi à l’origine j’ai une carrière artistique, j’ai été comédien, j’ai fait de la radio associative, j’ai même été youtubeur d’ailleurs, pas en étant salarié à Framasoft, en débutant, mais j’ai été youtubeur, j’avais une chaîne avec plus de 42 000 abonnés sur Youtube donc je pourrais en parler.
C’est en faisant des romans que j’ai commencé à bloguer, que je me suis rendu compte que je ne voulais pas de limite entre mes œuvres et le lectorat, et donc je les ai mises dans le domaine public. Et donc quand j’ai fini le premier roman blog comme ça, j’ai contacté Framasoft en leur disant « Coucou, si vous voulez en parler sur le blog », ils m’ont dit « Coucou, on a une maison d’édition, on aimerait bien publier un roman, on ne l’a jamais fait, est-ce que tu le dirais ? »
Et c’est comme ça que j’ai découvert et je suis rentré dans l’association, et voilà. J’ai été d’abord bénévole et puis pendant quelques temps j’ai fait de la communication en tant que chargé de communication.

Walid : des beaux chemins détournés pour en arriver là où vous êtes.

Pouhiou : tout à fait.

La génèse de Peertube


Walid : alors si on commence maintenant à rentrer dans le vif du sujet, à parler de Peertube, ce que j’aimerais comprendre d’abord c’est comment naît Peertube en fait ? Quel est un peu l’environnement au moment où ça naît, d’ailleurs à quelle année vous commencez à travailler là-dessus ? Est-ce que vous pouvez un peu m’expliquer un peu la genèse de Peertube ?

Pouhiou : du coup là je vais me lancer parce que vous savez que vous n’étiez pas forcément là à cette époque-là même si tu connais l’histoire. Framasoft lance une campagne entre 2014 et 2017 « dégooglisons Internet » où on dit il y a un problème avec les outils des géants du web. Donc on va identifier 30 outils des géants du web, on va mettre 30 logiciels libres en face et sur 3 ans on va sortir des services comme ça pour ces outils. Celui qu’on n’a pas sorti, c’était l’alternative à YouTube. Il y avait des logiciels libres qui permettaient de faire des plateformes vidéo, mais ça ne répondait pas à tous les problèmes.

Et notamment, en fait, on s’est rendu compte qu’il y avait trois problèmes quand tu veux faire une plateforme alternative à celle de YouTube, à celle de Google.

Un, le problème de la confiance. Il faut avoir confiance dans le logiciel. Donc pour ça, évidemment, il faut du logiciel libre. Et en plus, ce qui est bien, ce serait d’avoir un logiciel libre vraiment communautaire et pas maintenu par une entreprise qui derrière peut le fermer ou faire du faux pain de source, des choses comme ça.

Deuxièmement, l’autre problème, c’est que si tu mets ton serveur de vidéos juste pour toi, c’est cool, mais t’es tout seul dans ton armure et t’as un petit catalogue de vidéos. Et un des grands avantages de YouTube, c’est que tu y trouves toutes les vidéos du monde, puisque tout le monde vient y mettre ses vidéos. Mais pour ça, il faudrait accueillir les vidéos du monde entier, et c’est très très lourd. Et donc, il faut trouver une architecture qui ne soit pas centralisée et qui permette d’avoir un énorme catalogue de vidéos sans avoir besoin des fermes de serveurs de Google. Ça, c’est le deuxième problème que ça posait, et auquel les logiciels libres de l’époque ne répondaient pas puisque ils étaient aussi en architecture centralisée.

Le troisième problème purement technique que posait aussi le fait d’héberger une alternative à YouTube, c’est si une vidéo à du succès. Et quand tu es hébergeur, tu dois craindre le succès, parce que le succès, ça veut dire que tout le monde vient télécharger la vidéo pour la regarder sur son écran en même temps. Le streaming, c’est juste du téléchargement qui s’efface au fur et à mesure, mais c’est du téléchargement. Et donc du coup, si tout le monde vient en même temps, ça crée un embouteillage au niveau du tuyau, ce qu’on appelle la borne passante. Donc voilà.

Et donc là aussi, il fallait trouver une astuce technique pour que lorsqu’il y a une vidéo qui a du succès, ce qui est plutôt chouette en général, en tout cas pour les créateurs et créatrices, c’est plutôt cool, comment est-ce qu’on fait techniquement pour qu’il n’y ait pas besoin d’avoir les fibres internet et les câbles sous-marins de Google ? Donc voilà, on avait besoin de répondre à ces soucis techniques et c’est comme ça qu’on a commencé à se pencher sur la question.

Walid : vous avez commencé à vous pencher sur la question, on était en quelle année là ?

Pouhiou : on est en 2017, on est vers la dernière année de dégooglisons, on se rend compte qu’il y a des choses qu’on a fait en plus qui n’étaient pas prévues dans le plan originel, des choses qu’on ne fera pas : typiquement le mail.

À une époque on pensait faire un Framamail et on s’est dit ben en fait si on fait ça il faudrait embaucher trois administrations à plein de temps, il faudrait s’assurer que ça soit des moyens démesurés, on va pas s’en serre. Et du coup qu’est ce qu’on fait de YouTube quoi ?

Et je me rappelle le FOSDEM 2017, on est en Belgique, plusieurs membres de l’association, donc début février 2017, et on se dit mais comment est-ce qu’on peut résoudre ces problèmes-là, ces problèmes de devoir héberger les vidéos du monde entier et tout ça. On regarde les logiciels libres qui existaient à l’époque, tu avais Media Goblin, Media SPIP, Media Drop je crois, ouais merci. Et ça répondait pas parce qu’on était dans l’architecture centralisée. Et je commence limite comme une blague à dire « mais et Popcorn Time ? » Popcorn Time c’est du logiciel libre et c’est un logiciel qui était utilisé pour que les fichiers de torrents de films piratés soient visibles un peu en mode streaming avec une interface à la Netflix.

Donc c’était un truc totalement utilisé principalement pour du partage illégal de cultures. Et je fais « mais si Popcorn Time, derrière, on met des seedbox pour booster un peu les vidéos et qu’on fait une interface d’upload, on peut peut-être s’en servir pour que finalement les vidéos soient hébergées en tant que fichiers torrents et sur la fédération Torrent et éviter cette centralisation. Donc on réfléchissait à ça.

On réfléchissait mais on n’était pas sûr. On s’est dit, ce n’est pas grave, on n’y arrivera pas en 2017, on le mettra dans le prochain plan de trois ans. Au cours de ces mois-là, il y a quelqu’un qui tombe sur un projet d’un jeune étudiant, dont le pseudo est Chocobozzz, et qui avait du coup ce projet de dire « tiens mais moi en fait je veux faire une plateforme de vidéo, mais fédérée comme Diaspora« . Et en plus que ce soit fédéré, donc du coup plutôt que d’avoir une architecture centralisée et un géant en serveur, une ferme de serveurs géante, t’as besoin juste d’un réseau de plein de petits serveurs, donc ça c’est génial, c’est le web quoi, tu vois. En plus de ça, justement pour le problème d’une vidéo qui a du succès, je veux qu’en plus du streaming, il y ait une diffusion des vidéos en pair à pair, ce qui permet qu’au moment où tout le monde veut regarder la vidéo, les gens peuvent s’échanger des bouts de fichiers entre eux, leurs ordinateurs peuvent s’échanger des bouts de fichiers entre eux, et du coup c’est résilient. Et donc voilà, on est tombé sur ce projet d’étudiant, on s’est dit trop fou le coup.

Walid : donc Chocobozzz, il était étudiant d’informatique tout simplement ?

Pouhiou : c’était ses dernières années d’études et tout ça. On commence à le contacter. Je crois que ça fait un ou deux ans qu’il avait déjà commencé à bosser. Mais tu vois, c’était un side project pour lui, pour se faire plaisir. Et puis pour se former aussi. Et puis du coup, on commence à lui dire « Coucou, en fait, nous, ton petit projet à côté nous intéresse. Est-ce qu’à un moment donné, on peut pas te financer, faire quelque chose ensemble, pour voir si on arrive à un Proof of concept, à quelque chose qui marche ? ». Un truc où on se dit ça peut marcher et donc on peut mettre des billes dedans. À ce moment-là, il nous a dit « écoutez, non, je sors de mes études, je vais vers un boulot, donc non, bof ».

Sauf que quelques mois plus tard, il fait « en fait là je vais être entre deux boulots, je vais avoir je sais plus 3 à 6 mois de libre ». Et donc là on a dit « écoute, nous on te salarie pendant 3 à 6 mois, tu bosses sur ton projet perso professionnellement, on fait en sorte de ça pour voir si ça peut marcher et si ça peut marcher, après on décide de ce qu’on fait ensemble ». Et c’est comme ça que fin 2017, on est arrivé devant le public en disant « coucou, on a ce projet là, on veut faire une campagne de financement, est-ce que vous financeriez pour qu’on paye Chocobozzz pendant un an pour arriver à une V1 ? parce qu’on a une V0 qui tient la route ».

Walid : deux questions, la première, Chocobozzz, il était déjà assez convaincu du logiciel libre ?

Pouhiou : je ne veux pas trop parler à sa place, pour info d’ailleurs il est hyper à l’aise avec le fait que ce soit pas lui qui parle, parce que lui il préfère ne pas prendre les devants de la scène. Voilà, mais du coup je ne veux pas trop parler à sa place, mais il me semble bien que lui déjà dès le départ il y avait tout un tas de valeurs, et notamment des valeurs pour se dire en fait comment est-ce qu’on peut sortir de cette centralisation qui favorise forcément les monopoles des géants du web. Donc il y avait déjà ça. Et du coup, comment est-ce que moi, ingénieur, je peux répondre techniquement à des problèmes pour essayer de penser autrement une plateforme vidéo ? Et voilà. Il y avait déjà cette démarche, il y avait déjà une licence libre qu’on a affinée ensuite ensemble quand on est passé à la V1. Pour lui, il y avait déjà quelque chose. Et puis voilà, il était inspiré par Diaspora, il était inspiré par des choses comme ça, enfin oui il était déjà quand même dans la communauté du libre et de l’open source.

La complexité de Peertube par rapport aux autres logiciels créés par Framasoft


Walid : est-ce que Peertube était un des éléments qui techniquement étaient les plus difficiles ou est-ce que vous aviez d’autres projets qui étaient plus difficiles techniquement que Peertube ?

Pouhiou : techniquement ? Hum…

Walid : je vais reformuler, est-ce que pour les autres projets les technologies étaient déjà disponibles ?

Pouhiou : non, pas toutes. Toutes les technologies n’étaient pas disponibles sur les autres projets et les autres services qu’on a voulu sortir. Il y en a quelques-uns qui ont été développés par exemple par Sky, notre admin sys préféré historique. Il y a typiquement Framagenda qui permet d’avoir un agenda synchronisé et partageable, etc. En fait, il est basé sur une installation de Nextcloud, qui est toute une suite logicielle, et notamment pour synchroniser des dossiers et des fichiers. Mais quand tu te crées un compte sur un agenda, tu n’as quasiment pas d’espace de partage de fichiers. Tu dois avoir 2-3 mégas, le minimum possible.

Or, ce qu’il fallait, c’est arriver à avoir une application Calendar de Nextcloud, donc qui gère comme ça les calendriers, les contacts et tout, une application suffisamment évoluée et à l’époque elle ne l’était pas. Et du coup, on a pris un stagiaire d’école ingénieur, on lui a dit « six mois, on te propose ce stage-là ». C’était quelqu’un qu’on connaissait déjà bien, qui était un petit génie du logiciel libre, qui avait déjà été contributeur à Wallabag, qui nous avait permis de faire le service Framabag, qui est un service de conservation d’articles dans ton petit carnet d’articles web personnel, ou de pages web, ou de signés, des choses comme ça. Et du coup, voilà, Thomas a développé l’application Calendar, qui existait déjà dans Nextcloud, mais il a développé de manière à ce que vraiment toutes les fonctionnalités, que ce soit facile d’utilisation, etc. Et on a d’ailleurs été tellement contents de ce travail avec Thomas que derrière, à la sortie de son stage, on lui a fait une proposition d’embauche et il est toujours aujourd’hui développeur au sein de Framasoft.

Le début du développement de Peertube


Walid : si on revient sur Peertube, comment ça se passe les débuts, les débuts du développement sur Peertube ? C’est-à-dire que vous faites une campagne de financement participatif ?

Pouhiou : oui, une première, oui.

Walid : vous estimez qu’il faut combien d’argent pour développer Peertube au départ ?

Pouhiou : pour nous en fait c’était un an de salaire, toute cotisation et charges comprises. Quand je parle de charges, je pense plutôt à des locaux, à un ordinateur, des choses comme ça. Et donc du coup, je ne me souviens plus exactement, mais je pense que c’était 50 000. On avait mis un financement à 50 000 euros, me semble-t-il.

Walid : et à la fin de la campagne de financement, vous arrivez à quel montant ?

Pouhiou : on a eu un peu plus, on a eu 68, 69 000. Là aussi, je te le fais de mémoire et je n’ai pas regardé les chiffres.

Walid : Vous avez atteint plus que l’objectif ?

Pouhiou : oui, tout à fait. Je crois d’ailleurs que c’est le cas sur toutes les campagnes Peertube, qu’on atteint plus que l’objectif. En général, même sur les campagnes de ?donneurs?, sachant qu’il y a eu deux campagnes de crowdfunding pour Peertube, une pour arriver à la V1, où on a eu en effet plus des 50 000 demandées, et une autre pour la V3, qui comportait notamment le moteur de recherche dans toute la fédération et le live.

Et sur ces deux campagnes de crowdfunding, l’argent a été donné spécifiquement pour le projet et donc a été consacré exclusivement au projet évidemment, en comptabilité on appelle ça un compte dédié. Mais à part cela, et on préfère aujourd’hui de toute façon dire que de toute façon tous les dons dédiés à Framasoft vont à l’ensemble des projets de Framasoft. Parce qu’on se rend compte que forcément, à un moment donné, ça s’équilibre. Et puis parce que, par exemple, on ne peut pas dire que, ne serait-ce que Chocobozzz va travailler à 100% de son temps sur Peertube.

Si je reprends justement cette époque de la V3 et du live, en fait c’est en 2020, c’est en pleine pandémie. Et pendant la pandémie, du coup, notre service de visioconférence Framatalk voit en 15 jours son usage multiplié par 10 ou 100, c’est un truc absolument phénoménal. Et donc là Chocobos a arrêté de coder le live dans Peertube et s’est mis à faire de l’administration système pour balancer la charge sur plusieurs serveurs pour que Framatalk tienne le coup et qu’on puisse fournir de la visio aux gens qui étaient confinés. Tu vois, et donc il y a des moments où il n’a pas bossé, parce que c’est normal à Framasoft, on fait tous et toutes 50 000 trucs. La campagne de financement participatif se passe bien, donc la V1 est financée.

Walid : qu’est-ce qu’il y a au moment de la V1, quand vous avez fini la campagne de financement participatif, qu’est-ce que vous avez déjà comme première base en fait ?

Pouhiou : on a une base qui fonctionne, oui, mais par exemple, à ce moment-là, on n’était pas encore passé sur la base de données que nous on favorise à Framasoft par expérience PostgreSQL. Je crois que c’était encore sur MongoDB à l’époque, lors du Proof of concept. Au niveau fédération, je crois que c’était plutôt inspiré de Diaspora.

Et au même moment où dans les premiers mois du développement de la V1, donc je parle de fin 2017 à fin 2018, il y a ActivityPub, qui est un protocole, un langage de fédération qui est accepté par le consortium mondial du web, le W3C. Et donc là on se dit, en fait non, il faut vraiment partir sur ActivityPub, là ça va être utilisé par tout le monde, cette machin. Donc du coup il faut tout changer au niveau du protocole de fédération, de ce qu’on avait déjà dans le Proof of concept. Mais même, nous ce qu’on voulait aussi, c’était ce qu’on n’avait pas dès le départ, c’était un lecteur vidéo qui marche dans les deux cas de figure, qui était à la fois le streaming habituel du serveur vers la personne qui regarde et son ordinateur, et faire du pair-à-pair. L’idée étant de pouvoir faire de manière transparente et sans que ça se voit au niveau des gens les deux potentiellement. Ça, ça ne marchait pas encore. Il nous fallait un lecteur vidéo qui marche.

Walid : au départ, dans le Proof of concept, il y avait quoi ?

Pouhiou : il y avait juste la lecture vidéo type streaming ou il y avait… Il y avait déjà un peu du protocole de fédération, me semble-t-il, de Diaspora à l’époque. Il y avait du streaming. Enfin voilà, il y avait des pistes pour faire du peer to peer. Il y avait aussi des idées pour tout ce qui va être créer son compte, s’abonner, s’abonner en transparence, etc.

Il y avait des premières idées de fédération mais qui étaient plutôt calquées sur Diaspora, c’est-à-dire tout le monde est fédéré à tout le monde et personne ne choisit à qui il est fédéré. Ce sur quoi très vite on a changé l’autorité des pôles en disant non, il faut qu’il y ait une maîtrise vraiment des personnes qui servent une instance, qui hébergent une instance, qui l’administrent. Il faut que ces personnes-là puissent décider de ces personnes-là je les suis, ces personnes là je ne les suis pas. Et du coup ça change complètement l’architecture et les modes de fédération. Donc voilà.

Walid : la V1 elle a pris combien de temps à développer ?

Pouhiou : enfin une bonne dizaine de mois, entre 10 et 12 mois ouais. Et à la fin de la V1 on avait toutes les promesses qui marchaient. Et en plus, ça je me rappelle qu’il avait rajouté, Choco, il a rajouté la capacité de faire de la redondance d’une instance vers une autre, c’est-à-dire que typiquement si mon instance j’ai pas mal de… j’ai un gros serveur avec pas mal de capacités, je peux dire bah écoute je vais soutenir ton instance ou ta chaîne ou ta vidéo et si à un moment donné ton serveur il est un peu surchargé, ça va aller sur le mien.

Les premières réactions à Peertube v1


Walid : et donc la V1 elle sort, quelles sont les premières réactions et je veux dire quel est un peu l’accueil public de la communauté libre autour de cette de Peertube ? Qu’est ce qui se passe à ce moment là ? Est-ce qu’il y a de l’engouement ?

Pouhiou : oui, oui, non, il y a un vrai engouement. De toute façon on a fait aussi nous à côté un travail de dire on veut montrer les cas d’usage qu’on veut etc donc on est aussi allé voir des créateurs de contenu. Je me rappelle on était déjà en contact avec DataGueule, par exemple, des journalistes qui font des vidéos de vulgarisation et de visualisation de données. On était aussi en contact avec les conférenciers et conférencières gesticulants, donc voilà, les aider à mettre en place une instance et à s’autonomiser dessus. Donc on a voulu qu’il y ait des choses déjà qui sortent avec. Et ce qui était très intéressant, c’était que autant justement la communauté du libre et la communauté technique comprenaient la petite prouesse technique et en tout cas le côté intelligent de la réponse technique à des problèmes politiques.

Le problème politique c’est une centralisation par les géants du web et un monopole et la réponse technique, c’est on va démocratiser les moyens de diffusion de la vidéo et faire en sorte que pour diffuser des vidéos et avoir les mêmes avantages que Google, t’as pas besoin d’avoir les moyens de Google. Donc il y avait une vraie compréhension et par contre il y avait tout un travail à faire d’éviter d’avoir notamment au niveau des médias un peu plus grand public etc la mode de l’époque qui était voici le nouveau YouTube killer. Voilà et parce qu’à l’époque sortait tout le temps une start-up qui disait bonjour j’ai le nouveau Facebook killer et inscrivez-vous à Hello, inscrivez-vous à machin ou le Twitter killer etc c’était vraiment la mode médiatique à l’époque dans les médias traitant du numérique. Et donc nous très très très vite on a dit, quand on annonçait la V1, on annonçait bien en gros ceci n’est pas le YouTube killer. Notre petite association avec 50 000 balles et un an de boulot à un dev ne peut pas concurrencer les géants du web et les plus grandes puissances financières, technologiques, économiques, culturelles mondiales. C’est pas possible.

Booteille : et je pense que là tu appuies sur un point qui est très important avec Peertube et beaucoup de projets notamment portés par Framasoft, c’est l’idée qu’on ne cherche pas à recréer un YouTube, on ne cherche pas à recréer un Facebook, on ne cherche pas à recréer tout ça, on cherche à construire des alternatives qui sont pensées pour les humains et les humaines qui partagent nos valeurs ou non, mais c’est un autre concept. On ne cherche pas, j’appuie là-dessus, on ne cherche vraiment pas à reproduire YouTube. Par contre, s’il y a des fonctionnalités chouettes dans YouTube qui nous intéressent, effectivement, on va les réfléchir, on va chercher à les intégrer. Par contre, toujours sous notre prisme, celui qui a nos valeurs et nos principes.

Walid : et effectivement, j’avais pas capté que la sortie de Peertube V1 était concomitant avec l’arrivée du protocole ActivityPub, ce qui montre bien que le logiciel a été pensé dès le départ pour la fédération et a grandi avec. J’ai une question un petit peu technique, tu l’as abordée Pouhiou un tout petit peu avant, tu as dit sur la V0 il y avait une licence libre et puis on a affiné la licence pour la V1. Donc pour la V1, la licence actuelle de Peertube c’est une AGPL V3+, qu’est-ce qui fait que vous choisissez cette licence-là ?

Pouhiou : donc il faut savoir que Choco, très vite, quand on lui a dit « Écoute, nous on veut pérenniser ton emploi au sein de Framasoft et le développement de Peertube, on veut le mener le plus loin qu’on pourra et que ça intéressera le monde, quoi, tu vois. » Et tout ça, il nous a dit « Ok, mais du coup, moi, qu’on soit clair, maintenant, le projet Peertube appartient à Framasoft et non pas uniquement à Chocobozzz. » Donc voilà, et du coup, on a travaillé un peu plus la licence ensemble, et du coup, Framasoft, on a toujours eu une politique sur clairement 1, licence libre, tout ce qu’on produit doit être sous licence libre, on vient du milieu du logistique libre, pour nous c’est une évidence, d’autant plus qu’on est financé par les dons, par la communauté, donc la moindre des choses c’est de reverser notre production dans les communs. La politique de Framasoft aussi sur ces productions, c’est que ce soit des licences virales à l’inverse des licences permissives. Tu me dis si je développe sur cette partie là.

Walid : non ça va, j’ai déjà fait un épisode avec Benjamin Jean là dessus.

Pouhiou : Benjamin Jean qui était membre de Framasoft. Tout à fait, super du coup c’est bon. Mais voilà donc du coup pour nous ça a été toujours clair donc là pour un logiciel une licence GPL v3 est très bien et le A dans AGPL en fait c’est parce que comme c’est un logiciel principalement serveur ça permet encore une fois de mieux protéger le commun au niveau des modifications qui pourraient être faites sur d’autres serveurs.

Donc là il y a la v1 alors je sais plus à quel moment c’est, ma mémoire me fait défaut j’ai pas forcément trouvé l’article, je sais qu’à un moment la FSF avait mis Peertube comme un des logiciels principaux à soutenir. Je me demande, à partir du moment où la V1 sort et les gens commencent à l’utiliser, est-ce que ça vous pousse tout de suite à faire une V2 ? Comment vous organisez finalement après la V1 et après les premiers retours ?

Pouhiou : en fait, nous on a pensé V2 à partir du moment où on a réussi le crowdfunding pour financer la V1. On s’est dit en fait, on sait très bien qu’on ne va pas réussir en un an à faire tout ce qu’on voudrait et on va non pas viser de tout livrer d’un coup et de mettre, voilà… Mais on va viser une progression dans la vie du logiciel et donc d’année en année à l’améliorer. Donc pour nous ça a été dès le départ pensé comme ça et justement ça a été le truc, c’est ceci n’est pas un YouTube killer mais on va avancer au fur et à mesure et notamment quand on s’est adressé à des publics, on sait qu’au début de la vie du développement de Peertube, on s’est adressé à des publics plutôt techniques qui comprenaient mieux les enjeux, et puis quand ce public-là a été acquis, on a pu s’adresser à des publics un peu plus néophytes, et de plus en plus on essaie de s’ouvrir au fur et à mesure parce que le logiciel mûrit et devient accessible à un plus grand nombre, ce qu’il n’était pas lors de sa v1 ou v2, ce qui est bien normal. Donc ça c’était pensé de départ, et au niveau de l’accueil, au niveau du libre, il est plutôt chaleureux. En effet, la FSF, je me rappelle que même à l’époque, Richard Stallman, lui-même, est intervenu sur le guide pour nous donner des indications sur comment bien implémenter la licence de manière, avec un protocole rigoureux. La FSF nous a demandé à Framasoft de leur offrir un hébergement d’une chaîne Peertube qu’on a fait sur notre instance Framatube, c’est une des rares exceptions parce que d’habitude on n’héberge pas de monde exprès. Bon voilà, cétait la FSF, on a fait une exception.

Mais en même temps aussi, évidemment, il y avait des critiques qui sont en plus, en somme toute légitime et tout ça, des critiques par exemple sur l’utilisation de JavaScript, en plus JavaScript sous forme de TypeScript qui a été conçu par Microsoft. Enfin voilà, et JavaScript n’est pas forcément très très apprécié par toutes les personnes qui aiment le libre. On a essayé de travailler un peu sur la question de de LibreScript, c’est ça la version JavaScript libre par la FSF, et les échanges qu’on a eu, alors qui sont un peu en off, voilà, mais qui sont pas non plus un grand secret, c’est qu’on s’est rendu compte que LibreScript a été écrit à une époque où la manière dont c’est fait n’est plus la mieux adaptée maintenant et ce qu’il faudrait, ce serait modifier la manière dont on peut reconnaître du code JavaScript libre et respectueux. Donc il faudrait une évolution peut-être de LibreScript, en tout cas pour nous ce serait beaucoup trop contraignant de faire en sorte que le code JavaScript de Peertube soit compatible de LibreScript. C’est juste au niveau travail, c’est juste indécent. Mais voilà, des critiques, des choses comme ça, c’est comme dans la vie du libre.

Pouhiou : j’étais à l’extérieur de l’assaut à cette époque-là, et il y avait un moment qui a été marquant pour moi, c’est quand Blender a des problèmes de monétisation avec YouTube et annonce, « ok, grosso modo on emmerde YouTube, on va sur Peertube ». Moi, à ce moment-là, j’ai vu Reddit s’enflammer, j’ai vu Internet commencer à parler massivement de Peertube comme une alternative à YouTube.

Et après, quand Debian fait son don de 10 000 euros pour la sortie de Peertube V3 avec le live et tout ça, il y a eu un nouveau petit coup de fouet en termes de popularité. Et je pense que ces deux moments ont été vraiment des game changers (NDLR : ont changé la donne) aussi au niveau de la communauté, de l’acceptation du logiciel comme une alternative pour faire de la vidéo.

Pouhiou : de toute façon, on ne le dira jamais assez, les meilleurs promoteurs du libre et du numérique éthique ce sont les géants du web. A chaque fois qu’ils font de la merde et qu’ils font des choses qui vont à l’encontre du bien commun et des gens etc parce qu’ils veulent juste donner de l’argent à leurs actionnaires, à chaque fois qu’ils font de la merde, ça permet de promouvoir en même temps les alternatives libres, à chaque fois que Twitter a eu un scandale avec Elon Musk, ça a ramené du monde sur Mastodon, à chaque fois qu’un nouveau Windows sort, il y a plein de gens qui se mettent à découvrir GNU Linux et plein de distros sympas.

C’est cool, on se rend compte qu’à chaque fois qu’ils font des erreurs, il y a des gens qui viennent nous trouver.

Booteille : ça m’évoque vraiment la dimension du pas de côté. Je suis assez partisan du fait d’essayer de construire des alternatives et un environnement numérique alternatif qui fait que au moment où ça demandera… ou au moment où les gens auront envie de faire l’effort de faire ce petit pas de côté vers chez nous, ce pas de côté soit le plus simple possible, le moins énergivore possible. Et c’est ce qui s’est passé dans les exemples que tu as cités Pouhiou quand Elon Musk rachète Twitter, fait de la merde etc.

Des millions de personnes arrivent sur Mastodon. Quand Blender a des problèmes avec YouTube, bam, on parle de Peertube et on commence à financer Peertube. Je pense que c’est un de nos enjeux en tant que communauté du libre en tout cas, pas d’attaquer frontalement les géants du web parce qu’on n’a pas l’énergie tout simplement, on n’a pas les moyens, mais vraiment de chercher à construire des alternatives qui donnent envie pour que le grand public, en fait, à un moment puisse simplement venir nous trouver parce qu’on a construit des portes faciles, parce que ça demande le moins d’énergie possible.

Pouhiou : si je peux me permettre de rebondir, ce qui est génial là-dedans, c’est que tu te rends compte qu’en fait les géants du web sont aussi enfermés dans leur modèle économique, politique, dans leur choix de société. Donc leur modèle économique, c’est l’économie de l’attention, leur modèle politique s’appelle le capitalisme de surveillance, voilà, et du coup avec l’objectif d’avoir une captologie, donc de capter un maximum d’attention pour capter des données pour les revendre, en fait ils sont enfermés dans ça et du coup nous on a tout un espace de liberté que eux ne peuvent pas s’offrir parce qu’on n’a pas les mêmes contraintes, on n’a pas les mêmes objectifs. Eux leur objectif c’est de capter l’attention.

Et un truc tout bête, depuis très très longtemps sur YouTube, tu peux partager une vidéo en démarrant à 3 minutes 10. Et si tu regardes, ça te donne l’adresse web, l’URL de la vidéo avec T égal, enfin c’est pas 3 minutes 10, c’est un nombre de secondes, mais voilà. C’est extrêmement simple pour Google de coder un « je te partage un lien, la vidéo démarre à 3 minutes 10 et tu finis l’extrait à 5 minutes 40, même si la vidéo fait 10 minutes. C’était trois fois rien de rajouter un deuxième paramètre. Pour eux c’était trois fois rien. Ils ne l’ont pas fait pendant des années. PeerTube on l’a fait deux ou trois ans avant eux et deux ou trois ans plus tard Google a copié. Alors ils n’ont pas copié, ils ont fini par le faire, tu vois. Mais voilà, et nous on était totalement libre de faire ça parce qu’on n’avait pas besoin que les gens restent le plus longtemps devant leur Peertube.

On avait juste besoin qu’ils voient les extraits qui les intéressent, ou qu’ils partagent les extraits qui les intéressent, même si ça s’arrête au bout de trois minutes.

Les modes de financement de Peertube


Walid: ce que vous venez de dire juste avant me fait une bonne transition parce que je voulais parler du mode de financement de Peertube, qui est vraiment une question que je me posais. Donc on a parlé de financement participatif, là on a parlé de dons Debian par exemple. Je voulais savoir un peu quels sont les différents moyens que vous avez pour financer Peertube. C’est Peertube ?

Pouhiou : Framasoft, ça dépend des années, est financé entre 90 et 98% par des dons.

Dans ces dons, il faut quand même distinguer deux types de dons, des dons de fondations, des gros dons entre guillemets, parfois d’entreprises, c’est plus rare mais il y en a eu quelques-unes, et les dons particuliers mais qui restent quand même, genre c’est les trois quarts de notre budget, c’est les dons de légendes. Ça c’est en général pour les activités de Framasoft. Concernant Peertube c’est principalement ça, parfois spécifiquement pour l’AV1 en 2017-2018 et pour l’AV3 qui est sorti fin 2020, ça a été des crowdfunding, donc un financement spécifique avec un objectif spécifique etc. Sauf que pour les crowdfunding, il faut avoir quelque chose, il faut aussi susciter l’engouement auprès du grand public. Donc dire, on veut montrer que c’est possible et offrir une V1, c’était quelque chose. Pour la V3, ça a été on veut vous offrir la recherche à travers toute la fédération et le live. Et on va pas faire juste du YouTube, on va faire du Twitch aussi. Là, ça, c’était assez énorme.

Il y a eu ce premier modèle économique du don et du crowdfunding. Une très très faible partie, mais notamment en 2022 particulièrement, on a eu quelques prestations.

Ça a été des prestations en développement pour des développements spécifiques. Typiquement, on a eu le ministère de l’Éducation nationale qui, pour intégrer Peertube à sa plateforme apps.education.fr, qui est un ensemble d’outils libres mis à disposition de l’ensemble des profs et des élèves de l’Éducation nationale, ils avaient besoin de pouvoir se connecter à son compte via des protocoles spécifiques, LDAP, SAML, bref, machin. On a développé le plugin qui nous ont financé. On a eu aussi un média All-around, donc c’est un média des arts de la scène hébergé par l’Université Emerson à Boston. All-around qui avait besoin sur Peertube de différentes choses et qui nous ont financé différentes fonctionnalités que nous on avait envie de faire en plus donc ça tombait bien. Mais ça c’est quand même plutôt rare et c’est une très faible partie du financement de Framasoft en général et de Peertube en particulier et sinon en 2021, là pour la v6 qu’on vient de sortir en 2023 et si tout va bien, logiquement c’est bon, pour la v7 de 2024, sur Peertube on a touché des bourses de NLNet. NLNet qui fait partie d’un collectif plus grand qui s’appelle Next Generation Internet qui finance des projets pour un meilleur internet et qui finance ces projets en redistribuant des fonds européens, mais en les redistribuant sur différents petits projets en vérifiant l’avancement de ces projets. On a une très bonne relation avec NLNet et Next Generation Internet.

Walid : je conseille à tous les auditrices et auditeurs d’écouter l’interview que j’ai faite de Benjamin Jean dans lequel on parle justement de ce financement européen. Et c’était justement une de mes questions de savoir est-ce que vous bénéficiez de financement européen. Donc voilà tu viens de répondre à la question. Dans Next Generation Internet, ce que Benjamin explique c’est qu’en fait c’est des financements qui sont beaucoup plus simples à obtenir avec beaucoup moins de côtés administratifs que ce qu’on pouvait avoir avant avec les financements européens. Et donc ça avait justement pour but de bénéficier à des projets typiquement comme Peertube.

Pouhiou : c’est ça, à Framasoft on n’a pas l’énergie, les savoir-faire, les connaissances de monter un dossier de subvention européenne. C’est juste un boulot de dingue, c’est un mi-temps sur un an, etc. Mais même, tu vois, il y a des projets de l’écosystème Peertube, je pense notamment à l’application Live Chat, qui permet d’avoir un chat pendant les directs sur Peertube. C’est une application externe qui est développée par un développeur externe qui s’appelle John Livingston, qu’on embrasse d’ailleurs. Nous on l’a soutenu plusieurs fois, vraiment, on l’a soutenu même financièrement et puis évidemment on travaille en collaboration avec lui parce qu’on trouve son travail hyper important.

Et là récemment, une grande partie de son travail a été financé aussi par une bourse NLNet alors que c’est quelqu’un qui est tout seul dans son auto-entreprise de développement, il n’aurait jamais la possibilité de monter un dossier de subvention européenne, c’est pas possible.

Equipe de développement et communauté


Walid : donc en plus de ChocoBuzz, est-ce que déjà chez Framasoft, de manière générale, il y a d’autres personnes qui touchent et qui travaillent sur Peertube, est-ce qu’il y a une communauté qui s’est créée autour de Peertube, de développeurs ou de gens qui contribuent, qui en fait travaillent sur l’outil ?

Pouhiou : alors pour la partie Framasoft, déjà moi, ça fait quelques années que je me consacre à être Product Owner de Peertube, c’est-à-dire vraiment à travailler en accord avec ChocoBuzz sur une stratégie, sur les roadmaps (NDLR : feuilles de route), sur des choses comme ça. Mais en fait on est nombreux et nombreux au sein de l’association et même au sein de l’équipe salariée. Il y en a qui vont faire des articles blog, de la communication, des pouets, des choses comme ça. Il y en a qui vont travailler sur les stratégies, sur des choses comme ça.

Mais en effet, pendant un moment, on a été un peu, même limite, goulots d’étranglement au niveau développement puisqu’il y avait un seul développeur salarié qui était Chocobozzz. Et que ça commençait à devenir trop peu vu l’ampleur que prend le projet. Sauf qu’à Framasoft, on a fait un choix assez radical de limiter au maximum notre croissance, parce que notre objectif ce n’est pas de redevenir un géant et parce que nous on sait qu’on fonctionne bien tant qu’on garde une taille humaine, une chaleur humaine dans l’équipe salariée, dans l’équipe des membres de l’ensemble des membres d’associations, dans tout ça. Donc voilà, créer un nouveau poste au sein de Framasoft, c’était vraiment un enjeu très fort, ça nous a demandé beaucoup de travail, beaucoup de réflexion, beaucoup de choses comme ça. Cependant, on savait qu’il y avait un besoin au niveau de Peertube et donc il y a eu une première demande de Chocobozzz fin 2022 de dire voilà en 2023, je ne sais pas si on pourra avoir une personne salariée de plus à Framasoft pour Peertube mais j’aimerais bien moi savoir si je peux travailler en équipe alors que ça fait 6 ans que je travaille en solo sur le développement de ce projet. Et puis j’ai envie de former quelqu’un, donc j’aimerais bien prendre un stagiaire.

Et donc on a eu un développeur stagiaire entre février et juillet 2023, Wicklow, qui est venu là-dessus. Donc quand il est arrivé, en plus j’ai dit les yeux dans les yeux à Wicklow, « attention on va parler de la possibilité d’ouvrir un poste de développement sur Peertube à Framasoft, savoir est-ce qu’on y va ou pas, je te regarde droit dans les yeux, là tu es au début de ton stage, ce poste ne sera pas pour toi, vu que si c’est quelque chose qu’on fait, du coup on peut peut-être comprendre une personne avec une expertise pour éventuellement faire une app mobile, des choses comme ça ».

Les discussions avancent, les discussions se font et en juillet dernier, lors d’un camp où un maximum des bénévoles de l’association, des membres par exemple de l’association se retrouvent, on retravaille sur, « ok on se sent prêt à prendre une personne en plus, et c’est quand même un risque pour l’association » parce que c’est un salaire qu’il va falloir sortir tous les ans, tous les mois, etc.

Mais c’est trop important, il faut y aller. Et du coup, quel type de poste on veut, etc. Et en fait, au bout d’un moment, on se rend compte que stop, il faut qu’on arrête les conneries, ça se passe trop bien avec Wicklow, il faut qu’on lui fasse une proposition d’embauche. Et donc depuis septembre dernier, nous avons embauché un deuxième développeur sur Peertube. C’est une de nos grandes annonces de cette fin d’année parce que pour nous c’est beaucoup, c’est un gros risque, ça veut dire que Framasoft va avoir besoin de plus de dons pour continuer à vivre, tu vois, mais en même temps pour nous c’est essentiel et notamment ce que va permettre le fait d’embaucher un deuxième développeur c’est à la fois d’avoir une autre personne qui va avoir de l’expertise sur les 200, 250 000 lignes de code,

Booteille : 220 000,

Pouhiou : cork, tu vois, c’est quand même pas tout le monde ne peut se dégager du temps pour avoir ça. Et si ce qu’on appelle malheureusement le bus factor, je ne le souhaite pas, mais si un jour Chocobuzzz se prend un bus ou prend un bus pour aller vivre une autre vie ailleurs, dont il a envie, du coup il n’y aura plus personne qui a de l’expertise. Donc là ça permet de doubler cette expertise et d’avoir d’autres personnes.

Et puis ce qu’on va demander aussi à Wicklow là sur l’année prochaine, c’est de se former sur les applications mobiles parce qu’on aimerait bien sortir une application virtuelle. Mais ça on en reparlera je crois.

Walid : en termes de communauté, il y a d’autres gens en dehors de Framasoft qui contribuent ? Et si oui, comment vous animez en fait cette communauté ? Désolé, mon ancien passé développeur de logiciels libres refait surface.

Booteille : non mais la question est intéressante notamment sur la question d’animation de la communauté. Je dirais peut-être commencer par les chiffres.

Depuis la naissance du projet Peertube, il y a à peu près 400 personnes qui ont contribué au code de Peertube. Donc mine de rien, c’est quand même quelque chose. Sachant que le projet Peertube est un projet extrêmement complexe. Ça prend vraiment beaucoup de temps pour s’habituer à la complexité du code, à la manière dont il a été fait. Et il y a un gros enjeu de maintenance, donc c’est pas si évident de voir un bout de code arriver dans le cœur de Peertube parce que derrière, Chocobozzz et Wicklow aujourd’hui, et même tout Framasoft sait très bien qu’il faut maintenir le code qu’on rajoute, donc on peut pas faire les choses juste à la va-vite.

Il faut vraiment prendre du temps pour accompagner chaque contribution. La manière la plus fréquente de contribuer, en fait, c’est vraiment de reporter des bugs sur le tracker de bugs, soit sur GitHub, soit sur Framagit. Sinon, ça va être aussi, s’il y a des problèmes d’administration système, on va plutôt orienter sur le forum Framacolibri, pour vraiment bien ordonner la manière dont on va pouvoir traiter les problèmes. Et sinon, on accueille surtout les propositions aussi. On a lancé ideas.joinpeertube, je ne sais plus si c’est cette année ou en fin d’année dernière. Fin d’année dernière.

Ouais c’est ça. Où on accueille énormément de propositions d’amélioration de fonctionnalité, enfin d’amélioration de Peertube en général, et sur laquelle on se base aujourd’hui maintenant pour établir nos roadmaps, pour savoir dans quelle direction est-ce qu’on va aller avec Peertube. Grosso modo pour les chiffres c’est à peu près ça. Après la question d’animation de la communauté, comme je te l’ai dit, c’est compliqué de contribuer au code, donc ça demande beaucoup d’accompagnement. Donc on essaie de le faire et en même temps on sait qu’à framasoft on est assez mauvais à ça, on est assez mauvais à accompagner, à accueillir les contributions des gens, parce que ça nous demande une énergie de dingue qu’on n’a pas forcément sur le moment.

Pouhiou : cependant il y a quand même eu un soin particulier apporté au projet Peertube et notamment par une volonté de Chocobozzz qui passe en général au minimum 50% de son temps à l’animation de communauté. Quand on dit 400 contributions au code, ça veut dire faire tous les tests, réviser, intégrer le code, etc. Donc voilà, et c’est quelque chose qu’il a fait et qu’il continue de faire. Les issues, discuter chacune des issues et tout ça. Donc les issues, c’est les retours sur le dépôt du code. Voilà, il y a eu quand même plus de 4 500 issues qui ont été fermées et il y en a 450 encore en discussion. Mais tout ça veut dire qu’il y a quand même un gros investissement de temps salarié justement pour essayer d’accueillir les contributions. Mais c’est vrai que finalement les contributions en code les plus faciles et donc les plus nombreuses vont être plutôt sur ce qui est le système de plugins. Et donc dès qu’il y a besoin d’ouvrir l’API pour que un petit bout de logiciel tiers, un plugin puisse communiquer avec le code de Peertube, ça on le fait vraiment facilement. Et tu vois aujourd’hui il y a plus de 130 plugins disponibles pour Peertube, plus de 40 thèmes aussi pour changer le code physiquement. Et ça c’est des contributions qui sont extrêmement précieuses, les traductions aussi.

Walid : le travail de mainteneur c’est long quoi, c’est vraiment long.

Booteille : c’est clairement long et très chronophage. Et c’est aussi, j’allais appuyer sur le fait que là, ce qu’on décrit, c’est aussi une partie au final de la manière d’accueillir les contributions, de notre manière d’animer tout ça. Parce qu’au final, dans l’équipe, il y a pas mal de personnes qui font aussi une veille active de tout ce qui se passe autour de Peertube. On a un regard sur beaucoup de sujets autour de Peertube, même si on ne prend pas forcément part à tout ça, mais on essaie de vraiment voir ce que les gens font. Il y a quelques semaines, on a vu qu’il y avait une interface pour produire une sorte de TikTok en se basant sur Peertube. On a vu ça, on a vu que la communauté agit là-dessus, on a vu aussi qu’un développeur est en train de construire une application mobile pour Peertube. On est rentré en discussion avec pour se renseigner un peu quelles sont les ambitions et tout ça. Donc il y a vraiment, même si c’est pas forcément toujours visible, la volonté en tout cas de se lier à la communauté et de marcher main dans la main avec la communauté qui va aider à contribuer à l’écosystème de Pierre. Et enfin il y a toujours les efforts de communication sur Reddit, sur Mastodon, etc. autour de sur Lemmy aussi, autour du projet.

Pouhiou : c’est d’ailleurs pour ça qu’on s’est rendu compte qu’on était, quand je parlais de goulot d’étranglement, c’est-à-dire que vu le temps passé par Choco sur le travail de maintenance et d’animation de communauté, ça réduisait mécaniquement son temps de capacité de développement. Et donc le fait d’avoir une nouvelle personne dans le développement du projet, c’est aussi pour partager ce travail de maintenance qui est nécessaire et qui est beau, et avoir plus de temps pour développer des nouvelles fonctionnalités.

Peertube et le Fediverse


Walid : le sujet suivant que je voulais aborder c’était le Fediverse. On voit bien que Peertube est on va dire concomitant à l’arrivée du Fediverse finalement. J’ai pas encore fait d’épisodes dessus, il y a un épisode assez sympa dans je ne sais plus quel numéro de podcast de Libre à vous, je le mettrais, où justement il parle de ça, je crois que ça a été en plus il n’y a pas très longtemps, repartagé.

Est-ce que vous pourriez, juste en deux, trois mots, dire pour les gens qui ne connaissent pas ce que c’est que le Fediverse avant qu’on explique un petit peu quelle est la place justement de Peertube dans ce Fediverse ?

Booteille : Tu t’y colles ? Ou je m’y mets ?

Walid : ah, c’est pas facile! C’est la colle ça !

Booteille : on le fait assez quotidiennement. Le Fediverse, en fait, ça tire son nom de l’univers fédéré en anglais. L’idée c’est d’avoir, plutôt que d’avoir des réseaux, des médias sociaux centralisés, gérés par des superpuissances, on va s’appuyer sur des protocoles de communication, on parle par exemple d’ActivityPub, on en a parlé tout à l’heure, mais qui permet en fait à chaque entité de créer à la fois son petit réseau, son média social dans son coin, et en plus de faire en sorte que ce média social-là va communiquer avec les autres et créer une fédération. Ce qui est génial c’est qu’on pourrait se dire « ok c’est super ça marche un peu comme le mail et du coup on peut s’échanger des mails de mon gmail à mon protonmail » etc etc

Sauf que ça c’est qu’une partie du Fediverse. Un des gros avantages du fait divers c’est que le protocole utilisé entre tous les médias sociaux est souvent le même et du coup même si on est sur des logiciels très différents comme par exemple Peertube et Mastodon, ces deux logiciels vont quand même pouvoir communiquer ensemble. Et du coup on arrive sur un énorme média social qui regroupe plein de médias sociaux différents, plein de fonctionnalités différentes, dont la modération est gérée par des plus ou moins grandes entités, il y a quelques grandes entités dans le Fediverse, mais au final on répartit toute la charge de la gestion de médias sociaux. Et aujourd’hui, je crois que le fait divers, c’est 12 ou 13 millions de personnes qui interagissent, soit avec l’alternative à Twitter, enfin une des alternatives à Twitter qui s’appelle Mastodon, qui est le logiciel du fait divers le plus populaire, soit en envoyant des photos sur une alternative à Instagram qui s’appelle Pixelfed, soit en publiant des vidéos sur Peertube, en publiant des événements comme sur les événements Facebook avec Mobilizon. Bref, il y a pour beaucoup de logiciels, de médias sociaux classiques qui sont centralisés et sclérosés, j’ai envie de dire, il y a aujourd’hui des alternatives qui s’intègrent dans le Fediverse et qui va communiquer avec tout le Fediverse.

Walid : qu’est-ce que vous donneriez comme exemple concret pour quelqu’un qui puisse comprendre comment Peertube interagit avec le reste du Fediverse ?

Pouhiou : donc le Fediverse, du coup, du point de vue d’un utilisateur, d’une utilisatrice, il y a un problème de complexité, c’est que c’est plein de portes d’entrée possibles, à la fois dans les usages, c’est-à-dire, tiens, je voudrais plutôt faire des petits messages, des petits micro-blogs à la Twitter, du coup, je vais aller vers une instance Mastodon, mais après, quelle instance Mastodon ?

Il y a plein d’installations de Mastodon sur des serveurs différents, dans des communautés différentes. Il faut trouver la sienne. Et donc là, si tu vas vers du Peertube, c’est que plutôt tu vas avoir envie de partager des contenus vidéo et de monter comme ça une collection de contenus vidéo, comme si tu voulais monter une chaîne YouTube ou Twitch, par exemple. Et l’avantage, c’est que par exemple, quand tu publies une vidéo sur ta chaîne Peertube, du côté de Mastodon, donc de l’équivalent Twitter on va dire, du côté de Mastodon cette vidéo va apparaître comme un tweet, comme un pouet on dit dans Mastodon. Et donc le titre de ta vidéo va être le message, peut-être aussi un petit bout de la description de la vidéo, en dessous va y avoir la vidéo comme un média embarqué, comme quand tu publies une vidéo. Et ce qui est intéressant c’est que du coup le Peertube a créé un pouet sur Mastodon, mais si toi, sur Mastodon, avec ton compte Mastodon, tu mets un favori à ce pouet-là, ça va créer un plus-en sur la vidéo Peertube.

Si tu réponds au pouet de la vidéo, ça va créer un commentaire. Si je réponds à ton commentaire, ça va créer une discussion imbriquée dans les commentaires de la vidéo. C’est un petit peu comme si tu pouvais répondre à une vidéo YouTube avec ton compte Twitter. Aujourd’hui on n’imagine pas que c’est possible et là comme tout le monde a fait le choix de parler le même langage, ça n’est pas la tour de Babel. On s’entend, personne n’est enfermé dans son coin, on peut discuter.

Booteille : et ça crée aussi un enjeu d’interopérabilité auquel on peut répondre. C’est-à-dire qu’aujourd’hui si tu veux migrer toutes tes vidéos qui sont sur Twitter vers YouTube, bon courage je pense parce que tu n’as pas d’outils adaptés. Dans le Fediverse ça n’existe pas totalement encore d’avoir des migrations possibles ou de l’import-export possible d’un logiciel à l’autre de manière très facile mais en tout cas ça peut s’envisager beaucoup plus facilement que face à deux entités qui sont concurrentes financièrement et tout ça.

Walid : le Fediverse c’est un mode à part, qui prend du temps à explorer, c’est assez fascinant. On va pas passer plus de temps forcément sur le Fediverse parce que ça mériterait un épisode et que ça fait déjà une heure qu’on parle.

Peertube et les créateurs de contenu


Walid : parlons maintenant de de la relation de Peertube avec les créateurs de contenu. Ma vision de YouTube c’est que c’est une plateforme qui uniformise des contenus et c’est une plateforme aussi qui te dicte ce que tu peux dire, enfin sur ce que tu ne peux pas dire surtout quoi.

Et ce que j’aimerais bien comprendre c’est quelle est, moi j’allais dire l’idéologie mais bref, quel est votre état d’esprit par rapport aux créateurs de contenu en fait ?

Pouhiou : de toute façon je pense pas qu’il y ait quiconque qui n’ait pas d’idéologie. Tu peux ne pas avoir ton idéologie parce que c’est l’idéologie dominante et présente partout mais tout le monde finalement même quand on ne le veut pas on est à l’intérieur d’une idéologie. Et donc il y a clairement une idéologie autour de Peertube. Et notre idéologie, c’est favoriser l’émancipation numérique, notamment pour pouvoir s’extraire, tant que faire se peut, du capitalisme de surveillance, donc de tout ce système qui, fondamentalement, essaie de nous traire nos données un maximum pour créer de la valeur, et pour la centraliser par des géants et la redistribuer à des actionnaires, grosso merdo. Et donc nous, l’idée, c’est de pouvoir favoriser ça. Et donc la politique sur Peertube précisément, c’est d’avoir un outil pour les personnes qui sont un peu laissées pour compte par ça.

Parce qu’aujourd’hui, typiquement moi, quand j’ai fait ma chaîne sur YouTube en 2014-2016, c’était une chaîne d’éducation sexuelle, d’éducation populaire à la sexualité, sexe positif, queer, femme, avec des influences de tout ça, c’est quelque chose que tu ne pourrais pas faire aujourd’hui. Aujourd’hui, si tu parles de règles ou d’avortement sur YouTube ou sur Twitch, déjà tu vas avoir des mots qui vont être interdits ou qui vont créer de la censure au niveau des robots automatiques, ou alors tu vas être sous-référencé et mis tout en bas des contenus et de l’algorithme et être invisibilisé. Et donc nous on se dit, mais en fait finalement, il y a plein de personnes pour qui ce modèle-là, qui est normal, c’est… le boulot de Google c’est de vendre de la pub. Donc leur objectif c’est de faire des trucs qui permettent de vendre de la pub et ah bah tiens le sujet de l’avortement, le sujet des personnes queers etc. c’est pas vendeur. Il y a des moments c’est pas vendeur. Donc bah du coup, ça ne leur intéresse pas dans leur modèle économique.

Et du coup on s’est dit mais il y a des gens qui veulent juste partager des contenus, il y a des profs qui veulent partager des contenus pédagogiques, il y a des artistes qui veulent partager simplement leur création auprès du plus grand public, il y a des gens dont l’objectif n’est pas justement de récolter de l’argent ou de la gloire, mais de présenter leur travail ou de présenter des techniques, des magasins de tricot qui ont juste besoin de montrer comment est-ce que tu fais tel ou tel point en vidéo pour pouvoir d’ailleurs vendre des laines et des aiguilles.

Donc voilà, toutes ces personnes-là sont laissées pour compte par les YouTube, par les Twitch, par les machins. Et donc nous, c’est plutôt à elles et à eux qu’on s’adresse en premier. Et attention quand je parle de ça, cela n’inclut pas des rejetés de ces plateformes des géants du web qui se sont fait virer parce qu’ils ont des contenus criminels, qui se sont fait virer parce qu’ils ont des contenus qui mettent en danger la vie d’autrui ou des contenus qui promeuvent la intolérance. Et là je vais être hyper clair, Framasoft croit très clairement et très très clair dans sa position qu’il y a des limites à la liberté d’expression et que ces limites sont définies par le paradoxe de la tolérance. Un peu philosophique mais pour résumer en gros le paradoxe de la tolérance c’est que si la liberté tolère même les paroles et les expressions intolérantes, alors on peut finir à ce que l’intolérance détruit la liberté et la liberté d’expression. Pour protéger même la liberté d’expression, il ne faut pas accepter l’expression d’intolérance.

Mais attention, cette idéologie-là, c’est la nôtre, il faut voir comment ça se concrétise au niveau de nos actions sur Peertube. Et pour moi, ça se concrétise dans deux manières de faire. C’est qu’à la fois dans nos choix de développement, quand on nous demande plutôt de faire des outils de pistage des comportements ou des algorithmes qui vont manipuler les gens à regarder plus de vidéos, ça va pas être prioritaire pour nous par rapport à des outils de modération, des outils d’accessibilité, des outils qui vont permettre au plus grand nombre d’être autonome et de s’emparer de Peertube. Et puis on n’a pas juste un rôle de développeur et d’éditeur de logiciels, on a aussi un rôle éditorial parce que par exemple on maintient un moteur de recherche des contenus sur Peertube avec un index et donc là c’est à nous de choisir ce qu’on met ou pas dans cet index. Et si t’es pas d’accord, tu prends le code de notre moteur de recherche et la manière de faire l’index, tout est libre, tu peux le faire de ton côté et avoir ta politique à toi. Mais nous on va appliquer notre politique et quand on nous dit « coucou dans votre index il y a des contenus fachos, on dit que c’est intolérant, par la cause de l’intolérance, on vire ça de notre index ». Cependant si je reprends l’exemple des fachos, ça reste du logiciel libre, la première liberté c’est d’utiliser le logiciel, si les fachos veulent utiliser Peertube, ils le peuvent.

Notre rôle ça va être de donner à la communauté les moyens de se protéger d’eux, et notamment c’est ce qui est arrivé avec Peertube, il y a même eu une étude hyper intéressante par un institut allemand qui montre que les contenus d’extrême droite et les contenus aussi fake news et conspirationnistes, etc. utilisent Peertube, mais finalement sont dans leur bulle de fédération, ont été ostracisés par le reste de la fédération qui s’est coupé d’eux qui ne veulent pas promouvoir leur contenu. C’est une manière de dire, vous êtes libre d’utiliser le logiciel, mais pourtant, nous n’avons pas pour devoir de nous mettre à genoux pour vous servir de plateforme et de portefeuille.

Des exemples d’instances Peertube connues ou remarquables


Walid : il n’y a pas très longtemps, par exemple, j’ai interviewé Nick qui fait la chaîne de The Linux Experiment. Pendant l’interview, il parlait de son modèle économique, des revenus avec Patreon, avec YouTube, avec les sponsors, etc. Ce serait compliqué pour lui, sur Peertube, d’avoir un modèle qui lui permette potentiellement de vivre. En fait, la question que je me pose, c’est si moi, je voulais être créateur de contenu en faisant des vidéos et que je voulais essayer d’en vivre et que j’essayais de poster mes vidéos sur YouTube quel serait pour vous un bon modèle en fait ? Est-ce que le modèle ça serait de passer par des alternatives, enfin par par des financements type Open Collective ou Patreon ce genre de trucs ?

Pouhiou : alors moi je veux bien prendre un premier début de réponse pour que toi Booteille tu répondes vraiment à cette question mais je vais d’abord prendre une tangente si tu le permets, c’est que j’ai été youtubeur. Pour te donner un peu mes chiffres sur 2 ans 2014-2016, 42 000 abonnés, une cinquantaine de vidéos, 2 millions de vues.

J’ai activé la pub Google sur mes vidéos parce que je voulais pas être sous référencé et que je savais comment fonctionnait Google. J’ai touché sur 200 et 200 millions de vues entre 250 et 300 dollars. Je le sais parce que cet argent était sale pour moi, je l’ai redistribué en préservatif gratuit. Donc voilà, à l’époque même où moi je commençais YouTube, la fable des « tu touches 1 euro par 1 millier de vues grâce à la pub » ne marchait plus.

Et il faut bien se rendre compte que ça fait plus de 10 ans que la pub ne finance plus les créateurs de contenu, les publicités qu’on regarde, ne financent plus ça. Et ça c’est Google qui nous a mis ça dans la tête parce qu’ils ont été très malins, ils ont sorti un outil de diffusion vidéo, ça c’est un outil technique, et ils l’ont associé à un outil marketing de diffusion publicité et de captation de l’attention. Or, ça n’est pas obligé de mêler les deux. Et nous, à Framasoft, on s’est dit, la monétisation des contenus, le financement de la création, etc.

C’est un énorme problème. Nous, on va se concentrer sur ce qu’on sait faire, l’outil technique. On fait cet outil technique derrière. Le reste, ça ne va pas être notre rôle, même si c’est plutôt cool qu’il y ait des possibilités de financer. Mais juste pour vraiment rentrer ça dans le crâne, aujourd’hui les pubs sur Youtube, sur Twitch, etc. rémunèrent avant tout les actionnaires de Google et d’Amazon. C’est des dividendes, quand vous regardez des pubs vous offrez des dividendes aux actionnaires, parfois il y a quelques miettes qui sont offertes comme ça maigrement à la plèbe des créateurs de contenu, mais c’est purement de l’argent du mépris et pas autre chose.

Booteille : Ah non, pas du tout et puis je pense que t’as dit à peu près l’essentiel. J’appuie vraiment sur le fait que j’ai pas le sentiment que la publicité rapporte à beaucoup de créateurs et créatrices de contenu aujourd’hui. T’as souligné des initiatives comme aller sur Open Collectives, Patreon, tout ça. J’ai le sentiment que c’est plus au final, les créateurs et créatrices de contenu s’autogèrent au niveau des financements.

Pour beaucoup vont aller sur des plateformes qui sont décorrélées de YouTube ou Twitch pour demander des dons, pour demander du financement régulier, etc. Aujourd’hui, j’ai pas l’impression, à part sur Twitch qui a vraiment intégré cette question de l’abonnement, je crois que YouTube l’a fait aussi, mais l’a intégrée. Par contre, Twitch prend 70% de la commission de base et il faut avoir reçu je ne sais pas combien de milliers d’abonnements pendant je ne sais pas combien de mois pour demander la moitié des gains. Donc on voit que les créateurs et créatrices de contenu qui s’en sortent le mieux sont souvent, si ce n’est quelques exceptions, évidemment, il y a des géants et des géantes, mais vont plutôt s’orienter vers des plateformes qui ne sont pas liées à la plateforme vidéo.

Et donc est-ce que ça nous intéresse nous de nous prendre la tête avec la question de la monétisation alors que vraiment c’est extrêmement compliqué comme sujet, comme l’a dit Pouhiou, pas forcément on va se concentrer sur ce sur quoi on est bon c’est à dire faire un logiciel qui aide les gens à s’émanciper.

Walid : donc finalement le vrai problème pour le créateur qui voudrait aller sur une instance Peertube, c’est de se faire connaître ?

Pouhiou : tout à fait. Et du coup, c’est pour ça aussi que nous, on est beaucoup plus à vouloir travailler sur des questions, à la fois de les aider à avoir des statistiques intéressantes pour pouvoir derrière en faire ce qu’elles veulent, parce que c’est parfois avec des statistiques que tu vas soit trouver des sponsors, soit montrer à ta communauté qu’il y a intérêt sur ce que tu fais, des choses comme ça. Ça va être aussi trouver, et là c’est un des enjeux futurs de Peertube et d’autres projets qu’on a autour de, dans l’écosystème de Peertube, de trouver comment mettre en valeur les contenus de qualité, donc la curation de contenus. Il y a déjà des gens, des instances qui font un travail de curation de contenus qui est important, et donc comment mettre en valeur et promouvoir ça.

Voilà, nous on va essayer d’initier quelques petites choses pour donner des idées en espérant qu’elles soient reprises et reproduites. Mais après on a aussi été en contact par exemple dans le milieu du libre aussi il y a les espagnols de Goteo qui font une plateforme de crowdfunding. Je crois qu’à un moment donné, elles se sont intéressées à trouver comment faire des ponts entre Peertube et Goteo pour faciliter l’utilisation. Nous on est hyper ouvert à des modèles comme ça vertueux de financement en commun, de financement des communs, etc. Encore une fois, tant que ça ne capte pas la vie numérique des gens contre leur consentement, tant qu’il n’y a pas trop des dark patents, manipulation de l’attention et tout ça, nous on est toujours prêt à accueillir des initiatives tierces. Et de quoi qu’il arrive, dès le départ, je crois que c’était même depuis la V1, il y a toujours la possibilité pour les créateurs et créatrices de vidéos d’avoir un bouton soutenir et si tu cliques sur ce bouton soutenir le champ est libre : c’est à dire que les personnes qui téléversent le contenu peuvent aussi bien mettre un lien je sais pas vers leur paypal ou leur que sais-je, leur patreon, ou dire si vous voulez soutenir mes vidéos envoyer une gentille carte postale à ma grand mère ça lui fera plaisir voilà tu mets ce que tu veux derrière ça alors c’est insuffisant il faudrait faciliter tout ça, etc. Mais ça a quand même été pensé dès le début.

Walid : j’ai vu il n’y a pas très longtemps que, par exemple, la Commission européenne avait une instance PeerTube. Est-ce qu’il y a des instances un peu visibles et connues ?

Pouhiou : oui, c’est parce qu’à un moment donné on peut aussi donner des instances plus de contenu vidéo et tout ça. Ça va être hyper compliqué parce que tu veux toujours citer tout le monde et tu ne peux jamais penser à tout le monde en même temps.

Donc au niveau institutionnel, typiquement en effet, donc la Commission européenne, il y a aussi l’Institut national de l’audiovisuel hollandais, je ne sais pas prononcer leur nom parce que je suis très très nul, je suis désolé en dutch, mais enfin voilà, qui l’équivalent de l’INA hollandais qui ont hébergé leur contenu vidéo public sur une instance Peertube autogérée, qui ont travaillé sur le passage à l’échelle, et qui ont contribué à l’écosystème Peertube.

L’éducation nationale, j’en parlais via leur plateforme apps.education.fr. On est aussi en train de parler avec d’autres institutions qui sont en train d’envisager ces choses-là, mais je ne veux pas non plus, enfin voilà, c’est des projets, je ne veux pas dévoiler des choses à leur place, on a régulièrement des institutions qui font ça. Je parlais par exemple aussi, moi je trouve ça hyper intéressant, All-Around, donc un média pour les arts de la scène dans une université de Boston et qui en fait utilise Peertube pour des espèces de webinaires et j’aime beaucoup cet usage, c’est des webinaires pour des artistes qui parfois sont à Boston mais qui parfois sont au Gabon et qui parfois sont en Russie, et donc comment faire en sorte que tout le monde puisse voir les vidéos à un moment donné, un de leurs besoins c’était est-ce qu’on va pouvoir avoir des vidéos en 140p, donc en très très très faible résolution, pour les très très très faibles bandes passantes, parce que, ben voilà, il y a des connexions, notamment sur le continent africain, qui sont complexes. Voilà, et on l’a développé.

Et tiens, je vais parler d’une autre, alors là, qui héberge des contenus vidéo anglo-saxons, de créateurs et créatrices en général sur YouTube, et de ce qu’on appelle « edutainment », donc à la fois de l’éducation et de l’entertainment, du divertissement. Je vais parler de Tilvids. C’est pas pour un par-dessus les autres, mais c’est parce que je trouvais ça hyper intéressant comme démarche. C’est une personne du milieu du libre, qui a été aussi créateur de contenu sur YouTube et tout ça, qui s’est dit « tiens, je vais faire du Peertube et proposer à des vidéastes de copier leur chaîne YouTube sur Peertube. Les personnes n’auront rien besoin de s’occuper, mais au moins ça mettra leur contenu aussi sur la fédération ».

Et il s’est retrouvé avec un problème, c’est que du coup, une très grande majeure partie de son public est aux États-Unis, or son serveur me semble-t-il était en Europe. Et du coup, le serveur était trop loin et ça créait des ralentissements dans la vision. Eh bien, il a pris un autre serveur aux États-Unis, qui l’a mis en redondance dont on parlait de la V1, tu vois, et donc qui… En fait, ça lui fait un relais web, exactement comme Google a des relais, ou Netflix d’ailleurs, ont des relais un peu partout pour relayer leurs flux vidéo dans tout le réseau d’Internet mondial. Et bien là, en fait, il a fait ça artisanalement avec le logiciel Peertube. Je trouve ça génial comme usage de la redondance qui n’était pas imaginée par nous au départ, mais il a pu le faire parce que le logiciel est souple.

Peertube v6 et la feuille de route pour 2024


Walid : parlons maintenant de l’avenir, on va dire qu’on est en 2024 par exemple, on est fin 2023, on arrive en 2024. Qu’est-ce que vous allez faire par exemple sur 2024 ?

Pouhiou : je dis juste là ce qu’on vient de sortir, tu vois avec la V6 qui là vient juste de sortir, quand même, donc bon déjà il y a eu le remote transcoding qui a été, là aussi tu vois financé par NLNet et c’était bien parce que c’était un truc pas du tout sexy, mais alors au niveau technique c’est assez révolutionnaire. C’est le fait de dire qu’aujourd’hui même si tu as un tout petit ordinateur pour ton serveur Peertube, les tâches les plus difficiles qui vont être demandées à ton processeur, qui vont être les tâches de transformation de la vidéo pour qu’elle soit correcte à streamer, ces tâches-là tu peux les mettre sur un autre ordinateur plus puissant.

Ce qui veut dire que du coup aujourd’hui le réseau Peertube peut devenir totalement plus résilient et mettre en commun les tâches de transformation de vidéos qui sont ponctuelles : c’est quand tu uploades une vidéo ou quand tu fais un live, il faut transformer la vidéo. Ces tâches-là, tu peux les mettre en commun sur des grosses machines qui du coup seraient consacrées à ça. Ça, c’était un vrai défi technique et on est hyper fier de l’avoir rempli parce que ça rend Peertube encore plus souple. Et puis, dans la V6, on vient de sortir la prévisualisation de la vidéo quand tu survoles la barre de lecture.

Walid : ça c’est cool. Ouais, ouais, ouais.

Pouhiou : ça a manqué. Le fait, alors si les admins sont d’accord bien sûr, mais le fait pour un vidéaste de pouvoir uploader une nouvelle version de sa vidéo, tu vois quand il y a une mise à jour à faire, quand il y a une version qui était problématique et où on réglait les problèmes ensuite, etc. Le fait de pouvoir ajouter des chapitres à ses vidéos, et puis on a fait aussi tout un travail de fond pour se préparer à l’année prochaine, je vais laisser la parole à Booteille pour l’année prochaine, tout un travail de fond d’améliorer l’accessibilité au maximum du niveau de nos connaissances avant de demander un audit complet de l’accessibilité donc de la facilité d’utilisation de Peertube et surtout des difficultés pour les personnes en situation de rentrée.

Booteille : et ben du coup je vais parler de l’année prochaine et en appuyant sur cet Audi d’accessibilité. Donc là le travail qui vient d’être fait, c’est vraiment un travail préparatoire pour qu’en 2024 on puisse vraiment avoir un audit de qualité et sur la question de, est-ce que Peetube est suffisamment accessible pour les personnes en situation de handicap ou autre. Voilà, c’est un gros gros projet, on est vraiment content parce que du coup on arrive à avoir du financement pour ça, ce qui est encore une fois une fonctionnalité qui n’est pas sexy pour la plupart des personnes valides, mais qui pour nous, nous tient énormément à cœur et qui a demandé pas mal de boulot déjà cette année.

Du coup, dans la roadmap de l’année prochaine, je l’ai un peu dit tout à l’heure, mais on s’est inspiré des propositions qu’on avait sur ideas.joinpeertube.org. Donc n’importe qui peut venir faire des propositions et nous vraiment, on pioche à chaque fois qu’on se réunit pour faire la roadmap on pioche dedans. Et du coup dans les fonctionnalités qu’on a prévues il y a l’import et l’export de compte pour pouvoir importer son… enfin exporter son compte Peertube. Alors attention on parle pas de migration c’est pas… ça va pas être automatique dans un premier temps on y va par étapes mais c’est vraiment le voilà « je clique sur un bouton ça m’exporte un fichier Zip ou je ne sais quoi. Et derrière sur une autre instance on va pouvoir importer le compte ». Il ne faut pas s’attendre pour l’instant à de l’automagie, c’est une première étape. Mais c’est déjà un pas en avant, c’est une fonctionnalité sur laquelle on réfléchit depuis, enfin qu’on aimerait implémenter depuis longtemps et on réfléchit beaucoup dessus.

Alors attention, ça c’est un point technique très compliqué de parler techno qu’on utilise mais on a envie de séparer les flux audio et vidéo et de pouvoir accepter des fichiers audio uniquement donc que les podcasts soient plus facilement aussi hébergés sur Peertube mais on a vraiment un point d’attention là dessus ça c’est dans nos envies on travaille là dessus mais on ne sait pas à quel point ce sera faisable techniquement l’année prochaine pour le jour d’aujourd’hui.

Pouhiou : c’est d’ailleurs pour ça qu’il y a une grande cassure dans la version qu’on vient de sortir, c’est qu’on va arrêter de supporter WebRTC, c’est bien ça ?

Booteille : WebTorrent.

Pouhiou : WebTorrent, WebRTC c’est toujours utilisé, bien sûr, pardon. WebTorrent dans le partage des vidéos en pair à pair et se concentrer plutôt sur la partie HLS. Là encore une fois c’est technique, mais parce qu’en abandonnant WebTorrent, ça va notamment permettre, donc HLS qui était nécessaire notamment pour le live, ce que WebTorrent ne permettait pas déjà. Et là en plus, du coup, ça va nous permettre de séparer par exemple les flux audio-vidéo. Séparer les flux audio-vidéo, c’est une première étape qui dans l’avenir pourrait permettre d’avoir par exemple plusieurs vidéos avec le même flux audio ou plusieurs langages, ça qui pourrait intéresser par exemple des gens comme la Commission Européenne, pour une même vidéo.

Booteille : dans les dernières fonctionnalités qu’on a prévues pour le moment, sachant que tout est vivant, il y a une volonté d’améliorer le panel d’outils de modération, notamment la modération des commentaires, pour rendre ça beaucoup plus facile et accessible pour les administrateurs et administratrices, pour les créateurs et créatrices de contenu. Il y a un gros travail là-dessus.

Deux derniers points, une réflexion autour de la catégorisation not safe for work (NSFW) ou safe for work (SFW). On va travailler avec la coopérative des internets avec laquelle on a déjà travaillé cette question de comment mieux catégoriser les contenus et notamment les contenus sensibles. Donc voilà c’est un travail qu’on aimerait effectuer.

Et enfin un des objectis de Wicklow, notre salarié depuis septembre, c’est de commencer le travail sur une application mobile officielle de Peertube. Application Android et iOS dans un premier temps. On aimerait bien faire aussi du Google TV. L’objectif c’est de choisir des technos en tout cas qui nous permettent une assez grande adaptabilité sur du long terme au niveau des plateformes pourrait adapter cette application. Donc voilà, ça fait une roadmap assez conséquente avec pas mal de…

Pouhiou : Je me permets un dernier point, Booteille aussi, il y a aussi un travail toujours avec la coopérative des internets, donc il y a un prestataire en design avec lequel on travaille super bien, voilà, dans un travail d’un remodelage complet de l’interface de Peertube qui commence à avoir son temps, on voit bien il y a des endroits de problèmes tout simplement parce qu’il y a aussi des fonctionnalités qui se sont rajoutées donc là typiquement aujourd’hui quand on est créateur de contenu la gestion de ces vidéos c’est complexe parce qu’il y a plein de possibilités donc là on va retravailler tout ça et retravailler tout ça avec d’abord et avant tout une enquête de design, une enquête des usages et partir des usages des gens pour remodeler l’interface et ça je pense que déjà pour nous c’est un travail très important, ça va améliorer l’effectivité, mais en plus ça va être hyper visible dès que tu changes l’interface, les menus, les couleurs, les machins, les capacités de personnalisation, ça se voit.

Walid : deux questions, je vais les poser ensemble, sinon je vais oublier la deuxième, c’est sûr. La première c’est si vous séparez les flux audio et vidéo, est-ce que ça veut dire que demain on pourrait avoir de la retranscription ou ce genre de choses, qui est clairement pour moi un vrai sujet. Et je pose la deuxième tout de suite avant que j’oublie. Vous parliez de faire une application mobile, pourquoi pas se baser sur des applications type Newpipe qui peuvent permettre déjà de récupérer des flux de Peertube par exemple ?

Pouhiou : pour la première, flux audio et vidéo, en fait la question de la transcription est indépendante du fait de pouvoir séparer les flux audio et vidéo.

Donc voilà, mais en tout cas, la question de la transcription nous est demandée notamment par des institutionnels. Et là, c’est un projet d’un des partenaires de l’écosystème Peertube de mettre ça en place et on est en train de travailler avec eux pour que ce soit une contribution qu’ils apportent et que nous, on les accompagne au maximum pour intégrer cette contribution. Mais c’est clairement un besoin que nous aussi, on a repéré.

Et justement, le remote transcoding, l’outil de pouvoir déporter une tâche complexe en CPU sur un ordinateur distant, pourrait aussi servir à ça. Parce que là aussi, le fait de transcrire l’audio en texte et de créer un transcript ou des sous-titres, etc., c’est une tâche qui va demander beaucoup de travail au CPU du serveur. Et donc, c’est une tâche qu’on pourrait aussi proposer à la fois dans le corps de Peertube mais aussi en tâche distincte. Donc on essaie de travailler ça.

Donc voilà, mais ça ne va pas forcément être nous qui allons le faire, on va juste contribuer. Voilà.

Booteille : sur la question de la transcription, il faut savoir qu’il existe déjà en tout cas un plugin de transcription qui a été développé par des tiers, qui peut être intégré à Peertube, et de ce que j’en ai vu, ça marche plutôt correctement déjà.

Donc voilà il faut savoir qu’il y a déjà une option en tout cas possible.

Pouhiou : et au niveau de l’application en fait donc une des problématiques c’est de trouver PeerTube sur les stores, sur les usages mobiles etc. Autant Newpipe font un boulot vraiment formidable autant pour l’instant ça va remplir les besoins que va faire la première version de notre application, c’est-à-dire les besoins juste de consommation de vidéos. Mais d’ores et déjà, si on veut se connecter à son instance, ce qu’on aimerait déjà mettre dans la première version de l’application, se connecter à son instance, avoir ses playlists, avoir ses abonnements, avoir ses notifications, etc., Bah déjà ça c’est difficile à trouver sur des applications tierces et on ne va pas forcément le demander à Newpipe.

Et derrière, ce qu’on aime, c’est qu’au départ, cette application sera vraiment consacrée à la consommation de contenu vidéo, donc c’est vraiment pour les spectateurs et spectatrices, mais qui peuvent aussi faire leurs playlists, gérer leurs abonnements, etc. Et ce qu’on aimerait, c’est que par la suite, cette application puisse aussi servir éventuellement aux créateurs et créatrices de vidéos, éventuellement même pour faire un live en direct, et pourquoi pas aux modérateurs et modératrices d’instances, aux administrateurs, administrateurs d’instances, etc.

Donc voilà, et ça c’est quelque chose qu’on ne peut clairement pas demander comme évolution à des applications tierces. Donc voilà, on va essayer de s’y coller et puis on va voir si ça prend, mais on espère, on voit vraiment que les usages mobiles sont essentiels aujourd’hui.

Présenter Peertube à un créateur de contenu sur Youtube ou a un utilisateur de Youtube


Walid : on arrive sur la fin. Pour conclure, je voudrais vous poser deux questions. La première c’est qu’est ce que vous diriez à un créateur de contenu qui est sur youtube pour lui parler de Peertube ?

Pouhiou : du coup moi comme je l’ai été déjà je veux que tu te détendes créateuriste de contenu, je veux que tu te détendes, c’est totalement possible que tu te sois tellement habitué à Youtube, que tu aies tellement pensé ton travail en fonction de Youtube parce que c’est très très très prenant que du coup Peertube ne répond pas du tout à tes besoins et à ton cas d’usage c’est ok, ce n’est pas grave, tu n’es pas une mauvaise personne si tu continues d’utiliser Youtube. On se détend, tout va bien ça c’est la première chose.

Par contre il faut aussi prendre conscience que tu es hébergé par Google ou par Amazon et donc tu es hébergé, tu es chez eux, littéralement et on est vraiment, alors sans infantilisation, mais on est vraiment dans le cas de Tanguy, qui reste chez maman Google et papa Amazon, tu vois. C’est-à-dire qu’à la fois, il y a quelque chose d’hyper confortable, t’as toujours de la bouffe dans le frigo, tu t’occupes pas forcément du ménage, mais en même temps tu dois ranger ta chambre, tu choisis pas ce que tu vas regarder le soir à la télé, tu peux pas te faire un délire porno le jour où t’en as envie, ou parler de règles à table, tu vois. Enfin voilà, t’es pas chez toi quoi, tu vois, et c’est ça qui est compliqué.

Et donc, ben, le fait à un moment donné de prendre son autonomie, donc d’utiliser par exemple un outil d’autonomisation et d’émancipation tel que Peertube, ça va être à la fois très libérateur, c’est une magnifique aventure parce que vraiment tu peux créer un lien beaucoup plus direct et beaucoup plus libre entre toi et la communauté qui suit tes contenus et la communauté qui crée des contenus similaires aux tiens et avec qui tu as envie de t’associer. Et en même temps, c’est extrêmement plus de travail, d’investissement, de choses comme ça. Et donc vraiment ce que je veux te dire c’est, vas-y tranquille, prends ton temps, c’est voilà, si tu veux aller dans cette démarche là qui est belle et magnifique, prends ton temps, vas-y tranquille, ne sois pas isolé, entoure-toi de personnes qui te ressemblent, avec qui tu es plutôt d’accord et tout ça, pour essayer de trouver, ou de personnes qui ont déjà fait ton chemin, pour essayer de trouver leurs astuces, d’avoir du partage d’expérience, etc. Et vas-y par étapes. Il y a plein de personnes aujourd’hui qui vont maintenir en parallèle une chaîne YouTube ou Twitch et un Peertube. Le Peertube va soit être en backup, etc. Soit être plutôt mis en avant sur leur site et tout ça, mais on se sert quand même des géants du web pour le début. C’est totalement ok de maintenir les deux en parallèle aussi. Mais encore une fois c’est plus d’effort et bon courage à toi.

Walid : c’est beau ce discours. Alors la deuxième question pour toi Booteille, c’est qu’est-ce que tu dirais pour présenter Peertube à un utilisateur de YouTube comme moi qui suis un gros utilisateur de YouTube?

Booteille : un des retours que j’ai le plus souvent quand je lis la communauté de Pierre Tube, quand il en parle à d’autres personnes, c’est que Peertube fait penser au YouTube de ses débuts, des premières années de YouTube. C’est-à-dire qu’on va y trouver plein de contenus, mais très différents les uns par rapport aux autres, et il y a un côté parfois ennuyant parce que tu te dis, « putain c’est quoi ces vidéos, elles sont cheloues ». Et en même temps, il y a vraiment un truc un peu magique dans le contenu qui se crée petit à petit et on ressent la liberté des gens et leur envie. Je sais pas, des fois on voit des vidéos de grands-parents qui parlent à leurs petits-enfants, des fois on voit du contenu éducatif, des fois c’est de la musique, il y a un peu de tout ça et je pense que ça évoque vraiment le YouTube des premières années.

Donc c’est un peu retrouver cette vibe là, sachant que du coup il n’y a pas d’algorithme de recommandation basé sur nos comportements et du coup on sort de notre bulle confortable, de notre maison chez papa, maman, Google et Amazon.

On laisse beaucoup plus sa place au heureux hasard, la fameuse sérentipité, c’est-à-dire que tomber sur une vidéo, on ne serait jamais allé vers celle-ci, mais bam, par hasard, vu que l’algorithme de recommandation est extrêmement basique et se base pas sur nos comportements, je suis tombé sur cette vidéo et ça m’a plu. J’ai découvert une nouvelle personne, j’ai découvert un nouveau ou une nouvelle créatrice de contenu qui va me donner envie. Donc il y a ça, et après effectivement, Peertube a ses propres défauts, notamment dans la découverte de contenu. On sait que même si Sepia Search existe, donc un moteur de recherche qui permet de chercher dans la vaste majorité de ce qui existe sur Peertube, Sepia Search est méconnu et ce n’est pas toujours évident de trouver ce qu’on veut.

Mais comme c’est un logiciel libre et qu’il y a de l’engouement autour, que nous on met des moyens dedans, que les gens nous font confiance aussi pour mettre des moyens dedans, c’est un logiciel libre qui ne peut que s’améliorer. Petit à petit, avec le temps, on est presque sûr d’avoir un logiciel qui déchire littéralement. Je trouve que ça déchire déjà aujourd’hui, mais ça ne peut qu’aller vers le mieux.

Pouhiou : juste, quand tu décrivais le fait de chiner des vidéos et de trouver des partages des gens, j’avais l’image d’un marché aux puces. Le côté magique et pittoresque parfois.

Booteille : le côté bazar, moi j’adore ça!

Pouhiou : et je me permets quand même de rajouter, puisque Frandasoft est en campagne de dons, et que si on fait des Peertube, si on fait des choses comme ça, c’est principalement grâce aux dons des gens, que pour les personnes qui le peuvent et à qui ça plaît ce qu’on fait, que ce soit Peertube ou le reste, n’hésitez pas à nous soutenir éventuellement par un don, c’est sur soutenir.framasoft.org que ça se passe. Si je ne l’avais pas dit, je m’en voudrais.

Conclusion


Walid : pour finir, je dirais que moi ça me rappelle un peu les communautés du Web1, tout ça. Après toutes ces années d’avoir été enfermés par des géants du Web, donc voilà, ce sera ma conclusion personnelle.

Bah écoutez, Booteille et Pouhiou, merci beaucoup d’avoir pris du temps pour venir présenter sur Projets Libres! Peertube.

Il y aura énormément de choses encore à dire sur… Il y aura plein de trucs à dire sur Framasoft, bien entendu, quoi. Mais ça, ça sera peut-être pour une prochaine émission, qui sait. J’espère que mes auditrices et mes auditeurs ont écouté jusqu’à la fin la conversation, et qu’ils ont appris des choses, et que ça leur a donné envie, pour ceux qui ne connaissent pas Peertube, d’essayer Peertube. Pourquoi pas de monter une instance Peertube ?

Moi, personnellement, ce que je trouve génial, c’est le fait que je stocke plein de vieilles vidéos, des trucs des années 80 et 90, des trucs qu’on pourrait plus du tout uploader ailleurs car il y aurait des problèmes de droits. J’ai pas forcément envie que des milliers de personnes les voient mais c’est la mémoire de notre sport, et c’est accessible pour ceux qui veulent. Et je trouve ça hyper important.

Peertube c’est vraiment un logiciel très important, c’est pour ça que je voulais faire un émission là dessus.

Donc écoutez, merci beaucoup. Et puis, pour surtout vous qui écoutez ce podcast, n’hésitez pas à voir Peertube et à en parler autour de vous et à partager cet épisode. Il y a encore plein de trucs super qui vont arriver dans les mois à venir, donc restez, revenez, mettez-moi des commentaires, c’est toujours très sympathique.

Pouhiou : merci à toi de nous accueillir et puis pour ce super podcast, le projet libre, en effet, partagez-le un maximum autour de vous, allez écouter les autres épisodes. Trop bien, merci.

Booteille : merci beaucoup.

Walid : à bientôt.

Cet épisode est enregistré le 4 octobre 2023.

Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


Nico (alias Nick) – Youtuber spécialisé dans le logiciel libre chez THE LINUX EXPERIMENT


podcast.projets-libres.org/@pr…

Sommaire

Description


Nico (alias Nick) est Youtuber pour la chaîne The Linux Experiment. Nous l’avons rencontré pour qu’il nous parle de sa chaîne, de la manière dont il travaille et son modèle économique.

A travers 3 vidéos et un podcast en anglais par semaine, The Linux Experiment traite l’actualité des logiciels libres.

Nous abordons avec lui :

  • son parcours
  • les débuts de sa chaîne Youtube
  • sa ligne éditoriale
  • son modèle économique
  • ses motivations
  • ses défis à venir

Cet épisode est enregistré le 26 septembre 2023.

Le contenu produit par The Linux Experiment (TLE) :



Liens pour en savoir plus



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


This entry was edited (6 months ago)

Open Food Facts – épisode 1 – Manon Corneille


Partons à la découverte d’Open Food Facts, la base de données alimentaire open source et open data. Avec Manon Corneille, responsable des partenariats, nous abordons les sujets suivants : – la genèse du projet – la structure et forme juridique d’OpenFood

podcast.projets-libres.org/@pr…

Sommaire

Entrevue avec Manon Corneille d’Open Food Facts


Walid : bienvenue sur ce nouvel épisode de Projet Libre. Aujourd’hui, on va parler d’un projet assez fascinant, je dois avouer, qui s’appelle Open Food Facts. Ce projet, j’en ai entendu parler la première fois parce que j’ai vu une conférence dans une journée de conférence Perl à Paris à la Villette en 2015. Il y avait une conférence sur Open Food Facts et je dois avouer qu’après, je n’ai pas forcément beaucoup suivi. Et j’étais très content quand Manon, qui est avec moi ce soir, m’a contacté, parce que ça m’a permis de pouvoir re-rentrer un peu dans et de pouvoir préparer, en fait, une série de deux épisodes. Dans ce premier épisode on va parler avec Manon Corneille aujourd’hui, cela va être un épisode grand public. On ne va pas parler technique.
Et un deuxième épisode derrière, lui, sera un épisode plus technique dans lequel je pourrais aborder toutes mes questions de geek. Mais l’idée de ce soir, c’est qu’on ait un épisode qu’on puisse faire écouter à des personnes qui n’ont pas de compétences techniques particulières. Donc comme je le disais aujourd’hui, je suis très content d’être avec Manon Corneille, qui travaille sur le projet Open Food Facts et qui m’a contacté.

Présentation de Manon Corneille


Walid: Manon, écoute, bienvenue sur le podcast, merci beaucoup d’être là et de prendre du temps pour parler avec nous d’Open Food Facts. Déjà, j’espère que tu vas bien.

Manon : très bien, merci beaucoup. Merci Walid pour ton accueil. On est ravis de pouvoir parler un petit peu du projet. Donc pour me présenter, je m’appelle Manon Corneille, comme tu l’as dit, je suis responsable des partenariats chez Open Food Facts depuis deux ans. Je travaille à développer les partenariats avec les fabricants alimentaires et je travaille aussi sur la partie internationalisation du projet, donc on aura l’occasion d’en reparler peut-être un peu plus tard. Voilà donc ravi d’être là ce soir et puis merci encore pour l’accueil.

Manon CorneilleManon Corneille (source : LinkedIn)

Walid : alors la première chose c’est que j’aimerais que tu nous expliques c’est comment tu as découvert le logiciel libre et les communs numériques ? comment tu es tombé là dedans en fait?

Manon : alors un petit peu par hasard puisque moi du coup je n’ai pas du tout un profil technique, ce sont des sujets qui sont souvent un petit peu difficiles à appréhender quand on n’a pas de compétences techniques. Mais du coup, je me suis retrouvée, enfin je suis plutôt rentrée par la porte de l’impact environnemental et j’étais très intéressée aussi par tout ce qui est impact systémique sur l’alimentaire. Donc c’est plutôt cette porte qui m’a fait découvrir Open Food Facts et par la porte Open Food Facts, j’ai ensuite découvert le monde de l’open data, le monde du libre. Et d’ailleurs, je trouve ça fascinant.

Là, récemment, à l’automne, on est allé à un forum organisé par NGI en Belgique. Et j’ai pu rencontrer pas mal d’acteurs du libre. Et ça m’a vraiment ouvert les yeux sur cet écosystème hyper puissant. Ça permet énormément de choses. Moi, je n’étais pas forcément familière avec ce monde-là. Et ça m’a ouvert les yeux sur tout ce que permet l’open data et les valeurs que ça porte en matière de transparence, en matière d’indépendance, d’accessibilité, le fait que tout le monde puisse contribuer, partager les connaissances et construire ensemble.

Logo Next Generation Internet

Et voilà, je trouve ça super. Donc bravo d’héberger un podcast sur les projets libres parce qu’on a besoin de plus de visibilité.

Walid : tout à fait. Il y a quelque chose que tu n’as pas précisé, je crois, c’est à quelle date, quand est-ce que tu as rejoint Open Food Facts ?

Manon : j’ai rejoint Open Food Facts il y a deux ans, bientôt deux ans exactement.

Walid : d’accord.

Manon : voilà. Avant ça, j’ai travaillé pour un bureau d’études en impact environnemental pour les villes. Donc ce sont des diagnostics d’îlots de chaleur urbain. Voilà, c’est pour ça que j’ai plutôt un background impact environnemental à la base.

La genèse d’Open Food Facts


Walid : très très intéressant. Si on commence sur la première partie qui est la genèse du projet, j’aimerais bien comprendre un petit peu comment est née l’idée d’Open Food Facts ?

Manon : Bonne question. Open Food Facts est née en 2012, il y a un peu plus de dix ans maintenant. Donc cette association a été fondé par Stéphane Gigandet qui est une personne fascinante, qui mène plein de projets. Il menait à l’époque un blog qui s’appelle recettes.de, qui est toujours actif d’ailleurs, avec une communauté assez active. Sur ce blog, il liste des recettes et dans ces recettes, il était intéressé de pouvoir les enrichir avec des informations nutritionnelles aussi. Donc il a cherché une base de données sur des informations nutritionnelles, il ne l’a pas trouvé, il a décidé de la créer.
Et donc petit à petit, c’est comme ça que Open Food Facts est né. Puis au fur et à mesure, il a réussi à s’entourer de personnes qui s’intéressent au sujet de la nutrition et qui ont contribué à enrichir la base de données aussi.
Donc voilà, le projet a été un projet citoyen qui vivait avec à peu près 1000 euros de budget annuel jusqu’en 2017, si je ne dis pas de bêtises. Au fur et à mesure, sur les 4 ou 5 dernières années, le projet s’est vraiment professionnalisé et il y a pu y avoir le recrutement de salariés. Aujourd’hui, on est 8 dans l’équipe et on est entouré de plein de bénévoles. Donc c’est super enthousiasmant.

Walid : est-ce qu’il l’a créé tout seul ou est-ce qu’assez rapidement, il y a d’autres gens qui sont venus ? Est-ce que quand il a créé le projet, il a tout de suite créé la forme qui est une association ?

Manon : alors non, en fait au début il a créé le projet tout seul, il a créé la base de données tout seul. Mais l’association… 11 avril 2014. Donc oui, l’association n’a pas été créée de suite. Stéphane a commencé à mettre le pied à l’étrier dès 2012. En fait, suite à ça, il a rencontré Pierre Slamich, qui est le co-fondateur de l’association Open Food Facts. Et donc ils ont décidé de formaliser un petit peu tout ça en créant une association.
Et pour la petite histoire, l’association a été lancée le 19 mai 2014, qui est le jour de la Food Revolution Day, donc le jour de la révolution alimentaire, avec pour mission donc d’essayer de faire la transparence sur le système alimentaire.

Food Revolution Day 2014 (source : yummyinspirations.net)

Les différents sous-projets de portés par l’association Open Food Facts


Walid : avant qu’on rentre sur la structure du projet, pour donner un premier aperçu, qu’est-ce que le projet Open Food Facts contient comme sous-projet ? Il n’y a pas que la base de données alimentaires ?

Manon : oui tout à fait, c’est une question qui intéresse de plus en plus de monde parce qu’on commence à s’intéresser, on s’intéresse déjà depuis quelques années à l’impact environnemental à la fois des produits alimentaires mais aussi des produits de beauté, des produits du quotidien. Les consommateurs se posent de plus en plus de questions et du coup pour faire face à cette demande, Open Food Facts a plein d’idées, plein de verticales. Donc on a Open Product Facts qui est donc la base de données des produits du quotidien. On va pouvoir retrouver un canard en plastique, une assiette, un micro-ondes, tout ce qu’on peut acheter comme objet physique. On va pouvoir proposer des conseils de consommation : par exemple, on pourra stocker des notices d’utilisation de certains objets. On pourra conseiller si la personne cherche à jeter son objet ou à le donner ou à le recycler. On va essayer de guider l’utilisateur pour qu’il puisse étendre la durée de vie de ses projets. On est super enthousiastes parce qu’on va travailler en 2024 dessus. C’est un projet qui a été financé par la fondation AFNIC. On a des moyens dessus, donc on a hâte d’être à la fin de l’année pour voir ce que ça donne.

Fondation AFNIC

Ensuite, on a aussi l’application Open Beauty Facts, qui traite de tout ce qui est cosmétiques, produits de beauté, crèmes solaires, gel douche, etc.

Ensuite, on a très récemment, suite à l’inflation et à tout ce qui s’est passé sur la question des prix, on a un petit groupe de membres de la communauté d’Open Food Facts qui s’est réuni, qui a décidé de créer Open Prices, la première base de données ouverte sur les prix. Donc là, c’est très chronophage et c’est un chantier qui est extrêmement grand parce qu’il y a aussi énormément de magasins donc ça fait un nombre de data points qui est gigantesque. Mais en à peine en 15 jours on a déjà des données sur plus de 5000 produits donc des données de prix et là c’est uniquement pour l’alimentaire pour le moment, mais qui sait en fonction des succès d’Open Product Facts et d’Open Beauty Facts peut-être qu’on étendra ça à d’autres verticales.

La structure du projet / sa forme juridique


Walid : génial. Alors maintenant parlons un peu de la structure du projet. On l’a évoqué en introduction. Donc la structure qui porte le projet c’est une association de loi 1901.

Manon : Oui.

Walid : j’aimerais bien comprendre à l’époque pourquoi ce choix a été fait de faire une association et pas par exemple, je sais pas moi, une fondation ou une société. Qu’est-ce qui a fait que les fondateurs Stéphane et Pierre ont choisi cette forme juridique ?

Manon :

étant donné que c’était un projet citoyen participatif, un petit peu sur le modèle Wikipédia ou OpenStreetMap, ça faisait sens de choisir un statut associatif. Puis à l’époque, Stéphane et Pierre étaient très proches de Christian Quest, qui est le fondateur d’OpenStreetMap (NDLR : France). Donc ils se sont un petit peu inspirés de leur fonctionnement.

Manon Corneille


OpenStreetMap étant une association, et c’est comme ça que les choses se sont faites de manière assez naturelle, finalement.

Logo OpenStreetMap

Walid : d’accord, c’est une association française. Les salariés sont tous des salariés français ?

Manon : oui, aujourd’hui, en tout cas. On est tous basés en France, en télétravail, et on se retrouve une fois par mois à Paris. Et on commence à avoir un nouveau type de rôle, qui est le rôle d’ambassadeur. Donc on a un ambassadeur en Allemagne, une ambassadrice en Belgique et un ambassadeur en Croatie. Ils n’ont pas le statut de salarié. Tout ça, c’est des personnes qui travaillent à titre bénévole. Et après, on a à peu près 300 ou 400 bénévoles qui nous aident tous les jours pour travailler sur la qualité des données, pour développer l’application mobile, développer le site web, nous aider à traduire tous les contenus qu’on peut avoir, plein plein d’autres choses.

Les sources de financement du projet


Walid : ça marche, on va y revenir dans tous les cas, ça m’intéresse beaucoup de voir un peu comment tout ça s’organise. On a vu la structure juridique qui porte le projet, donc au départ on comprend que les premières années il n’y avait pas de salariés, qu’après il y a eu des financements, donc après il y a des salariés qui sont arrivés, maintenant qu’il y a des personnes comme toi qui sont payées par le projet. Si on parle de payer par le projet, ça amène tout de suite au chapitre suivant qui est un peu un des gros morceaux qui est le modèle économique. Ma première question c’est quelles sont vos sources de revenus en fait ? C’était une des premières questions que je me suis posé c’est waouh, vous faites plein de choses mais comment c’est financé tout ça ?

Manon : très bonne question, surtout dans les projets qui sont libres. J’ai l’impression que c’est un sujet qui revient souvent, qui est difficile à financer. Les gens sont très motivés, mais il n’y a pas forcément énormément d’argent. Donc pour nous, on est financé aujourd’hui à peu près à hauteur de 30% par des subventions qui viennent du public. On va travailler par exemple avec Santé Publique France, avec l’ADEME, et donc on va faire pour eux des projets. Ce sont des financements qui sont quand même fléchés. Par exemple, on travaille en ce moment avec Santé Publique France sur l’accompagnement du Nutri-Score, de la nouvelle version du Nutri-Score. On a un petit peu de pédagogie, on discute avec les fabricants pour faire en sorte que l’adoption soit facilitée.

Logo ADEME

Ensuite on a une autre partie qui vient d’organismes philanthropiques, donc les fondations, comme par exemple la fondation Google.org. Il y a deux trois ans on a gagné le Google Impact Challenge, avec la somme d’un million d’euros. Donc ça a permis de mettre beaucoup de beurre dans les épinards pour quelques années.

On a été aussi soutenu par la fondation Mozilla, ou des acteurs comme OVH, qui nous finance les serveurs depuis le début. On a aussi la fondation Free, qui est sur la partie infrastructure.
Donc 30% du public, 30% à peu près de fondations philanthropiques. Ensuite, il y a un autre gros tiers qui vient des projets européens.
On essaie de nouer des partenariats avec différents acteurs en Europe pour être impliqués et participer à ces projets. Et ensuite, on a aussi pas mal de donations du public. Donc on fait des campagnes de dons tous les ans pour essayer de récolter un petit peu de sous. Voilà à peu près comment ça s’organise.

Walid : ce que je comprends, c’est qu’en fait, vous avez à la fois des financements qui sont pour des thèmes précis, des financements qui sont des prix, etc. dont vous disposez comme vous voulez, un matelas de financement d’environ 10% qui est du public. Donc finalement, vous n’avez pas vraiment de problèmes à être indépendant et à vous financer.

Manon : pour l’instant, on a suffisamment de fonds pour voir venir sur les deux prochaines années, mais la difficulté, je pense, qui est présente chez beaucoup de projets libres, c’est qu’on n’a pas forcément de mal à se faire financer, mais que les projets sont toujours fléchés. Donc ça veut dire qu’il faut livrer, on a des deadlines à respecter, on a des cahiers de charges à respecter, et ça, ça met pas mal de pression sur toute l’équipe. Là pour l’année 2024, on va essayer de prioriser un petit peu la recherche de financement non fléchés, pour arriver à financer tout l’entretien du commun finalement, parce qu’on passe quand même énormément de temps à interagir avec la communauté, répondre à des contributeurs sur GitHub qui ont fait des travaux et c’est super, mais ça demande énormément d’accompagnement.
Pareil sur la partie fabricants, on en reparlera peut-être mais moi je passe presque un tiers de mon temps à répondre à des sollicitations de fabricants, à faire du support finalement. Toute la maintenance et l’entretien de ce commun qu’on crée ensemble n’est pas toujours financé à la hauteur de ce qu’on voudrait.

Walid : est-ce que vous avez aussi des financements de fabricants ou de partenaires, enfin est-ce que vous avez d’autres acteurs encore qui vous aident à financer cette base de données ?

Manon :

pour le coup on a vraiment une ligne rouge, c’est même écrit dans les statuts, on ne peut pas du tout accepter de financement de la part d’acteurs de l’agroalimentaire puisqu’on est totalement indépendant donc personne de l’industrie agroalimentaire au conseil d’administration ni dans les finances.

Manon Corneille


Le rapport avec le fond Next Génération Internet (NGI) et la fondation NLnet


Walid : on l’a évoqué tout à l’heure et ça c’est un sujet qui m’intéresse beaucoup et sur lequel normalement dans les mois à venir je vais pouvoir faire des épisodes. On a parlé un peu de NGI, Next Generation Internet et avec un peu son bras armé qui est la fondation néerlandaise NLNet. Je voulais savoir quel était votre rapport, est-ce que eux aussi vous ont financé ou vous financent ? Parce qu’ils financent énormément de projets libres. Et j’ai déjà eu l’occasion d’interviewer les gens de Perturbe, les gens de Castopod et encore d’autres interviews à venir aussi, de gens qui se font financer par NLnet. Alors je voulais savoir si c’était aussi votre cas.

NLnet fondation

Manon : oui, absolument. On est super content d’ailleurs que cette organisation existe et de voir aussi que les ressources chez eux vont augmenter d’année en année. C’est super de voir que l’Europe met les moyens derrière tout ça. On a commencé nos relations plutôt avec NLNet, qu’on connaissait bien, donc voilà, comme c’est des gens qui financent l’open source depuis longtemps. Donc sur ces dernières années, on a bénéficié de trois financements. Un récemment, là, via le programme NGI, donc qui va nous permettre de booster notre recherche sur Open Food Facts.

Walid : je t’interrompt une seconde. Donc NGI, Next Generation Internet, c’est un des fonds, un des programmes européens de financement du logiciel libre. Il a une nouvelle déclinaison qui s’appelle NGI Common, mais dont on parlera certainement après. Voilà, excuse-moi, c’était juste pour préciser.

Manon : oui tu fais bien, tu as raison.

Donc du coup, un projet est financé l’an dernier et qu’on va réaliser là cette année, qui est le développement de notre outil de recherche. Donc on va pouvoir chercher plus facilement dans Open Food Facts, on va pouvoir mettre plein de filtres sur le panneau à gauche. On va pouvoir avoir une recherche beaucoup plus ergonomique. Et ensuite, c’est vrai que grâce à NLNet et NGI, on a pu aussi financer deux autres projets par le passé, donc on est vraiment ravis que ce fonds existe. Et là on est aussi en train de préparer un dossier pour le mois de mars : encore un call (NDLR : appel à projets) NGI, cette fois plutôt orienté sur les collaborations Europe-US, donc on croise les doigts, mais on est vraiment ravis que ce programme existe.

Qu’est-ce qu’un commun numérique ?


Walid : je venais de l’évoquer avant, il y a un nouveau programme qui a été annoncé, qui s’appelle NGI Common et qui est un nouveau fonds d’une vingtaine de millions d’euros je crois pour financer les communs numériques. Donc ma question c’était de savoir déjà quelle était votre définition à vous d’un commun numérique, est-ce que vous estimez être un commun numérique et aussi est-ce que vous vous allez être bénéficiaire de ce fonds ?

Manon : alors est-ce qu’on est un commun numérique ? Pour moi oui, après j’avoue je suis pas forcément spécialiste absolue. Je considère que, comme le projet Open Food Facts est libre, la base de données est libre, tout le code, tous les algorithmes sont en open source. Cela bénéficie à énormément d’acteurs. Aujourd’hui, il y a un peu plus de 300 applications mobiles qui réutilisent notre base de données. Il y a plus de 3 millions de visiteurs uniques tous les mois qui regardent Open Food Facts, qui nous consultent pour leur connaissance. On a recensé depuis les dix dernières années plus de 600 articles scientifiques qui utilisent Open Food Facts. Donc dans ce sens, je considère que Open Food Facts est un commun numérique. On est sollicité très régulièrement par des étudiants qui font des doctorats, par des scientifiques, par tout plein de monde. Ils voient beaucoup de valeur dans cette base de données. Donc ma réponse est oui, mais à toi de me dire si c’est l’inverse.

Walid : écoute, j’ai l’impression que quand tu poses la question aux différents acteurs de casque commun numérique, c’est pas très simple. J’ai eu l’occasion au FOSDEM de demander aux gens de NLnet et la réponse n’était pas très évidente non plus.

Manon : oui, c’est ça.

Walid : voilà, la définition n’est pas forcément extrêmement claire. Donc on peut imaginer que dans les années à venir ou les mois à venir, vous allez bénéficier de ces fonds sur les communs numériques ?

Manon : on espère, en tout cas, on va les suivre de près. On va candidater si les astres sont alignés et qu’un projet peut faire sens.

Open Food Facts et les citoyens


Walid : sur ce sujet financement, je pense qu’on a fait pas mal le tour.
Je voulais qu’on parle d’un autre de mes sujets favoris sur le podcast, c’est les communautés. Et donc, je voudrais qu’on parle des communautés autour de Open Food Facts. J’ai vu un certain nombre, j’allais dire, de personas indifférents et le premier c’est le citoyen. Je voulais savoir comment les citoyens s’approprient la plateforme, qu’est-ce qu’ils ont à leur disposition ? Est-ce que tu peux nous expliquer comment le citoyen interagit avec Open Food Facts et de quelle manière ?

Manon : Avec plaisir. Alors du coup, nous on a le cas un petit peu classique, le plus courant de l’utilisation d’Open Food Facts par un citoyen. C’est le consommateur qui va se promener dans son supermarché et il se pose des questions sur les produits. Donc à ce stade, il va pouvoir utiliser notre application mobile que vous pouvez télécharger sur Android, Apple Store, plein d’autres d’ailleurs. Et donc il va scanner le code barre du produit alimentaire et à partir de là, sur l’application, il va voir toutes les informations liées au produit. Donc les informations certaines sont déjà affichées sur le produit comme la liste des ingrédients, les tableaux nutritionnels, mais il va pouvoir les voir de manière digitalisée, ce qui va aussi lui permettre de comparer plusieurs produits ensemble de manière rapide et facile, ce qui est un peu plus difficile de faire en vrai. Donc on a cette app qui est l’interaction majoritaire.
Ensuite on a aussi le site web. Là, c’est plutôt une utilisation à la maison. Si je vais me poser des questions sur quels sont les céréales qui seraient les plus adaptées à mon alimentation, je peux entrer mes préférences alimentaires dans Open Food Facts. Donc j’explique que pour moi, le sel c’est très important, le sucre c’est très important, il ne me faut absolument pas de sucre dans mon régime alimentaire. Et suite à ça, je vais pouvoir faire des recherches par catégories et voir les produits qui sont les plus adaptés à mon régime, puisque du coup, on calcule aussi un score Open Food Facts, qui est le score de correspondance avec mon régime alimentaire. Donc on va avoir des pourcentages de match. Cela permet de faire des recherches aussi hors supermarché.
Les infos qui intéressent le plus les consommateurs aujourd’hui, vont être tout ce qui tourne autour des informations nutritionnelles : s’ils ont des régimes spécifiques. De plus en plus, on voit le cas que les gens s’intéressent à l’impact environnemental, donc au calcul des écoscores.

Et aussi, on entend pas mal parler de l’ultra-transformation, des additifs, des émulsifiants. Et donc là c’est plutôt l’indice Nova qui va intéressé le consommateur.

L’indice Nova


Walid : c’est quoi l’indice Nova ? Parce qu’on va parler un peu du Nutri-score après, mais l’indice Nova, je ne connais pas trop.

Manon. : alors c’est le groupe Nova, plus exactement. C’est un indice qui va de 1 à 4. Donc Nova 1, ce sont des produits bruts, pas transformés du tout. Si on prend l’exemple d’une pomme, ça va être une pomme.
Nova 2, ça va être par exemple une compote de pommes, donc un peu plus transformé, soit par le process de fabrication, soit par l’ajout d’ingrédients supplémentaires.
Nova 3, c’est encore un petit peu plus transformé. Et Nova 4, encore plus : par exemple, dans notre cas de la pomme, ça pourrait être des bonbons à la pomme, où il y a plein d’additifs, de conservateurs, etc.

Walid : tout à l’heure, on a parlé du fait qu’Open Food Facts a été un peu inspiré par OpenStreetMap. Je me demandais s’il y avait des groupes d’utilisateurs qui font un peu comme sur Open Street Map et qui vont à un endroit et qui cartographient. Je me demandais s’il y avait des groupes de citoyens qui vont bénévolement cartographier un certain nombre de produits etc sans forcément aller faire leur course ?

Manon : ouais carrément ça arrive alors on n’est pas au courant de tout ce qui se passe, mais c’est ce qu’on appelle des « scans parties« . Donc nous on en organise régulièrement avec la communauté parisienne, mais ouais ouais ça se fait. On se retrouve à plusieurs et on scanne et on entre de la donnée tous ensemble. Mais c’est vrai que c’est beaucoup plus sympa de le faire à plusieurs.
Il y a pas mal de chercheurs qui organisent ça d’eux-mêmes aussi, parce qu’eux sont particulièrement motivés d’avoir la donnée et d’enrichir la base. Donc ils s’entourent de leurs copains chercheurs ou pas d’ailleurs, et ils font des scan parties.

Image guide Scan Party OpenFoodFactsGuide Scan Party (source : openfoodfacts)

Walid : la question suivante c’est il y a combien d’articles dans la base par exemple Open FoodFact, et la part des informations rentrées par les citoyens elle représente combien ? Est-ce que ça c’est chiffré ?

Manon : aujourd’hui donc on a un peu plus de 3 millions de produits sur la base. La contribution citoyenne ça représente à peu près 80%. C’est quand même énorme. Et donc les 20% restants, ça va être soit des données qu’on va récupérer par le biais de partenariats gagnants-gagnants qu’on fait avec les applications mobiles réutilisatrices. Donc elles se nourrissent de la base Open Food Facts, mais en retour, elles nous renvoient des données fraîches, mises à jour par leurs utilisateurs.

Et on travaille aussi avec les fabricants qui nous envoient par divers moyens leurs données.

Walid : c’est énorme 80%!

Manon : sans les citoyens, le projet n’existerait pas, c’est clair et net. Ils nous aident aussi beaucoup pour tout ce qui est correction de la donnée, non seulement ils entrent, mais en plus toutes les mises à jour, c’est un travail de fourmi qui est précieux.

Walid : je pense aussi que parce qu’on touche à la nourriture, qui est quand même quelque chose d’assez fondamental. Je ne sais pas est-ce que sur la cosmétique ou est-ce que sur d’autres bases, le taux est identique ? Ou est-ce que la nourriture c’est quand même quelque chose qui intéresse vraiment tout le monde.

Manon : je suis assez d’accord sur ce point. C’est vrai qu’on mange tous les jours. Sur un an, on a 1000 repas. C’est un chiffre qu’on aime bien mettre en avant.

Donc 1000 opportunités de prendre des meilleures décisions. Mais c’est vrai que le sujet food (NDLR : nourriture), ça touche énormément. Et voilà, le fait que chacun, individuellement, on a tous des spécificités, des besoins particuliers, des régimes spécifiques, des intolérances au gluten. Il y a beaucoup de profils. Les femmes enceintes, par exemple, les gens qui mangent halal, les gens qui ont des allergies. C’est vrai que la nourriture, c’est un sujet qui parle énormément et qui rassemble, c’est sûr.

Les projets ou applications qui se basent sur les données d’Open Food Facts


Walid : le deuxième type d’acteurs, c’est les projets et les applications qui réutilisent vos données. Donc la première chose que je me demandais, c’était quels sont les types d’acteurs hors citoyens qui interagissent en fait avec la base de données d’Open FoodFact ?

Manon : on en parlait un petit peu tout à l’heure du coup. Donc il y a ces fameuses applications applications réutilisatrices, comme on les appelle. Donc en fait, ce sont des applications mobiles qui sont développées par des gens comme vous et moi, qui commencent leur projet, une start-up. Et donc, pour faire tourner leur projet, ils ont besoin d’une base de données sur les produits alimentaires. Donc là, il y a toutes sortes d’applis, des applications pour traquer les calories, par exemple, donc plutôt orientées minceur, des applications pour les femmes enceintes, dont on parlait tout à l’heure, ou pour les personnes qui mangent halal, des applications plutôt tournées fitness, pour des publics sportifs, des applications de toutes sortes.
Parmi les plus connues, il y a par exemple ScanUp, Foodvisor, Y’a quoi dedans? qui est l’application de SystemeU, My Health.

Logo application ScanUp

Peu de gens le savent aussi, c’est vrai que j’ai oublié de le rappeler, mais par exemple Yuka, qui fait partie des applications les plus connues, s’est lancée grâce à Open Food Facts il y a quelques années maintenant.
Nous on est ravis de voir tous ces projets voir le jour. On ne les voit pas du tout comme de la concurrence, parce que c’est souvent la réflexion qu’on nous fait, c’est est-ce que ça ne vous embête pas de voir tous ces nouveaux projets qui sont peut-être parfois plus connus que vous ?
Pas du tout.
Nous, notre mission, c’est que toutes ces informations alimentaires soient accessibles à un plus grand nombre de personnes. En fait, on considère que ces applications mobiles, ce sont des multiplicateurs d’impact plutôt que des compétiteurs.

Walid : donc ces applications, elles, elles ont accès à toute la base finalement ?

Manon : oui, tout à fait. Elles ont accès à toute la base et elles peuvent accéder aussi via notre API

Walid : qui permet d’interagir à distance avec la base de données

Manon : tout à fait.

Walid : si je fais ma propre application, qu’est-ce que je dois respecter pour pouvoir utiliser les données d’OpenFootFact ?

Manon :

Alors, c’est difficile pour nous malheureusement d’arriver à suivre tous les projets qui réutilisent OpenFootFact, mais dans le meilleur des mondes, la règle en tout cas, c’est de respecter la licence ODBL, qui veut dire Open Database License, qui stipule plusieurs règles, notamment le fait d’attribuer la source de la donnée.

Manon Corneille


Donc ça veut dire que dans toutes les pages où des données d’Open Food Facts sont mentionnées, ils doivent faire apparaître la mention Open Food Facts, éventuellement notre logo, un lien vers notre site. Ensuite, la deuxième obligation, c’est qu’ils doivent partager la donnée telle qu’elle est, donc brute, sans l’avoir retouché ou altéré. Donc ça, ça arrive souvent, des personnes téléchargent toute la base de données Open Food Facts et font du nettoyage de données et ensuite republient. Donc là, ça, ça n’a pas ce problème. Ce n’est pas compliant (NDLR : conforme) avec la licence ODBL. Et ensuite, il y a aussi une dernière règle, qui est qu’elles ne peuvent pas mélanger une base de données ouverte avec une base de données qui ne serait pas sous la même licence. On dit souvent que la licence au ODBL est contagieuse. Si on mélange ces deux bases, cela voudra dire que tout doit être publié sous licence ouverte. Voilà, ce qui est à respecter. Après, on essaie de faire la chasse un petit peu et de faire des rappels à l’ordre quand on voit des applications qui ne respectent pas. Mais ça reste un gros travail.

Walid : je suppose que c’est assez chronophage parce que déjà il faut détecter ensuite après il faut prendre contact suivre…

Manon : ça va sans dire mais je pense que tu te doutes bien que ces projets là ne sont pas financés, donc c’est de l’entretien du commun pur et dur pour le coup et du respect des contraintes.

Comment les apps consomment et contribuent à Open Food Facts


Walid : si moi je suis une application qui utilise vos données est ce que je peux enrichir la donnée ? Qu’est-ce que je peux enrichir comme données ? On ne le fait pas comme ça, il faut quand même je suppose discuter avec vous. Comment ça se passe en fait si moi j’ai une application où je veux enrichir vos données ?

Manon : oui, il y a une prise de contact en effet. Donc on a cet échange avec une vingtaine d’applications aujourd’hui. Donc on met en place des échanges, des transferts de données. Cela reste un peu technique et comme tu peux le voir, ce n’est pas moi qui m’en occupe. Donc je n’ai pas énormément de détails techniques, mais peut-être qu’Alex (NDRL : Garel) pourra vous en donner dans le prochain épisode.
Mais voilà, donc du coup, c’est un accord où l’application s’engage à envoyer des données en retour. Et c’est sur tout type de champ. Donc toutes les informations qu’on peut avoir sur la fiche produit OpenFoodFacts, les réutilisateurs peuvent ou pas nous envoyer des données, ou pas d’ailleurs.

C’est eux qui décident le volume et le type de données qu’ils veulent nous renvoyer. Nous, on prend tout, dans tous les cas.

Walid : cela ne pose pas des problèmes de modération ?

Manon : alors, on considère la donnée qui vient d’une application réutilisatrice au même titre qu’une donnée qui viendrait d’un consommateur. Donc, on considère que la donnée la plus récente prime. Mais c’est intéressant que tu soulignes ça parce que, par exemple, les fabricants, eux, ont une espèce de bouclier qui fait que leur donnée est considérée plus légitime que de la donnée qui vient d’une application mobile ou d’un consommateur. Et elle va être protégée pendant un certain temps. Mais du coup, ce n’est pas le cas forcément pour les applications mobiles.

Open Food Facts et les chercheurs


Walid : je voulais en reparler après, parce que j’ai regardé une de vos conférences destinée aux professionnels et c’est un des trucs que j’avais repéré, que j’avais trouvé très intéressant : ce sont les outils qui étaient mis à leur disposition. Mais on va en parler après.
Pour finir sur cette partie-là, on a parlé des applications qui utilisent vos données, mais à part les applications, quels autres organismes utilisent vos données ?

Manon : on en a parlé un petit peu, il y a toute la communauté de scientifiques, que ce soit sur des sujets nutrition, santé. Là par exemple, il y a pas mal de débats autour des additifs, des émulsifiants, etc. Il y a un papier qui a été publié par Mathilde Touvier de l’EREN, qui fait le lien entre ces additifs et leur impact sur la santé, notamment sur les formes de cancer. Donc voilà, un cas qui est particulièrement intéressant que l’EREN est en train de mener.

Walid : tu peux expliquer ce que c’est que l’EREN ?

Manon : donc l’EREN est l’équipe de recherche en épidémiologie nutritionnelle. C’est vrai, excuse-moi pour le raccourci. Mais du coup, qui est dirigée par Mathilde Touvier, qui est la directrice. Elle passe à la télé de temps en temps, elle a un petit peu pignon sur rue sur tous ces sujets-là.
Ils ont lancé, il y a quelques années, une cohorte. En fait ils sont en train de suivre, je sais pas le nombre mais je crois que c’est autour de 1000 personnes, ils suivent leur état de santé et ils suivent tout ce qu’ils mangent depuis un peu plus de 10 ans. Et donc l’idée, c’est quelque chose qui a jamais été fait jusqu’à présent, c’est la cohorte qui s’appelle NutriNet santé, si vous voulez aller voir, et donc ils suivent tout ce que les gens mangent et leur impact sur leur santé. Et ils utilisent régulièrement la base de données Open Food Facts pour aller chercher des informations sur les tableaux nutritionnels, les ingrédients de ce que les personnes mangent dans le cadre de l’étude en tout cas.

Walid : donc ça c’est scientifique, chercheur en gros?

Manon : voilà c’est ça. On a aussi parmi les cas un petit peu dans le spotlight, il y a ce qui a été fait pendant la création du Nutri-Score. Donc l’équipe de recherche qui a travaillé sur le Nutri-Score en 2016 s’est servi d’Open Food Facts pour challenger la formule du Nutri-Score qu’ils avaient réalisée et donc vérifier qu’il n’y ait pas 95% des produits qui sortent en Nutri-Score D. Donc vérifier que leurs leur formule permettait d’avoir des résultats un petit peu homogènes et qui permettent vraiment de faire la différence au sein d’une catégorie de produits, de voir un petit peu les différents scores.

Open Food Facts et les structures étatiques françaises


Manon : voilà, ça c’est pour la partie scientifique. Après, il y a pas mal des agences de l’État qui réutilisent nos données. L’an dernier, on a fait un gros projet avec l’ADEME qui a consisté à collecter des données sur les matériaux d’emballage, donc les données d’emballage des produits alimentaires. Grâce à eux, on a réussi à collecter des données sur plus de 12 000 produits. Cette nouvelle base de données, qui est unique en son genre, l’ADEME a pu s’appuyer sur les données qu’on a récoltées sur les emballages pour affiner leur indice d’impact environnemental.

Donc là, c’est encore un autre sujet, mais du coup, l’ADEME en ce moment est en train de travailler sur le futur éco-score officiel français qui va permettre de calculer l’impact environnemental des produits alimentaires. Et parmi les composantes de cet indice d’impact environnemental, il y aura un zoom sur l’impact de l’emballage. Et donc ils ont travaillé avec les données qu’on a pu récolter pour affiner un petit peu leurs critères.

Manon Corneille


Open Food Facts et les associations de consommateurs


Walid : est-ce qu’il y a encore d’autres acteurs ?

Manon : alors oui, après c’est vrai qu’Open Food Facts, au final, on est au milieu de tout cet écosystème. On discute pas mal avec les associations de consommateurs aussi, que ce soit l’UFC QueChoisir, récemment on travaille pas mal avec, on discute pas mal avec FoodWatch aussi, donc là ça va être un peu plus sur la défense du consommateur et là en particulier c’est aussi sur l’inflation, tous les sujets liés à la shrinkflation (NDLR: réduflation) aussi. La shrinkflation c’est le fait que les fabricants mettent moins de quantité de produits dans les emballages ou alors ils ont dégradé la qualité des produits pour économiser de l’argent et maximiser les marges. Donc Foodwatch suit ça de près et donc s’épaule de la base Open Prices pour mener l’enquête et essayer de défendre les consommateurs du mieux possible.

La modération des données de la base


Walid : je pense qu’on a fait pas mal le tour sur les différents acteurs. J’avais des questions qui concernaient la modération de la base en fait. Parce que là on a énormément de données, ces données elles sont rentrées par des acteurs qui sont différents. Je me posais la question et c’est le cas pour Wikipédia ou pour plein d’autres, de la modération de ces données. Qui fait la modération ? Qui regarde les erreurs ? Qui vérifie ? Qu’est-ce que vous avez mis en place au fil des années pour ça ?

Manon : Question qui revient souvent aussi. On a plusieurs leviers : le premier, ça va être la communauté. C’est vraiment le cœur du projet. Tout repose sur la communauté, on ne le dit pas assez souvent. Mais du coup, on a une équipe d’une cinquantaine de personnes dans notre équipe Data Quality, donc c’est une équipe qui est dédiée à la qualité des données, qui tous les jours vont aller corriger des fiches, faire la comparaison entre les photos et les données entrées textuellement, donc voilà, mettre à jour des produits, les rentrer, les corriger.

Un deuxième levier qu’on a et sur lequel on travaille assez intensément depuis quelques années, enfin depuis les deux dernières années, c’est tout ce qui va être lié au machine learning et à l’intelligence artificielle. Donc on a développé des outils qui nous permettent de détecter des erreurs automatiquement, avec aussi des outils qui permettent de lire les informations qui sont présentes sur les photos, OCR exactement, et de les comparer aux valeurs textes. Donc ça c’est des outils qui viennent en complément et qui sont super utiles à la communauté pour aller ensuite faire les corrections.

Après un troisième levier qu’on a, ça va être notre plateforme pro. Donc en 2019, ça fait cinq ans maintenant, on a développé une plateforme dédiée aux professionnels pour leur permettre d’importer des données en masse dans OpenFoodFacts, chose qui n’est pas du tout possible sur la plateforme publique et qui leur permet d’autres choses d’ailleurs, peut-être qu’on en parlera tout à l’heure. Mais du coup, cette plateforme pro permet de fiabiliser la donnée puisqu’on a une contribution qui vient des professionnels qui sont à la source de la donnée. Donc en général, les données sont plutôt propres. Et ensuite, en plus de ça, on a mis en place pas mal de ce qu’on appelle des data quality check, donc des points de vérification de données.

Donc voilà, vérifier par exemple sur un tableau nutritionnel les informations sont indiquées pour 100 grammes. Et donc si je fais la somme de la quantité de tous les nutriments pour 100 grammes et que ce chiffre est supérieur à 100, alors c’est qu’il y a un souci. Et donc ce genre de test logique, on en a un peu plus de 180 aujourd’hui. Et ça permet vraiment de pouvoir faire ressortir les erreurs et de les corriger ensuite. Donc on a tous ces outils-là qui existent aujourd’hui. Mais il ne faut pas oublier que sur 3 millions de produits, on ne peut pas être parfait.

La modération, ça reste un gros challenge. Ça ne sera jamais exhaustif, mais on continue de faire notre maximum.

Le travail autour du Nutri-score


Walid : c’est finalement les mêmes problématiques de modération qu’un peu partout de modération de données mais c’est intéressant de voir ce que vous avez mis en place.
Un des petits apartés que je voulais faire, c’était ce que je trouve que c’est on en a un peu parlé mais je voulais voir si tu avais des choses en plus à rajouter, c’était sur le Nutri-Score, parce que je pense que c’est une des choses les plus visibles, en tout cas moi qui ne connais pas très bien d’Open Food Facts, c’était revenir un tout petit peu sur le travail du Nutri-Score. Ce travail-là, etc. Est-ce que ce travail vous a mis en valeur ?

Manon : oui, carrément. Surtout que le Nutri-Score aujourd’hui est calculé dans 8 pays européens en dehors de la France, donc c’est vrai que ça nous a permis de rayonner encore plus. Du coup, ce que j’aurais à rajouter éventuellement, c’est l’effort qu’on a fait et l’impact qu’on a eu sur la démocratisation du Nutri-Score parce que c’est vrai qu’il y a eu une première collaboration sur la partie challenge de la formule sur la base de données.

Walid : c’était en quelle année les premiers travaux ?

Manon : donc ça c’était en 2016. Ça va faire bientôt dix ans, ça passe. Et donc suite à ça, en fait, nous on a intégré la formule du Nutri-Score dans Open Food Facts, ce qui fait que les fabricants le veuillent ou non, nous on calcule le Nutri-Score et qu’il soit visible ou non sur le paquet, on le rendait accessible aux consommateurs au travers de notre application et de notre site web. On est convaincu que ça a eu un impact sur la démocratisation puisque notre application était déjà pas mal utilisée et ça a permis aux utilisateurs de se familiariser avec l’indice et de l’approprier petit à petit.

Walid : est-ce que vous avez vu des apports directs depuis ce travail de Nutri-Score ?

Manon : alors on est conscient qu’il y en a, je n’ai pas les chiffres, mais il y a une certaine partie de la communauté, enfin des utilisateurs en tout cas, qui utilisent OpenFoodFacts uniquement pour le calcul du Nutri-Score. Donc c’est certain que c’est sûr que ça joue dans le développement d’OpenFoodFacts. D’ailleurs il y a souvent la confusion que OpenFoodFacts a créé le Nutri-Score, ce qui n’est pas le cas, et je tiens à le préciser. On a été plus vecteur de démocratisation, mais on n’est pas à l’origine du Nutri-Score.

Mais on en est très fiers et ça nous est utile pour le développement d’Open Food Facts, c’est certain.

Open Food Facts et les industriels


Walid : le prochain gros morceau, c’est ce que j’ai appelé Open Food Facts et son environnement, et le premier c’est l’industrie. Ce qui m’intéresse vraiment beaucoup, c’est de comprendre quel est l’intérêt des industries à la travailler avec vous. En 2012, la base se crée, en 2014, il y a l’association. Au départ, vous étiez globalement inconnus. Qu’est-ce qui fait que l’industrie a travaillé avec vous, en fait ? Quel est son intérêt ?

Manon : en fait, au début, c’est né dans notre intérêt, puisque nous, on était intéressés par leurs données. Et donc, pour arriver à les convaincre, on a dû développer un outil qui leur soit suffisamment utile pour qu’ils n’aient pas à se poser la question de rejoindre ou pas Open Food Facts. En fait, étant donné qu’il y avait déjà pas mal de données présentes sur les produits alimentaires, donc des données qui ont été entrées par les consommateurs, l’intérêt pour le fabricant, c’est déjà de corriger cette donnée qui est déjà existante, parce qu’en général ça ne leur plaît pas trop aux fabricants quand ils voient que leur produit a été pris en photo par un consommateur avec une luminosité certainement pas idéale, avec la photo de la main qui tient le produit.
Donc tout ça, ce n’est pas vraiment marketing. Donc la motivation première, ça va être de corriger la donnée et d’ajouter des photos qui soient propres.
Un autre levier, et encore ça reste un petit peu minime, mais c’est le fait de mettre en valeur cette démarche de transparence. La RSE (NDLR : responsabilité sociale des entreprises) compte de plus en plus, les marques aiment bien mettre en valeur quand elles font des choses pour la planète, pour le bien, pour la société. Donc il y a certaines entreprises qui surfent un petit peu sur ça. En général, c’est assez facile de convaincre les fabricants, étant donné que c’est gratuit de rejoindre la plateforme. Ça leur permet, eux, de se mettre à jour et de s’assurer qu’ils ont des données propres. Et puis c’est une démarche qui est pour le bien commun. Donc en général, ils mettent les ressources et ils contribuent.

Walid : si je suis professionnel, en plus de corriger mes données, qu’est-ce que ça m’apporte de plus ?

Manon : oui, donc bonne question. On a cet outil qui permet d’importer des données en masse, donc les fabricants peuvent importer un fichier Excel par exemple, avec toutes les données en colonne dans un fichier brut. Mais au-delà de ça, on a des outils qui permettent aux fabricants d’avoir des opportunités de reformulation de leurs produits. Par exemple, nous on va leur pousser des conseils pour améliorer leur Nutri-Score. Donc on va arriver à identifier en analysant la liste des ingrédients et les tableaux nutritionnels, on va leur pousser tous les produits pour lesquels, en faisant un ajustement minime sur la quantité de sel, de gras, de sucre, tous ces produits pour lesquels un ajustement minime va permettre de changer de Nutri-Score. Donc passer de la Nutri-Score B à la Nutri-Score A. Et donc ça c’est une analyse pour laquelle ils sont souvent friands.

Walid : la question que je me pose là-dessus c’est, est-ce que ça sert à des gros industriels ? Parce que moi j’imaginais, comme ça à brûle pour point, que ça sert à des petits fabricants potentiellement. Mais est-ce que ça sert aussi à des gros fabricants ?

Manon : ah oui, oui, oui! Ça sert à des gros aussi, ouais ouais. Après en général ils ont des outils de leur côté aussi qui sont certainement poussés, mais j’ai des exemples où vraiment des fabricants de toutes tailles peuvent utiliser ces outils. Et on a aussi un outil qui leur permet de comparer les qualités nutritionnelles de leurs produits par rapport à tous les autres produits qu’on a en base, donc les produits de même catégorie.

Par exemple, si j’ai des cookies au chocolat dans mon portefeuille produits. Nous, on va comparer mon cookie au chocolat avec tous les cookies au chocolat d’Open Food Facts. Et je vais être capable de dire, Manon, ton cookie, là, il est 15% plus sucré que la moyenne des cookies sur Open Food Facts.

Manon Corneille


Walid : d’accord. C’est assez intéressant. En faisant des recherches, j’ai été tombé sur une plateforme, mais qui a priori a l’air de ne plus forcément exister, qui s’appelait Numalim. Et en fait, la question que je me posais, c’était est-ce que vous avez des concurrents ? J’ai l’impression que Open Food Facts c’est imparable. C’est-à-dire que c’est une association qui n’a aucun parti pris. Être concurrent avec Open Food Facts, ça semble compliqué quand même.

Manon : À vrai dire non. Moi je n’ai jamais rencontré en tout cas de projet similaire, soit une association et qui soit collaboratif, où les consommateurs peuvent participer et enrichir. On n’en a pas vu d’autres, non.
Après, on a rencontré un type d’acteur, mais là, du coup, c’est des acteurs privés. Il y a par exemple NIQ Brandbank. Je ne sais pas si tu as entendu parler, peut-être pas, parce que c’est un peu niche. Mais en gros, c’est un acteur dont le métier, en fait, c’est de digitaliser l’information des produits alimentaires. Donc, les fabricants vont leur envoyer les produits et après eux ils ont un process très professionnalisé qui consiste à faire de très jolies photos du produit, entrer toutes les informations produits, des descriptions marketing aussi.

Donc eux leur métier c’est de mettre en valeur les produits de leurs clients et donc ils ont un peu pignon sur eux parce que ça fait longtemps qu’ils existent. Donc ils ont aussi une grosse base de données qui vendent très cher et en fait on ne peut même pas les considérer comme concurrents, étant donné qu’on n’apporte pas du tout la même valeur au monde. Entre guillemets, eux, ils sont très tournés clients. Ce qu’ils font, c’est de la haute qualité de données, mais ce n’est pas le même prix.

Open Food Facts dans le monde


Walid : la question que je me pose, parce qu’on ne l’a pas trop abordé, c’est dans combien de pays vous avez des données ? Dans combien de pays ? Parce que là, on a beaucoup parlé de la France, un peu de l’Europe, mais dans combien de pays ?

Manon : aujourd’hui, on est présent dans près de 200 pays, donc presque tous les pays. On va dire qu’on a un début de base de données dans près de 200 pays. Après, si on prend le nombre de pays dans lesquels on a plus de 50 000 produits, je pense qu’on doit être autour de 30 pays. Donc on est principalement en Europe, aux US, Amérique du Sud un petit peu aussi.

Walid : c’est quand même fou.

Manon : mais on est toujours surpris, c’est assez incroyable. Des fois on reçoit des mails de personnes au Venezuela qui nous expliquent qu’ils ont voulu rentrer des données mais qu’ils sont bloqués, ils ont un bug. Ils ont envie de contribuer et on est toujours épaté par la portée du projet, c’est assez impressionnant.

Open Food Facts et l’état


Walid : génial, je reprends mon le fil. Le deuxième acteur dans l’environnement d’Open Food Facts, c’est l’État. Au départ, comment l’État vous a regardé et maintenant comment vous collaborez avec lui ?

Manon : je n’ai pas tout l’historique, ça ne fait deux ans que je suis là, mais je sais en tout cas et je constate qu’on est vu de plus en plus comme un acteur crédible et presque incontournable en fait, parce qu’on nous sollicite de plus en plus sur des projets européens. On a noué des relations assez solides avec Santé Public France qui nous soutient depuis cinq ans maintenant, avec qui on travaille notamment sur l’évolution du Nutri-Score, l’ADEME avec qui on a travaillé l’an dernier. On échange aussi pas mal avec la Direction Générale de la Santé, le Ministère de l’Agriculture. On sent que tous ces organismes d’État font de plus en plus confiance, j’espère à juste titre. On l’a prouvé avec le nombre de produits qu’on a pu mettre en base et toute la communauté qu’on comporte aujourd’hui. Mais on sent qu’ils reconnaissent de plus en plus l’utilité de la base de données d’Open Food Facts et en particulier les outils du commun numérique.
On en parlait un petit peu tout à l’heure. Mais je pense qu’il y a une vraie prise de conscience à leur niveau. C’est chouette qu’ils communiquent aussi sur le fait qu’ils utilisent ce genre d’outils. Ouais, c’est top. Mais c’est vrai que c’est quelque chose qui s’est fait vraiment au fil des années et qui s’est pas fait en un claquement de doigts.

Est-ce un atout d’être une association française ?


Walid : est-ce que le fait que ça soit une association française joue d’une manière ou d’une autre ? Peut-être que si ça avait été fait ailleurs, ça n’aurait pas été la même forme juridique et ça n’aurait pas été forcément la même indépendance, je sais pas. Est-ce que le fait que ça soit en France joue, alors déjà certainement avec les relations avec l’État, je suppose, mais est-ce que ça apporte des choses supplémentaires ?
C’est une question que je me pose en en parlant avec toi.

Manon : oui, alors c’est vrai qu’à l’échelle européenne, je pense que Open Food Facts était finalement très bien placé en étant en France parce que déjà sur la question de l’alimentaire, les Français sont plus impliqués que la moyenne, il me semble en tout cas.

Sur les sujets alimentaires, les Français cuisinent beaucoup, s’intéressent à leur santé, plus que par exemple un public britannique où ils mangent beaucoup de produits ultra transformés et il y a un peu moins de débats autour des scores, etc. C’est aussi le pays qui a vu naître le Nutri-Score, donc forcément je pense que ça joue. Et là un peu plus récemment, sur la question d’impact environnemental, la France est vraiment un pays qui est leader en Europe sur tous ces sujets. Donc c’est sûr que je pense que c’est un terrain fertile pour pouvoir développer cette initiative. On est ravis d’avoir eu la main tendue de tous ces acteurs de l’État et on espère répliquer du coup ce succès dans les autres pays. On est en discussion avec certains ministères de la Santé en Espagne, en Allemagne, en Irlande. On espère justement répliquer un petit peu ça et pouvoir leur apporter la valeur qu’on apporte à Santé Public France et s’implanter là-bas aussi.

Solicitations pour d’autres bases de données ?


Walid : vous avez des sollicitations pour faire des bases de données hors de la nourriture ?

Manon : c’est un petit peu ce qui s’est passé avec le projet sur les emballages de produits alimentaires avec l’ADEME, c’est venu d’eux. Sinon pas plus que ça, mis à part le cas d’Open Product Facts, qui est un sujet dans l’air du temps et qui a été financé par la fondation AFNIC.

Et sinon, les choses se sont faites assez naturellement pour Open Beauty Facts. Et j’ai oublié, on a aussi Open Pet Food Facts pour l’alimentation animale.

Logo Open Beauty Facts

Les relations avec l’Europe


Walid : ma dernière question sur ce sujet là, c’est les relations avec l’Europe. Vos relations en Europe, on vient d’en parler un peu. Avec qui vous étiez en relation ? Quelles étaient les réactions des autres pays par rapport à Open Food Facts ?

Manon : en fait, tous les pays ne réagissent pas du tout de la même manière sur des sujets sur l’alimentation. Par exemple, en Angleterre, on parle beaucoup de tout ce qui est ultra-transformation en ce moment et les consommateurs s’intéressent beaucoup à ça. En Italie, par exemple, ils freinent des quatre fers par rapport au Nutri-Score. Donc dès qu’ils comprennent qu’on travaille avec le Nutri-Score, en général la discussion est compliquée. Parce que le Nutri-Score, pour la petite histoire, ça ne met pas en valeur tous leurs produits locaux, comme l’huile d’olive, le jambon, le fromage, etc. Donc l’Italie a une relation un petit peu difficile avec cet indice. Mais du coup, nos relations, on discute avec plein d’acteurs, on essaie de répliquer un petit peu ce qui a fait le succès d’Open Food Fact en France. On s’adresse aux ministères, aux chercheurs, aux fabricants aussi. On essaie de faire le plus de salons possible pour rencontrer les fabricants.

On était en Italie l’an dernier, en Allemagne aussi. La difficulté, c’est d’arriver à avoir une taille de base de données suffisamment grande pour être crédible, à la fois auprès des consommateurs qui vont trouver les informations qu’ils veulent, parce que si on n’a pas beaucoup de produits, les gens ne vont pas utiliser l’application. Si on n’a pas beaucoup d’utilisateurs, les fabricants ne vont pas vouloir envoyer leurs données. Donc il y a en fait cette question du seuil de produits suffisants à atteindre pour faire en sorte que Open Food Facts décolle dans les autres pays. Pour le développement en tout cas international, on parle à tous les acteurs possibles, donc les fabricants, les chercheurs, les ministères, les consommateurs, les applications réutilisatrices aussi. Pour l’instant, la priorité en tout cas sur cette année, c’est plutôt sur les pays Allemagne, Italie, Espagne et Royaume-Uni, donc les produits voisins, où là on a le plus de facilité à échanger. Mais Paris ne s’est pas fait un autre jour. Et Open Food Facts de tous les pays ne se fera pas un autre jour non plus. On compte aussi sur le développement du rôle d’ambassadeur pour avoir des acteurs locaux qui puissent engager la communauté et développer le projet comme ça.

Les défis à venir pour l’association


Walid : on va passer à la dernière partie qui fait un peu la conclusion. On va parler un peu des défis à venir. Alors, j’avais noté des défis techniques, mais on en parlera dans l’épisode 2. Je voulais savoir quels étaient les défis de relation en termes organisationnels, etc. ?

Manon : un défi qui est non technique, ça va être l’engagement de la communauté, arriver à structurer l’effort de tous ces bénévoles qui ont envie de s’impliquer dans le projet. On a essayé de faire des travaux sur l’organisation par équipe. Il y a l’équipe communication, l’équipe partenariat, donc avec des profils plutôt qui ont envie de rencontrer des gens par des relances e-mail, etc.

D’équipes financement, une équipe data quality (NDLR : qualité des données) et des équipes plutôt techniques aussi. Donc on a essayé de diviser l’effort en différents pôles et pour chaque équipe. On a une personne employée d’Open Food Facts qui pilote tout ça et qui essaie d’animer la communauté de bénévoles. On a quelques volontaires dans chacune de ces équipes. Ça reste difficile et ça prend quand même beaucoup de temps. C’est un effort qui n’est pas financé aujourd’hui. Donc ça aussi, on en parlait en début d’épisode, mais ça reste un challenge. Garder les contributeurs motivés.

Walid : c’est toujours un challenge dans les projets libres de garder les contributeurs parce qu’on les a formés, ils ont l’expérience et on n’a pas envie qu’ils partent.

Manon : ouais c’est difficile aussi d’estimer l’avancée d’un projet parce que tu sais pas combien de temps les personnes vont impliquer, tu sais pas. C’est difficile de planifier quand on part sur du temps bénévole parce qu’on peut pas non plus exiger de faire des choses. Et d’arriver à maintenir aussi la documentation à jour parce qu’il y a énormément de choses, énormément de projets, même au sein d’Open Food Facts. Et donc pour tous les nouveaux arrivants qui découvrent le projet, en général, ils se tirent un peu les cheveux parce que c’est assez touffu. Il y a aussi ça qu’on peut compter dans les défis.

Le mot de la fin


Walid : oui, très intéressant. Je pense que si on se reparle une prochaine fois, on reparlera de cette relation entre les bénévoles et les salariés. Je pense qu’il y a vraiment des trucs à dire, mais là, malheureusement, on aura, il faudra du temps supplémentaire. Écoute, on arrive sur la fin. Je voudrais te laisser un mot de conclusion. Est-ce que tu veux faire passer un message aux auditrices et aux auditeurs de Projet Libre ?

Manon : moi, mon message, c’est faites attention à ce que vous mangez. Prenez soin de vous. N’oublions pas qu’on est sur cette terre tous ensemble. Donc tous les projets qui impliquent la communauté, qui participent au bien commun, il ne faut pas les perdre de vue, même si on est tous happés par notre quotidien et par nos smartphones et toutes ces notifications etc. Prenez soin de vous, engagez-vous dans des projets open source, c’est ça qui nous sauvera.

Walid : merci beaucoup. C’est une belle conclusion. Peut-être un peu ambitieux, mais… Quand on regarde tout le chemin parcouru depuis la création d’Open Food Facts, je ne suis pas sûr que Stéphane et Pierre pensaient qu’un jour ça ferait tout ça. Donc il faut aussi rêver, je crois, c’est important.
C’est moi qui vais te remercier aussi de m’avoir contacté. Je pense que je vais remercier aussi Pouhiou de Framasoft qui a parlé de moi.

Manon : Carrément.

Walid : c’est un de mes sponsors bénévoles ! Voilà. Écoute, merci beaucoup. C’était passionnant.

On va donc se retrouver prochainement pour un deuxième épisode qui lui sera plus technique dans lequel je pense que je vais pouvoir poser toutes les questions aussi que j’ai pas eu le temps de poser ici. Merci beaucoup Manon. Et puis, écoute, à bientôt. J’espère qu’on aura l’occasion de se reparler pour parler justement de tous vos projets, vous en êtes, etc. dans le futur.

Manon : avec grand plaisir! Un grand merci à toi Walid, c’était super chouette.

Bon courage pour la suite et à bientôt!

Cet épisode a été enregistré le 14 février 2024.

Pour aller plus loin autour d’OpenFoodFacts



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

This entry was edited (6 months ago)

Castopod et l’environnement du podcast – épisode 1 – Y. Doghri et B. Bellamy – AD AURES


Connaissez-vous Castopod ? C’est la plate-forme de podcast qui héberge Projets Libres ! Dans cette entrevue en deux partie avec Yassine Droghi et Benjamin Bellamy, les fondateurs du logiciel, nous abordons un grand nombre de sujets : qu’est-ce qu’un podc

podcast.projets-libres.org/@pr…

Sommaire

Interview avec l’équipe de Castopod


Walid : Bienvenue pour ce nouvel épisode de Projet Libre. Aujourd’hui, je suis très heureux parce qu’on va parler d’une plateforme de podcasting qui s’appelle Castopod avec son équipe de développement. J’en suis ravi puisque j’ai migré sur Castopod en fin d’année dernière.

Pour parler de Castopod, j’ai avec moi Yassine Doghri et Benjamin Bellamy que j’ai eu l’occasion de rencontrer, Benjamin à plusieurs reprises, et Yassine il n’y a pas très très longtemps. Donc écoutez, Yassine et Benjamin, bienvenue sur Projet Libre, j’espère que vous êtes en forme et que tout va bien.

Yassine : super, bonjour.
Benjamin : bonjour, merci.

Présentation de Benjamin Bellamy et Yassine Doghri


Walid : alors, première question, je vais vous demander de vous présenter et de nous expliquer comment vous en êtes arrivé à faire du logiciel libre. Benjamin, à toi l’honneur.

Benjamin : bonjour, donc je m’appelle Benjamin Bellamy, je suis ingénieur. Depuis une vingtaine d’années, j’ai mené des projets dans diverses industries telles que l’édition, la distribution de livres, les médias en ligne, la télévision, le commerce électronique.
Et je suis depuis toujours un ardent défenseur du logiciel libre et de l’open source et un amateur de podcast : ce qui fait que la route était toute tracée, j’ai envie de dire. Ça m’a amené à monter il y a quatre ans avec Yassine de la société Ad Aures, qui est une entreprise dédiée à la création d’écosystèmes équitables et durables pour l’industrie du podcast.

Walid : Yassine, de ton côté ?

Yassine : moi je m’appelle Yassine Doghri, je suis du coup ingénieur en informatique. J’ai cofondé, comme l’a dit Benjamin, Ad Aures avec lui il y a quatre ans et aujourd’hui je travaille en tant qu’architecte et contributeur principal sur Castpod, principalement. J’ai fait quelques autres projets pour Ad Aurès à côté. Voilà.

Walid : comment est-ce que tu as découvert le logiciel libre ?

Yassine : alors, comment j’ai découvert le logiciel libre ? C’est assez classique. Comme je suis développeur web, j’ai commencé à travailler sur des projets et beaucoup utiliser des projets, des outils open source du coup. Et donc, de fil en aiguille, petit à petit, j’ai commencé à comprendre les tenants et aboutissants du libre. Parce que c’est pas forcément l’open source, le libre. J’adhère quand même pas mal aux valeurs et c’est comme ça que j’ai découvert. J’ai eu la chance de travailler sur un projet open source et libre donc je suis très heureux aujourd’hui.

Walid : et toi Benjamin?

Benjamin : moi j’ai commencé l’informatique dans les années 80 sur MS-DOS 3, à une époque où on parlait franchement pas beaucoup et j’ai commencé à m’y intéresser, je pense, quand j’ai commencé à bosser en fait. J’ai commencé à travailler en 98 à l’époque on utilisait déjà le serveur web Apache, on utilisait déjà pas mal Linux et il commençait à y avoir des distributions qui à l’époque se targuaient d’être user-friendly, en particulier il y avait Red Hat qui bossait pas mal.
C’était aussi à cette époque-là qu’on a commencé à avoir les Mandrake et compagnie (NDLR : voir l’interview de Gaël Duval). Bon, ça restait user-friendly pour des gens qui savaient recompiler le noyau quand même, c’était pas encore le niveau d’utilisabilité qu’on connait aujourd’hui. Parce qu’aujourd’hui n’importe qui peut utiliser Linux. À l’époque c’était quand même un petit peu ardu, et en particulier pour faire tourner des services en entreprise, c’était assez compliqué. Mais ça marchait plutôt pas mal, c’était même plutôt stable. Et ça a été un peu une révélation de se rendre compte qu’à une époque où moi j’étais encore totalement formaté par l’époque un serveur Lotus Notes sur Red Hat et ça marchait super bien.

Walid : on a à peu près la même génération, à peu près la même génération tous les deux.

Benjamin : ouais on est vieux ouais.

Walid : avant de présenter Castopod je voudrais donner une petite anecdote très rigolote : quand j’ai commencé le podcast je ne connaissais pas Castopod. J’ai découvert Castopod en regardant une conférence que Benjamin avait faite au FOSDEM. Et au moment où je regardais la conférence, Benjamin avait écouté un épisode, il m’a contacté pour me dire « ouais c’est cool ton podcast». J’ai trouvé ça très très rigolo ». Voilà.

Benjamin Bellamy (source : benjaminbellamy.fr)

Benjamin : il n’y a pas de hasard.

Walid : voilà, et donc je me suis dit « putain, c’est con, je n’ai même pas cherché au moment de créer mon podcast une plateforme libre de podcasting ». J’avais quand même un peu honte.

Benjamin : alors non, c’est nous qui devrions avoir honte. Clairement, nous on est, je disais, on adore les podcasts et puis on est des ardents défenseurs du logiciel libre mais on n’est pas les meilleurs au marketing, on va pas se mentir. Parfois ça nous manque un peu. C’est pour ça aussi qu’on est très content que tu nous invites pour qu’on puisse parler de ce qu’on fait et puis faire découvrir au plus grand nombre nos solutions et comment est-ce qu’elles peuvent ou pas d’ailleurs les aider. On s’est rendu compte d’ailleurs en cherchant un peu tous les podcasts qui parlaient de logiciels libres qu’il y en a très peu qui utilisent Castopod, y compris ceux dont la création est postérieure à la création de Castopod.

Libre vs open source


Benjamin : Je voulais juste revenir rapidement parce que je pense que c’est pas mal de le faire en préambule : tu nous demandes comment on a découvert le logiciel libre et tu n’as pas parlé d’open source. Et je pense que c’est intéressant de faire la différence dans le sens où globalement aujourd’hui entre qu’est ce que c’est que l’open source, le logiciel libre, le gratuit, le freeware, on a tendance à mettre un peu tout ça dans le même sac c’est pas super important parce que très souvent les logiciels libres sont open source et ils sont gratuits, mais ça ne va pas forcément de soi dans l’autre sens. Et nous, on est défenseur du logiciel libre, pas nécessairement de l’open source.
Et je voulais profiter de cette occasion pour refaire un peu le point là-dessus parce que ça me parait quand même fondamental aujourd’hui, surtout quand on se dit défenseur du logiciel libre, de dire qu’est-ce que c’est. Le logiciel open source, pour commencer par ce qui est plus simple, ça veut juste dire que quand on distribue un logiciel, on le distribue avec son code source. Donc comment est-ce qu’il fonctionne, qu’est-ce qu’il y a à l’intérieur. Ça ne veut pas du tout dire qu’il est gratuit. Typiquement, quand quelqu’un fabrique un site web, il va donner le code source qui souvent va être HTML et ce n’est pas pour ça qu’il est gratuit. Puisque libre, ça veut dire que j’ai le droit d’exécuter un programme pour l’usage que je souhaite.

On ne peut pas me dire, ça tu peux l’utiliser pour faire ça, mais pas pour faire ça. Je peux l’utiliser pour ce que je veux. Je peux l’étudier pour savoir comment il fonctionne et le modifier si j’en ai envie. Je suis libre de le redistribuer, c’est-à-dire de le modifier et de redistribuer les modifications que j’ai faites et du coup de l’améliorer pour en faire profiter tout le monde. Donc là où gratuit, tout le monde comprend ce que c’est, c’est qu’on ne paye pas. Open source, c’est qu’on a accès à comment est-ce qu’il fonctionne à l’intérieur, c’est aussi technique. Libre, c’est un peu plus philosophique, c’est vraiment une question de liberté. J’ai le droit de faire ce que je veux, ce que je veux dans les limites de la licence d’utilisation. Mais en tout cas j’ai le droit de l’utiliser pour ce que je veux, de l’étudier, de le modifier et de le redistribuer. Et ça c’est fondamental en particulier aujourd’hui où les questions de souveraineté numérique sont au centre de toutes les préoccupations, où on se pose beaucoup de questions sur « mais qu’est ce qu’ils font avec nos données ? où est-ce qu’elles vont ? à quoi ils s’en servent ? », et bien pouvoir étudier comment ça fonctionne et qu’est-ce qu’il y a derrière, c’est fondamental aujourd’hui. Alors pourquoi est-ce qu’il y a cette amalgame ?
Parce que très souvent un logiciel libre, enfin très souvent d’ailleurs je pense que c’est systématique, on a accès au code source. On voit difficilement comment est-ce qu’on pourrait faire un logiciel libre sans donner un accès au code source. Et de fait, à partir du moment où on a un accès au code source, on a tendance à dire du coup c’est gratuit puisque je peux le prendre, je peux le copier, je peux le modifier.
Alors il y a quand même des modèles économiques liés au logiciel libre et je pense qu’on en parlera dans le cadre de Castopod par la suite. Mais en tout cas ces trois notions qui souvent sont confondues en fait sont très différentes et c’est important, parce que c’est important aussi de comprendre pourquoi est-ce que nous on a voulu faire un logiciel libre. On n’a pas voulu faire un logiciel libre parce qu’on a voulu qu’il soit gratuit, on n’a pas voulu faire un logiciel libre parce qu’on a voulu que les gens puissent avoir accès au code source, même si ça passe par là, c’est parce qu’on estime que c’est primordial que les gens soient libres de publier leur podcast avec la possibilité de modifier, de savoir comment ça marche et de redistribuer s’ils font des modifs.

Présentation de Castopod


Walid : pour aller plus loin, vous pouvez écouter l’épisode avec Benjamin Jean et aussi l’épisode avec Raphaël Semeteys et Gonéri Le Bouder sur les modèles économiques du logiciel libre.
Maintenant j’aimerais bien que vous me présentiez Castopod. Qu’est-ce que Castopod ? Comment est née l’idée de faire Castopod ?

Benjamin : alors je suis ravi que tu me poses la question. Qu’est-ce que Castopod ? Alors il faut faire un petit préambule technique sur le podcast.
Qu’est-ce que c’est que le podcast ou le podcasting outre-Atlantique ? En fait c’est un mode de diffusion de fichiers multimédia essentiellement sonores. Ce que nous on appelle podcast, on a une définition technique, parce qu’on est ingénieur, c’est un fichier MP3 dans un flux RSS : c’est-à-dire la possibilité de publier des émissions sonores au format MP3 ou autre format sonore, d’ailleurs, via un fichier d’index qui va lister l’ensemble de mes épisodes, on parle d’émissions, d’épisodes, dans un fichier XML qui est un formalisme informatique pour lister un ensemble d’éléments. Quand on a dit ça, on n’a pas dit grand chose, si ce n’est que ça a plein d’implications. La première c’est que n’importe qui peut aujourd’hui, hier ou demain dire voilà je vais faire un podcast et je vais aller déposer sur un serveur mes fichier XML. Et les applications d’écoute, on en connaît plein, on connaît Apple Podcasts qui est la plus répandue historiquement, aujourd’hui il y a Spotify, il y a YouTube qui s’y est mis d’une certaine manière un peu bizarre, on pourra peut-être en reparler par la suite, il y a AntennaPod, PocketCast, Anytime, PodcastPlayer, Podfriend, Podverse, j’en cite quelques-uns dont des open source.

Logo antennapod

Et tous ces logiciels-là sont capables de comprendre le fameux fichier d’index, le flux RSS, et d’aller télécharger les fichiers MP3. Ce qui est très particulier sur le podcast et qui est très différent de l’internet qu’on a vu se développer depuis les années 2007, c’est que le podcast est décentralisé : c’est-à-dire que n’importe quel logiciel d’écoute peut aller chercher ses fichiers MP3 n’importe où. Donc je n’ai pas un silo fermé, je n’ai pas une plateforme fermée. Je suis dans un écosystème qui est totalement ouvert, totalement interopérable, où n’importe qui peut publier un podcast et n’importe qui peut lire un podcast. Pour autant qu’on parle le même protocole. On fait souvent la comparaison avec le SMS, où peu importe mon téléphone, mon opérateur, mon émetteur et mon récepteur, tout le monde peut s’échanger des messages.

Sur le podcast, c’est encore le cas. Ce n’est pas le cas, typiquement, si je suis sur YouTube : ma vidéo YouTube, je peux l’avoir que sur YouTube et pas ailleurs. Je suis dans un écosystème fermé. Donc le podcast est resté ouvert, ce qui veut dire commencer à choisir, si je suis podcasteur et que je veux publier un podcast, un hébergeur de podcast. Donc je peux choisir de l’auto-hébergé, je peux aller chercher une solution du marché. J’avais regardé il y a à peu près un millier d’hébergeurs de podcasts, ce qui est conséquent parce qu’ils ont tous la même valeur, c’est-à-dire que tous ces hébergeurs ont tous leur contenu qui vont arriver dans Apple Podcasts, dans Spotify exactement de la même manière. Il n’y en a pas un qui va être plus ou moins visible qu’un autre. Parmi ces mille, il y en a quand même une centaine qui sont plus gros que les autres. Mais c’est un passage obligé. C’est-à-dire qu’il faut que je commence par trouver un hébergeur et que je lui confie mes fichiers MP3. Il va en faire un index, un flux RSS, et c’est ce flux RSS que je vais aller après confier à toutes les plateformes des cas.

Castopod est une plateforme d’hébergement de podcast, donc il y a une interface sur laquelle je vais pouvoir définir le nom de mon podcast, sa description, la langue que j’utilise pour m’exprimer, éventuellement la catégorie, est-ce que je parle de religion, de news et technologies, est-ce que c’est pour les enfants. Je vais, après, publier des épisodes. Pour chaque épisode je vais mettre un fichier MP3, je vais pouvoir mettre une image, une description, une date de publication. Je vais pouvoir dire est-ce que je publie toutes les semaines, en série, il y a tout un tas de paramètres. Et Castopod va générer ce fameux flux RSS qui fait que mes épisodes vont apparaître sur l’ensemble des plateformes où je souhaite être référencé. C’est moi en tant que podcasteur qui décide où je suis écoutable, où l’on peut m’écouter. Si je n’ai pas envie d’être sur Apple Podcast, je peux très bien ne pas y être. Si je veux, je peux y être et donc je vais choisir les plateformes sur lesquelles je veux être entendu.

Pourquoi est-ce qu’on a développé Castpod ? Parce qu’en fait, nous on travaillait déjà dans le podcast et pour tout un tas de raisons, on faisait des tests et on avait besoin de faire des tests sur un certain nombre de podcasts. Et du coup, on cherchait une solution open source d’hébergement de podcasts parce qu’on ne voulait pas, quand on faisait un test sur 12 podcasts, payer 12 abonnements chez un hébergeur professionnel qui fait payer podcast par podcast. On a fait une petite liste de prérequis, de choses dont on avait besoin. Et puis on s’est dit, il nous faudrait une solution open source parce qu’on veut pouvoir faire ce qu’on veut, on voudrait qu’elle ait tel et tel critère. Et puis on a commencé à chercher, à regarder un petit peu partout sur les sites qui référençaient des solutions open source, des solutions de podcast, et puis pour choisir la solution qui répondait à tous nos prérequis. Et on n’en a pas trouvé. Et il s’en est fallu de beaucoup : c’est-à-dire que globalement on avait une dizaine de points, on en a trouvé une qui cochait 2-3 cases, mais on était très très loin du compte. Donc on était un peu déçu forcément, on a utilisé une solution qui existe encore qui s’appelle Podcast Generator, parce que c’est du PHP, il n’y a pas de base de données, c’est très simple, le code est très vieux, c’est pas du MVC, c’est très vieillissant, mais bon on l’a utilisé tant bien que mal. Et puis un jour, je pense que c’était au festival Pas Sage en Seine à Ivry-sur-Seine, j’ai rencontré Ludovic Dubost de XWiki, à qui j’ai parlé de ça et à qui j’ai évoqué ma wish list. Il m’a dit « Ah mais il y a une entreprise, une société qui s’appelle NLNet qui subventionne des projets avec des financements européens, des subventions européennes, pourvu que ce soit open source et en plus ils sont très moteurs sur tout ce qui est Fediverse / ActivityPub« . Il se trouve que nous on voulait une plateforme de podcast sur le Fediverse, on en reparlera par la suite je pense, et il a dit « bah fait un dossier d’une dizaine de pages et notre projet a été accepté ». On a obtenu une subvention d’à peu près 40 000 et quelques euros, ce qui n’est pas rien. Ce qui est très loin du coup que représente le développement de la plateforme aujourd’hui, mais c’est quand même pas rien du tout.

NLnet fondation

Et surtout, ça nous a conforté dans l’idée qu’il y avait un besoin, qu’il y avait une place, que ce n’était pas normal qu’il n’y ait pas de plateforme open source d’hébergement de podcast qui répondent aux critères fonctionnels et techniques qu’on a le droit d’attendre aujourd’hui. Et que si un organisme européen était prêt à le financer à hauteur de 40 000 euros, eh bien c’est qu’il y avait vraiment un truc à faire. Et ce n’est pas tant le montant de la subvention qui nous a convaincus que le fait qu’il y a des gens qui attendent après. Et c’est comme ça qu’est né Castopod. Donc ce qui au départ était juste une wish list (NDLR : liste de souhaits) est devenu un side project (NDLR : un projet en parallèle) et puis est aujourd’hui un projet à part entière auquel on consacre énormément de temps, d’énergie, de passion, de sang et de sueur.
Et on est super content de l’accueil qu’il a reçu et du fait que des gens l’utilisent. Et à ce titre, je tiens à te remercier doublement de nous avoir invités et d’utiliser Castopod.

Walid : Yassine, est-ce que tu veux rajouter des choses?

Yassine : tu l’as évoqué pour le Fediverse, mais le point je pense différenciant de Castopod, c’est quand même qu’il est connecté au Fediverse. C’est à dire que c’est intégré dans un réseau social qui est fédéré. Castopod intègre un réseau social fédéré. Mais voilà les autres hébergeurs, il n’y en a aucun aujourd’hui qui est en plus intégré aux Fediverse.

Les technologies qui propulsent Castopod


Walid : ce que j’aimerais maintenant qu’on aborde c’est les technologies que vous utilisez dans Castopod. Techniquement, de quoi est composé Castopod ? Yassine, tu veux en parler ?

Yassine : Castopod est basé sur un framework PHP qui s’appelle Codeigniter. Il n’est pas très connu, mais c’est du même style que Symfony ou Laravel, bien que ce soit un peu plus performant, un peu plus léger. Donc, on s’est basé sur ça. Ça permet de développer des applications web assez habilement, du coup c’est top à prendre en main.

Logo Framwork PHP CodeIgniter

Et du coup, c’est une application web, donc PHP, MySQL, HTML, CSS, JavaScript, ce qui est le plus classique. Sachant qu’on s’est calqué sur WordPress, le modèle WordPress, à savoir qu’aujourd’hui 70% des sites web sont sur du PHP, et pas mal beaucoup de WordPress aujourd’hui sur internet. Et donc on a tenu à garder un peu cette idée là c’est que aujourd’hui Castopod peut être installé sur un hébergement mutualisé donc à quelques euros par mois et donc ça permet à des utilisateurs qui voudraient avoir un petit Castopod à eux de le faire sans problème.

Benjamin : je voudrais juste rajouter, quand on a développé Castopod, on s’est vraiment calqué sur le modèle de WordPress, que ce soit le modèle économique ou le modèle technique : c’est-à-dire que Castopod, ça se télécharge en un clic depuis castopod.org, et c’est un fichier zip, et vous dézippez le fichier zip chez votre hébergeur, Yassine le disait, ça peut être un hébergement mutualisé.

Et puis vous suivez un wizard, un assistant. Vous allez devoir remplir très classiquement les infos de base de données, deux, trois bricoles, le nom de votre instance, etc. Et ça fonctionne. L’idée c’était de rester le plus facile et le moins coûteux à déployer. Bien entendu, aujourd’hui on peut utiliser du Docker, du Kubernetes, du Ansible, du Yunohost. Il y a plein de manières de déployer Castopod, mais il y a toujours la possibilité de dézipper, installer et ça marche.

Et ça, sans avoir besoin d’avoir une grosse machine virtuelle. Si j’ai du PHP MySQL, ça va fonctionner.

La licence de Castopod


Walid : question licence. Quelle licence vous utilisez et pourquoi vous avez pris cette licence là ?

Benjamin : alors on est sous licence AGPL V3, on s’est reposé la question avant d’enregistrer ce podcast et on s’est dit peut-être que c’était par ordre alphabétique parce que AGPL c’était la première. Plus sérieusement en fait, nous comme on vous le disait, on aime bien les logiciels libres, le logiciel libre, c’est même un euphémisme.

Donc on voulait une licence virale et puis on a été aussi guidé par NLNet. La plupart des logiciels du Fediverse aujourd’hui, que ce soit Mastodon, PeerTube, sont sous licence AGPL. En fait, on ne s’est pas posé la question très longtemps, c’est-à-dire qu’on ne s’est pas fait vraiment de nos cerveaux

Benjamin Bellamy


En gros, de toute façon, aujourd’hui, quand on a un logiciel serveur c’est soit GPL soit MIT. On penchait plutôt pour GPL et puis NLNet nous a un peu conforté dans cette idée là. C’est un choix qui s’est fait assez naturellement. Peut-être qu’on ne s’est pas posé suffisamment de questions, en tout cas aujourd’hui on est plutôt content de cette licence. Je pense qu’elle est conforme à nos valeurs.

Walid : je ne savais pas qu’NLnet finançait des projets dès la création du projet. Ça m’inspire qu’il faut vraiment faire un épisode sur les financements européens parce que là il y a vraiment beaucoup de choses à dire.

Benjamin : alors NLnet finance des projets dès le début. Il finance des projets pour les entreprises, pour les particuliers. Donc je n’ai pas besoin d’avoir un SIRET d’auto-entrepreneur pour obtenir un financement NLnet. Il faut le savoir, si je suis tout seul à développer un logiciel, je peux très bien aller les voir. Les dossiers sont à déposer une fois tous les deux mois et en fonction de leur charge de travail, ils répondent soit très vite, soit un peu moins vite.

Et point important, le paiement se fait exclusivement à la livraison du code source.

Présentation d’Ad Aures


Walid : on en parle dans l’épisode sur Peertube. Ok, on a commencé à l’évoquer au tout départ maintenant, passons à la présentation d’Ad Aures. Là ça m’intéresserait que vous présentiez un petit peu votre compagnie, qu’est-ce que, qu’est-ce que, quelles sont vos activités, qu’est-ce que, qu’est-ce que vous faites sur Ad Aures ?

Logo Ad aures

Benjamin : bien sûr, donc comme je le disais tout à l’heure, Ad Aures c’est une entreprise dédiée à la création. Nous, on aime beaucoup le podcast déjà parce qu’on en est consommateur, on aime beaucoup le podcast parce que c’est un écosystème qui est décentralisé, sur lequel tout le monde peut intervenir, ce qui n’est pas le cas dans d’autres écosystèmes. Pour autant, c’est compliqué d’en vivre. C’est simple, je me crée mon compte et puis j’ai plus qu’à suivre. Dans le podcast, déjà il faut que je trouve un hébergeur, si je veux monétiser, il y a plein de solutions. Est-ce que je veux faire de la pub ? Est-ce que je veux aller sur une plateforme de financement ? Est-ce que je veux du tipping ? est-ce que… Et tout est possible. Et déjà c’est pas forcément évident à comprendre et puis du coup on a plus de mal à se raccrocher à des success stories. Et l’idée d’Ad Aures c’était de dire aujourd’hui il y a cet écosystème fabuleux avec cette richesse de contenu qui est incroyable parce qu’il y a aussi une liberté de ton, de format, de langue qu’on retrouve nulle part ailleurs du fait que je peux changer d’hébergeur quand je veux et garder mon audience. Mon audience peut changer de logiciel d’écoute et continuer à m’écouter. Enfin, l’interopérabilité vraiment joue à plein. Mais quand on a dit ça, on n’a pas payé son loyer. Et créer du contenu, on peut créer du contenu de qualité gratuitement parce que c’est sa passion sur son temps libre, mais ça veut dire que sur mon temps pas libre, il y a quelqu’un qui va me payer un salaire et un loyer.

Donc au bout de la chaîne, il y a forcément quelqu’un qui paye. Et tant qu’à faire, il y a des gens qui veulent monétiser leur contenu directement et on pense que c’est tout à fait normal et même louable. Il faut leur offrir des solutions. Et donc nous, on a la prétention de proposer en particulier une solution, c’est pas la seule, il y en a plein d’autres, et encore une fois on trouve que c’est très très bien qu’il y en ait plein, qui est une solution de monétisation publicitaire, qui ne se base pas sur le profilage des utilisateurs, qui n’utilise pas de cookies, alors de toute façon il n’y a quasiment pas de cookies dans l’écosystème du podcast, du fait que les gens utilisent des logiciels dédiés, qui sont nombreux et multiples, mais qui va se baser sur de l’indexation sémantique. Donc en fait, parmi les outils qu’on a développé et sur lesquels on travaille, il y a un moteur d’indexation sémantique qui permet d’étudier des contenus et de comprendre quels sont les concepts évoqués. Je parle vraiment de concept, pas de mots-clés. Pour derrière faire de l’indexation et de la recommandation. C’est-à-dire par calcul de distance sémantique, on est capable de dire que tel contenu est proche d’un autre parce que les sujets sont connexes, parce qu’ils sont proches, il y a plein de raisons possibles. Donc évidemment, ça utilise beaucoup de l’intelligence artificielle.

Et on peut utiliser ça soit pour faire de la découvrabilité, ce qui est une des problématiques fortes dans l’écosystème du podcast, soit pour faire de la publicité, c’est-à-dire recommander des objets publicitaires, des produits publicitaires qui sont directement liés au contenu que je suis en train d’écouter. Et on a pas mal d’opérations de tests à différents degrés de complétude d’ailleurs là-dessus, qui permettent de faire de la pub. On travaille beaucoup en mode affiliation parce qu’on trouve que ça marche vraiment pas mal, en particulier sur le podcast qui est un produit hautement culturel et puis ça permet aussi que ce soit le contenu qui aille chercher la publicité et pas la publicité qui aille chercher le contenu, ce qui est un peu le mode de fonctionnement usuel qu’on a sur internet aujourd’hui. Je ne vais pas rentrer trop dans le détail mais aujourd’hui on développe des outils pour les podcastrices et les podcasters qui leur permettent de répondre à l’ensemble des problématiques qui peuvent se poser, dont la modernisation, qui nous semble être quand même le nerf de la guerre, quelque part. Et bien sûr, tout ça fonctionne avec Castopod, qui est la plateforme d’hébergement, qui est le premier maillon de la chaîne.

Walid : pour continuer, c’est comprendre à la fois votre positionnement par rapport aux autres, donc ça tu viens un peu de le donner, c’est-à-dire comment est-ce que vous vous différenciez par rapport aux autres, qu’est-ce que vous apportez qui est différent, qui fait que les gens vont avoir envie de travailler avec vous. Et puis après derrière, ce que j’aimerais bien qu’on aborde aussi après, c’est un peu votre contribution au secteur du podcasting. Qu’est-ce que vous portez comme valeur, comme attente, etc ? Que vous mettez en avant?

Benjamin : ça rejoint ce qu’on disait en introduction, c’est-à-dire que nous, on est vraiment convaincus que le podcast doit rester libre et doit rester décentralisé. On n’a vraiment pas envie que le podcast se referme en silo fermé. Et aujourd’hui, il y a un vrai risque. Et pour ça, l’angle qu’on a pris, c’est un angle fonctionnel, c’est-à-dire qu’on essaye de fournir des réponses fonctionnelles aux problématiques des créatrices et des créateurs de contenu qui fonctionnent dans un monde décentralisé, dans un monde ouvert. Là où aujourd’hui YouTube a ouvert sa plateforme au podcast, c’est-à-dire que vous pouvez aller sur YouTube Creator et puis saisir l’adresse de votre flux RSS et votre podcast va être injecté dans YouTube et derrière vous aurez accès à toutes les fonctionnalités de YouTube.

J’ai aucun problème avec ça, je trouve ça très bien tant que YouTube n’a pas le monopole du podcast. Et on sait que s’il n’y a pas d’alternative à la monétisation, s’il n’y a pas d’alternative à comment est-ce que je vais pouvoir améliorer ma découvrabilité, fatalement c’est ce qui va se passer. Donc pour nous il est primordial de fournir des réponses fonctionnelles alternatives à YouTube. Quand vous rentrez votre podcast dans YouTube, il y a des infos qui rentrent, il n’y a rien qui ressort de YouTube. Si vous créez votre podcast depuis YouTube, il ne sera pas accessible vers d’autres podcasts. YouTube, c’est un trou noir en fait.

Il y a des choses qui rentrent, mais il n’y a rien qui en sort. Ils aspirent la valeur, mais ils ne la repartagent pas. Ils ne repartagent pas les informations, ils ne repartagent pas les contenus. YouTube en tant que société d’ailleurs ne crée aucun contenu, ils décident de ce que vous avez le droit de dire, ce que vous n’avez pas le droit de dire, si vous avez le droit de dire des gros mots ou pas, littéralement, mais eux ne créent rien, ils sont juste là en tant qu’arbitre et en tant que fournisseur fonctionnel d’un certain nombre d’outils. Encore une fois, je n’ai aucun problème avec ça tant qu’ils n’ont pas le monopole et que ça laisse un choix pour pouvoir s’exprimer parce que si j’ai envie de dire quelque chose qui ne leur convient pas, qui contrevient à leur condition générale d’utilisation, que je puisse le dire ailleurs parce que YouTube c’est pas la loi, les CGV c’est pas la loi, la loi c’est autre chose. Et donc pour nous c’est primordial de conserver un écosystème décentralisé où il va y avoir une libre concurrence au sens capitalistique du terme, c’est à dire que différentes sociétés, différents acteurs vont pouvoir proposer des solutions, mais encore faut-il qu’ils en proposent des solutions. Donc nous c’est vraiment ça ce qu’on veut faire, c’est pour ça qu’on propose des solutions de monétisation, parce qu’on sait très bien qu’on pourra proposer la meilleure plateforme de la planète si le prérequis c’est de devoir bosser gratos, ça ne va pas marcher pour tout le monde. Si les fonctionnalités ne sont pas terribles, ça ne va pas marcher pour tout le monde. Et c’est là où on s’investit beaucoup et où on investit beaucoup de temps et d’énergie.

Je pense que c’est le bon moment pour parler de Podcast 2.0, en tout cas pour l’introduire, parce que ce dont il faut avoir conscience quand on parle du podcast aujourd’hui, c’est que pendant une quinzaine d’années, tout l’écosystème du podcast s’est reposé intégralement sur Apple.

Apple a littéralement tenu le podcast à bout de bras pendant 15 ans, c’est-à-dire qu’ils avaient à peu près le seul index de podcast, le seul annuaire de podcast, ce qui fait que l’ensemble des applications d’écoute dépendait d’Apple pour avoir la liste des podcasts qui existent.

Benjamin Bellamy


Ils étaient très largement majoritaires : ce qui est assez saugrenu en fait, avoir un écosystème totalement libre, ouvert et décentralisé, sur lequel on a un acteur qui a des parts de marché très supérieures à la moitié. Mais ils n’en ont tiré aucun profit financier, et ça il faut leur en savoir gré. Ils ont maintenu le truc à flot, c’est-à-dire qu’ils ont continué à faire vivre l’index, à filer des clés d’API aux gens qui le demandaient. Alors il fallait demander l’autorisation, mais bon, en tout cas ils le faisaient et ils le donnaient. C’est eux qui décidaient qui avait le droit de lecture et d’écriture sur l’index, mais ils l’ont fait gratuitement.
Le problème, c’est que pendant 15 ans, quand on voulait apporter une évolution fonctionnelle au podcast, il fallait demander à Apple, puisque c’est eux qui avaient l’index, qui étaient au centre. Et que si je veux rajouter une fonctionnalité, il faut que je puisse le mettre dans le flux RSS, et du coup il faut que ça soit référencé dans l’index central d’Apple. Et si Apple ne veut pas, je pourrais mettre ce que je veux, personne ne pourra le voir et ça ne servira à rien. Et Apple a refusé toute évolution fonctionnelle sur le podcast pendant 15 ans. Quand je dis toute, ce n’est pas presque toute, c’est toute. Il y a eu zéro évolution fonctionnelle sur le podcast pendant 15 ans. Ce qui est tout à fait incroyable parce qu’on parle d’une période qui va de 2000 à 2015, un peu après même. En cette période, il s’en est passé des choses et un paquet même sur internet et le podcast a eu aucune amélioration, aucune évolution fonctionnelle. Vous prenez un podcast de 2000, un podcast de 2018, c’est exactement le même. Pour garder le contenu du flux RSS il n’y a eu aucune modification, il n’y a même pas eu ne serait-ce qu’une nouvelle catégorie. Il y a des gens qui ont dit ça serait bien d’avoir une catégorie pour l’écologie. Apple a dit NON, on touche à rien. Donc aujourd’hui, si vous faites un podcast d’écologie, vous n’avez pas de catégorie, ce qui est un peu ballot parce qu’il y en a un paquet aujourd’hui.
Et donc ce qui s’est passé, c’est qu’en 2019, si je ne dis pas de bêtises, Adam Curry, qui est un des pionniers du podcast, que ce soit techniquement ou sur le contenu (c’est un des podcasteurs de la première heure) en a eu marre et il a décidé de créer Podcast 2.0, c’est-à-dire une spécification qui permette au podcast d’évoluer, adossée à podcastindex.org, qui est un index de podcast pour dire « bon, il ne faut plus qu’on dépende d’Apple, il faut qu’on ait un index qui soit open source, open data, ouvert en lecture et en écriture à tout le monde sans avoir besoin d’en demander l’autorisation et dans lequel on puisse rajouter des informations pour pouvoir rajouter des nouvelles fonctionnalités ».

Logo Podcast IndexPodcast Index (source : github)

Quand je parle de fonctionnalités, ça peut être des trucs très simples, ça peut être des trucs très compliqués, ça peut être de la transcription, du chapitrage, des liens, des noms des intervenants, de la géolocalisation, enfin ça peut être tout ce qu’on peut imaginer mais ce qui est important c’est que Podcast 2.0 est ouvert à tous et n’importe qui peut dire « Moi, j’aimerais bien cette fonctionnalité-là. J’aimerais bien qu’on puisse rajouter ça. »

Ce qui est franchement incroyable, c’est que quand nous on a commencé à développer Castopod, c’était juste avant la sortie de Podcast 2.0 et de Podcast Index. Donc on avait pour projet de développer une plateforme de podcast qui soit liée à ActivityPub, en sachant que ce n’était pas gagné parce qu’on allait créer notre plateforme d’hébergement, des gens allaient pouvoir se connecter à ça via ActivityPub, on pense à Mastodon etc. qui existait déjà depuis, enfin qui était déjà populaire depuis deux ans. Mais pour le reste, pour les autres, pour les applications d’écoute de podcast, on n’avait pas de légitimité, pas d’ancienneté, une voix qui ne porte pas. Il y avait peu de chances que des gens adhèrent. Et Podcast 2.0 a été pour nous un formidable tremplin, une espèce de mégaphone, parce qu’une des premières choses qu’on a faites, on a dit que ça serait bien qu’on puisse rajouter dans le flux RSS la possibilité de faire un lien vers la conversation, en particulier si elle a lieu sur le Fediverse, d’ActivityPub, pour que les applications d’écoute sachent où a lieu cette conversation. Et ça a été intégré et aujourd’hui on a des applications d’écoute, de gens qu’on ne connaît pas du tout, mais qui ont implémenté cette fonctionnalité-là que nous on avait demandé.

Photo Adam CurryAdam Curry (source: wikipedia)

Walid : Quand vous avez commencé, comment est-ce que vous avez contacté Adam Curry ? Par quelle plateforme vous passez ? Comment ça s’est passé en fait pour vous insérer dans cet écosystème naissant ? Je voudrais bien que vous nous expliquiez un peu ça.

Yassine : en fait ce qui s’est passé c’est que la chance qu’on a eu c’est qu’on est arrivé, on a commencé à développer Castpod au moment où Podcast 2.0 et Podcast Index sont arrivés. Donc il y a eu vraiment un alignement des planètes qui s’est fait au bon moment. On a commencé à développer Castpod en mai 2020, enfin rentrée 2020 quoi. C’était vraiment…

La présentation de Podcast 2.0


Walid : attends, je vais justement poser une question là-dessus parce que c’est une transition, vu cette temporalité, est-ce qu’une des vocations de Castopod était aussi d’être un espèce d’état de l’art de ce qu’allait se passer dans le Podcasting 2.0 ?

Benjamin : a posteriori, oui. Je sais pas si on s’en rendait compte sur le moment. Nous on partait du principe que Podcast 2.0, c’était génial. On n’aurait pas pu rêver mieux, on aurait voulu le faire, mais on n’avait pas la légitimité d’un Adam Curry, clairement. Et là où c’est vraiment génial, c’est qu’en moins de six mois, on s’est retrouvé avec une quarantaine de plateformes, hébergeurs, applications d’écoute, qui suivaient Podcast 2.0. En fait, avant Podcast 2.0, il y avait aussi un problème d’œuf et de poule. Si moi, je rajoutais une fonctionnalité en tant qu’hébergeur et qu’aucune application d’écoute ne l’intègre, et bien ça sert à rien. Et de l’autre côté, si en tant qu’application d’écoute j’intègre une fonctionnalité mais que personne ne fournit les informations côté hébergeur, ça sert à rien. Et du coup tout le monde se regardait un peu en chien de faïence et personne faisait le premier pas, personne se mettait d’accord. Évidemment, il y a plein de fonctionnalités qui étaient dans l’air, les gens les réclamaient. Je pense à Giovanni de Podcloud qui avait écrit déjà des spécifications techniques en disant il faudrait faire ci, il faudrait faire ça. Tout seul ça ne peut pas marcher. Le coup de génie de Podcast 2.0, c’est d’avoir une voix audible par tout le monde, qui mette tout le monde d’accord et qui dit bon ben voilà, on va tous faire ça.

Walid : Il est indépendant de tout le monde finalement?

Benjamin : en fait il y a plein de choses. Il y a le fait que déjà Adam Curry était connu, il avait la légitimité en tant que podcaster, il avait développé le premier index de podcast dans les années 2000, il y a plein de choses. Et puis le fait qu’il arrive en disant « la gouvernance à la Apple où tout le monde demande à une personne et cette personne se contente de dire non à chacune des demandes, c’est pas super encourageant ». C’est à dire qu’à un moment les gens finissent par se lasser évidemment. Donc là l’idée aussi c’était de dire « on va faire un projet communautaire et participatif » et donc pour répondre à ta question comment est-ce qu’on demande l’ajout d’une fonctionnalité dans Podcast 2.0 ? En fait ça se fait sur GitHub, ça se fait de manière ultra classique comme on demanderait une nouvelle fonctionnalité sur n’importe quel projet. Et après, il y a des espèces de sprints, je ne sais pas si le mot est le plus adapté, mais en tout cas, ça ressemble à un sprint qui ont lieu tous les mois, tous les deux mois, tous les six mois, en fait, ça dépend, où on valide. Il y a des allers-retours qui sont faits, il y a des gens qui disent « Ah, mais ça, ça serait mieux de rajouter tel truc. Il faut que telle fonctionnalité, elle soit au niveau du podcast, au niveau de l’épisode, au niveau des deux, il faudrait que ce soit une chaîne de caractère, un entier ». Cela peut être très technique, ça peut être très fonctionnel. Parfois, il y a plein de gens qui répondent, qui se sentent impliqués, parfois tout le monde s’en fout, ça dépend vraiment de ce qu’on a à proposer. Il y a des no-brainer, typiquement, avoir de la transcription dans le podcast pour permettre une meilleure accessibilité, un meilleur référencement, une meilleure découvrabilité. Ça me paraît évident qu’il faut le faire et donc ça, ça a été fait très très vite. Et aujourd’hui, il n’y a que les plateformes Podcast 2.0 qui proposent ça. Incroyable, c’est-à-dire qu’aujourd’hui, vous écoutez un podcast sur Apple Podcast, vous êtes sûr, il n’y aura pas de sous-titres, il n’y aura pas d’indexation du contenu du podcast. C’est impossible parce que Apple aujourd’hui n’intègre pas de fonctionnalité Podcast 2.0, ce qui moi en tant qu’auditeur me fait dire, « n’utilisez pas Apple Podcast. C’est juste la plateforme la plus arriérée de tout l’écosystème du podcast aujourd’hui ».

Walid : je vais donner un exemple parce que j’ai découvert quand j’ai migré sur Castopod, j’ai découvert une fonctionnalité qui s’appelle la gestion des intervenants, les « people ». Il y a toujours la problématique de, OK, moi, je suis l’hôte du podcast, il y a les intervenants, mais possiblement, j’aimerais bien remercier d’autres gens, en fait, ou citer d’autres gens qui m’ont mis en relation, qui ont aidé à partager l’épisode, etc. Et en fait, j’ai découvert que vous, vous implémentiez une gestion des intervenants et donc que sur un intervenant, je peux mettre un lien vers LinkedIn ou etc. Et qu’en fait là on se retrouve aussi face à l’implémentation dans les applications clientes où typiquement, je sais pas moi, Podcast Addict va implémenter cette partie de Podcasting 2.0 et donc tu peux voir, et c’est cool les intervenants, mais que si j’utilise AntennaPod qui est mon player habituel, lui il le voit pas. En tant que créateur, tu as à ta disposition des supers outils, mais ils ne sont pas tout le temps disponibles pour ton utilisateur qui va utiliser. C’est un peu con.

Benjamin : oui, tout à fait. Alors en fait, ce qu’il faut bien voir, c’est que les fonctionnalités, c’est comme tout, mais c’est pas propre au podcast.

Tout le monde n’utilise pas toutes les fonctionnalités, tous les logiciels ne les implémentent pas. Et c’est tout à fait normal. Et puis même, et ça c’est voulu, il y a des fonctionnalités de Podcasting 2.0, on est à peu près sûr au moment où elles sortent qu’elles ne vont pas faire l’unanimité. Mais c’est voulu, c’est-à-dire qu’on ne peut pas présager du succès d’une fonctionnalité par rapport à une autre, parce qu’à l’arrivée, l’adoption, c’est les auditeurs qui décident, c’est les podcasteurs qui décident, et ce n’est sûrement pas les gens qui sont autour de la table dans la communauté podcast 2.0 au moment où on dit « ah ben tiens, ça serait bien de faire ça ». Après, le spectre fonctionnel des applications, il change de l’une à l’autre. C’est pour ça aussi qu’en tant que podcaster, on a une responsabilité de dire à ses auditrices et auditeurs d’utiliser plutôt telle appli, parce que là, vous aurez plus d’infos qu’ailleurs. Et des fonctionnalités, il y en a pour gérer aussi le don, le funding, l’argent, il y en a pour… Peut-être il y a plein de choses.

Il y en a qui vont gérer la transcription en l’affichant en mode sous-titres, il y en a qui vont la gérer en l’affichant en mode texte défilable. Après, chacun a ses besoins, ses prérequis. C’est ça qui est génial sur le podcast, c’est qu’il n’y a pas une bonne manière de faire, il y a plein de manières de faire qui sont plus ou moins adaptées par rapport au contenu et par rapport à l’auditeur.

Walid : Yassine, je voulais poser une question : est-ce que vous vous avez contribué à ces fonctionnalités, ces nouvelles fonctionnalités podcasting 2.0 et si oui sur lesquelles vous avez contribué ?

Yassine : alors oui, surtout au début on avait pas mal de retours à faire sur les différentes specs qui étaient implémentées, les différentes balises RSS qui étaient implémentées.
À chaque fois, on a des discussions avec Benjamin pour savoir ce qui était le mieux déjà et pour nous, pour Castopod, et ensuite en s’inscrivant dans l’écosystème du podcast.

Benjamin : En fait, c’est plutôt moi qui suis intervenu directement sur Podcasting 2.0, en tout cas sur les demandes. Donc je disais, il y a tout ce qui est « social interact », c’est-à-dire la possibilité en tant qu’auditeur de pouvoir interagir avec le podcaster depuis l’application d’écoute. On a pas mal bossé aussi sur la recommandation.
Donc ça c’est un travail qui est encore en cours. Régulièrement on donne nos avis et en fait tout ça est consultable, soit sur GitHub, soit sur Mastodon. En général ce qui se passe c’est que les discussions commencent sur Mastodon, quelqu’un dit « ah bah tiens j’aimerais bien faire ça » et puis en fonction de l’écho qu’il y a, ça va être… Soit les gens disent « ouais, c’est une super bonne idée » ou soit « non, je ne comprends pas » ou « c’est une idée nulle ».

Et en fonction des réponses, eh ben, ça va donner lieu à une nouvelle demande sur GitHub. Et à la fin, ça donne lieu à une spécification dans la DTD, le namespace de Podcasting 2.0. On ne l’a pas dit, mais à l’arrivée, tout ça, c’est ni plus ni moins qu’une DTD sur un namespace.

Walid : Et ces spécifications, elles sont portées par un organisme comme le W3C ou est-ce qu’il y a une norme ou est-ce que c’est juste un projet communautaire ?

Benjamin: aujourd’hui c’est un projet qui est purement communautaire et qui est régi par les règles de la communauté. Il n’y a pas une personne qui dit ça oui, ça non. C’est l’ensemble de la communauté qui décide de ce qui peut exister et de ce qui va exister.

Yassine : donc c’est Adam et Dave (NDLR Dave Jones) qui sont à l’origine du projet Podcast Index et c’est Dave qui prend la responsabilité de gérer les différents sprints etc d’inclure en fonction de dires de la communauté ce qui devrait être en priorité ou pas etc. Donc c’est lui qui gère le planning du projet.

Benjamin : il a un rôle de secrétaire plus qu’un rôle de chef de projet. Il est là parce qu’il faut que quelqu’un fasse avancer la machine et puis qu’il dise, bon ben voilà, on va fermer pour ce sprint-là, on va fermer à telle date. Derrière, c’est pas lui qui prend la responsabilité de ce qui rentre ou de ce qui rentre pas. Il est animateur.

Walid : Dernière question sur le sujet de Postcasting 2.0. C’est une question qu’on a déjà discuté ensemble. On parlait du chapitrage et vous me disiez « Ah ouais, le chapitrage, en gros, on l’a implémenté dès que c’est sorti, on n’est pas trop revenu dessus, etc. » Mais c’est un truc qu’on a implémenté dès que c’est sorti. Donc ma question c’est, quand est-ce que vous implémentez les nouvelles fonctionnalités, est-ce que vous implémentez toutes les nouvelles fonctionnalités de Podcasting 2.0 ? Comment vous faites un choix de ce que vous désirez implémenter ou pas ? C’est basé sur quoi ?

Benjamin : il n’y a pas de réponse simple à ça. Ça dépend vraiment. C’est pas qu’il n’y a pas de réponse simple, c’est qu’il n’y a pas de réponse unique. Ça dépend vraiment. C’est sûr qu’une fonctionnalité que tout le monde nous demande, elle a de fortes chances d’être implémentée plus vite que quelque chose dont personne n’a rien à faire. Et en général, c’est comme ça que ça se passe. Ça peut être un choix personnel parce qu’on pense que ça c’est bien ou parce que parfois il y a des trucs qui nous font kiffer.
Il y a des fonctionnalités qu’on trouve plus intéressantes que d’autres. Je pense en particulier à la géolocalisation. Moi, je trouvais ça génial de pouvoir, dans les années 2000, où on a tous l’habitude d’utiliser OpenStreetMap ou Google Maps, de pouvoir chercher des podcasts par zone géographique, de dire un tel podcast parle de tel endroit. Il y a beaucoup de podcasts touristiques par exemple, et ne pas être capable aujourd’hui de faire une recherche géolocalisée sur un contenu, je trouvais ça complètement fou.
Dès que la spec est sortie, en plus ça n’était pas très compliqué, on a implémenté ça. C’est-à-dire la possibilité de dire tel épisode parle de tel endroit, ou tel podcast parle de tel endroit, et derrière sur Castopod, on a mis une carte où on va avoir des pinpoints (NDLR : des points sur une carte) pour pouvoir visualiser quel épisode parle de quelle zone géographique. Et ça, dans mon souvenir, en tout cas, c’est un truc, je trouvais ça tellement chouette de pouvoir le faire. Et puis derrière, d’ailleurs, dès que ça a été implémenté, il y a quelqu’un qui m’a dit « Ah ben justement, on fait un podcast festival à Amsterdam et on a cette problématique là et ça nous intéresse, est-ce que tu voudrais pas venir parler de ça? Et donc je suis allé parler au festival le podcast d’Amsterdam de cette fonctionnalité là.

Donc il y avait une vraie demande aussi. Donc en général, mais ça marche un peu pour tout, c’est pas propre à notre organisation, à notre mode de fonctionnement, on parle de projets open source en plus, ce qui est le plus demandé a le plus de chances de voir le jour rapidement. Et puis de toute façon en définitive il faut bien avoir pas un prix que Castopod open source si il ya une fonctionnalité de podcast 2.0 qui n’est pas implémentée et il y en a on n’implémente pas tout aujourd’hui n’importe qui peut la rajouter le code il est ouvert donc n’importe qui peut rajouter ce qui manquerait et puis il y a des choses aussi ou parce que Castopod évolue beaucoup d’une version sur l’autre, il y a des modifications qui sont faites, que ce soit des modifications invisibles ou des modifications visibles, que ce soit dans la partie administration ou dans la partie publique, il y a beaucoup beaucoup d’évolutions qui ont lieu et ça c’est pareil, il y a des gens qui contribuent et qui vont modifier telle ou telle chose. Toutes les bonnes volontés sont bienvenues.

Walid : Ça on va reparler après de la la partie communautaire. Mais Yassine?

Yassine : je peux ajouter sur quand est-ce qu’on implémente les nouvelles fonctionnalités podcasting 2.0.

Quand on a commencé Castopod, Podcast Index qui est venu en même temps, Podcasting 2.0 aussi. Alors les premières balises, elles étaient quand même ultra intéressantes et il y avait beaucoup à faire. Donc on les a rajoutées dès qu’elles venaient, on les sortait sur Castopod, on était parfois même les premiers à le faire.

Yassine Doghri


Et là, au fur et à mesure que Castopod arrive à maturité, on doit faire des choix à plus de stabilité, faire des choix de… même des fonctionnalités qu’il y a sur Podcasting 2.0. Certaines, on ne les a pas implémentées directement, et là, on se repose un peu plus sur la communauté pour faire des choix en termes de priorité, comme a dit Benjamin. Et voilà. Les fonctionnalités intéressantes qui nous avaient paru intéressantes au début, on les a pour toutes implémentées.

Cet épisode a été enregistré le 23 janvier 2024.

Pour aller plus loin



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


Introduction aux modèles économiques et gouvernances des logiciels libres – G. Le Bouder, R.Semeteys

projets-libres.org/introductio…


This entry was edited (6 months ago)

Devenir le bibliothécaire de son réseau – inventaire.io – Maxime Lathuilière


Concevoir une plate-forme libre, qui permette de présenter, donner ou prêter ses livres ? Se baser sur les données de wikidata et les enrichir ? C’est le sujet de cet épisode, avec Maxime Lathuilière, fondateur d’inventaire.io.

podcast.projets-libres.org/@pr…

Sommaire

Interview de Maxime Lathuilière – inventaire.io


Walid : nouvel épisode de Projets Libres!.

On va parler aujourd’hui d’un outil que j’ai découvert il y a bien longtemps, en 2015. Je cherchais à l’époque une solution pour gérer ma bibliothèque de livres et un peu par hasard, j’étais tombé sur cet outil inventaire.io. J’ai regardé une conférence de mon invité aujourd’hui, Maxime Lathuilière, avait donnée dans un meetup chez Mozilla en 2015. Effectivement, ça remonte.

J’avais continué à suivre un peu de suivre le projet et j’ai repensé à lui parce que j’ai vu sur Mastodon une news comme quoi inventaire.io avait bénéficié d’un financement de la fondation NLNet. On va en parler tout à l’heure. Je me suis dit qu’il fallait absolument qu’on parle d’inventaire.io donc nous voilà donc je suis avec avec le fondateur d’inventaire.io.

Maxime, bienvenue sur le podcast.

Maxime : merci, salut.


Présentation de Maxime


Walid : alors la première chose c’est que je vais te demander de nous expliquer un peu qui tu es, comment tu as découvert le logiciel libre et qu’est-ce que ça veut dire pour toi de faire du logiciel libre?

Maxime : comme tu disais ça commence à remonter, maintenant ça fait peut-être 15 ans…

Je suis familier du libre et en fait moi j’étais… je pars de très loin. Donc entre 2008-2010, j’étais encore étudiant en école de commerce et j’étais très loin des questions du web, du logiciel libre, etc. Mais j’ai commencé à m’y intéresser parce que j’avais l’intuition qu’il y avait quelque chose à faire pour résoudre des problèmes environnementaux, sociaux, du côté de la gestion de l’information sur les ressources. C’est-à-dire qu’il me semblait, enfin j’ai commencé à broder une utopie numérique qui était que l’on va pouvoir organiser l’information sur les ressources avec des outils libres et du savoir libre et ça, ça va nous permettre d’avoir plus de contrôle en tant que citoyen sur les impacts de notre consommation. Donc j’étais très à l’époque dans une perspective de consomme-acteur, un peu de colibri. On va, par nos actions individuelles et nos choix de consommation, pouvoir résoudre des problèmes environnementaux et sociaux. J’ai un peu bougé depuis parce que je me suis rendu compte qu’il y a certaines impasses, mais c’est comme ça que j’ai mis le pied dedans. J’ai commencé à creuser ces questions-là, j’ai commencé à m’intéresser au web, et je suis tombé à l’époque sur des conférences qui m’ont marqué : donc vers 2010, je pense notamment à la conférence qu’avait donnée Benjamin Bayart à Sciences Po sur Qu’est-ce qu’internet ?

Maxime Lathuilière (source : wikimedia)

J’ai regardé beaucoup de conférences dans ce genre-là, qui étaient parfaites pour moi, puisque Sciences Po et école de commerce ont un peu les mêmes profils. On est des personnes qui ont un enseignement qui n’est pas très technique. Cette conférence en particulier m’avait marqué parce que ça te prend par la main et ça t’amène à penser un peu les protocoles, les enjeux politiques d’une architecture de l’information etc. Et donc ça m’avait mis un peu le pied à l’étrier là-dessus. Et donc j’avais commencé à aller voir plein de choses. J’étais allé voir ce que faisait Framasoft, Mozilla, Wikimedia. Et donc j’ai commencé à traîner de plus en plus dans ces milieux-là et à m’instruire comme ça quoi, petit à petit.

Walid : c’est marrant, j’aurais pensé que tu avais un passé technique.

Maxime : j’ai découvert ça… En fait, en école de commerce, moi je suis arrivé là-bas, si on creuse encore plus à l’archéologie, c’est comment je me suis retrouvé dans cette galère. J’étais au lycée et je m’intéressais à l’économie et la sociologie.

J’avais été passionné par l’introduction au SES, donc Sciences Économiques et sociales. Et en allant en bac S, on n’avait plus du tout ces cours-là. Et donc à l’époque, et peut-être un peu aussi pour me distinguer de mes frères et sœurs, j’étais parti sur un bac ES plutôt que sur un bac S, alors que maintenant il y aurait plein de choses en bac S qui m’intéresseraient. Mais donc je me suis retrouvé en bac ES, et après on m’a dit « le meilleur truc que tu peux faire, c’est prépa pour une école de commerce. Je pensais que j’allais pouvoir y aller en école de commerce et faire de l’entrisme, faire bouger les choses de l’intérieur comme on peut être naïf à 16 ans.

Et donc voilà je me suis retrouvé sur ce chemin-là et j’y ai cru pendant un peu de temps. J’ai commencé, je continuais à m’intéresser à des sujets notamment environnementaux. Et le logiciel libre nous a fait à ça. Je suis arrivé par le logiciel libre par son aspect politique. Et progressivement, c’est le logiciel libre qui m’a fait aussi quelque part me donner les outils d’émancipation technique. C’est-à-dire que toute la communauté, ils étaient peut-être encore plus forts à l’époque, te poussait au cul pour installer Linux plutôt que ton Windows. Et donc j’ai commencé à aller gratter un petit peu, voir comment je pouvais installer ça sur ma machine. Et donc progressivement, j’ai pu me rendre compte que finalement, le pas pour passer d’un profil pas technique à technique, en ayant après des connaissances, et après j’avais quand même certaines appétences techniques, je faisais du montage vidéo, je faisais déjà ce genre de bidouilles-là.

J’ai pu progressivement me rendre compte que ce n’était pas si infranchissable comme marche d’aller commencer à gratter notamment des technologies web, donc HTML, CSS, JavaScript, qui ont été pensées comme des technologies grand public. C’est un peu comme ça que j’ai trouvé mon chemin d’approche.

Le chemin qui mène à la création d’inventaire


Walid : est-ce que tu peux expliquer un peu le cheminement qui arrive à la création d’inventaires en fait ? D’où ça vient ?

Maxime : il faut repartir de mon utopie numérique de gérer l’information sur les ressources avec du logiciel libre et du savoir libre.

À partir de cette idée-là, j’étais parti dans des idées de « on va avoir des outils contrôlés par les citoyens en logiciels libres qui vont aller remplacer les interfaces d’Amazon, les interfaces de la FNAC, etc. dans l’organisation de l’information sur les ressources ». L’exemple que j’ai donné peut-être dans les conférences que tu as vues de l’époque, c’était quand tu fais, par exemple, si tu t’achètes un ordinateur sur le site de la FNAC, l’interface graphique est propriétaire et tu ne la contrôles pas, l’algorithme de recommandation est propriétaire et tu ne le contrôles pas, et les données d’eux-mêmes.

Et donc, t’es très limité en tant qu’acheteur dans ce que tu peux faire, jouer comme comparateur, comme outil de recommandation. Mais moi, j’avais envie d’aller, de sortir ces informations sur les ressources et ce choix d’interfaces propriétaires, et avoir le contrôle sur ces informations et pouvoir aller injecter là-dedans des données tierces, donc des UFC que choisir, ou sur les ordinateurs, il y a peut-être des groupes de consommateurs ou des groupes d’utilisateurs qui seront plus compétents pour juger du matériel, dans lesquels j’aurais plus confiance que la FNAC ou Amazon ou je ne sais pas. Et donc j’étais parti sur cette idée d’arriver à faire du logiciel libre en alternative à ces interfaces propriétaires. Et donc pour le coup, il me semblait que c’était intéressant que moi qui avait ce côté, ce que j’avais appris en école de commerce, ce que je connaissais du monde de la vente, du marketing, me permettait de faire une sorte de pont entre logiciel libre et accès à l’information sur les ressources.

En fait, le point le plus bloquant, c’est arriver à ce que les vendeurs partagent l’information sur ce qu’ils vendent dans un format standard réutilisable par des outils etc. Donc il faut avoir une communauté autour d’un outil qui va avoir un usage conséquent pour que les vendeurs soient intéressés pour mettre leurs données dans ce format standard. On en est encore très très loin. Mais donc c’était ce qui me motivait à l’époque quoi donc arriver à faire, j’avais envie d’arriver à faire un prototype de quelque chose qui allait dans cette direction, d’avoir un outil libre pour gérer de l’information sur les ressources. Et à ce moment-là, donc vers 2011, j’ai été en contact, j’ai commencé à passer du temps avec la communauté autour de la consommation collaborative qui était en pleine expansion à ce moment-là.

Donc c’était on va pouvoir… l’archétype, l’exemple qu’on donnait tout le temps c’était on va pouvoir se prêter des perceuses, on va pouvoir faire du covoiturage, etc. Et donc c’était des échanges en pair à pair de ressources, des prêts, etc. Donc moi j’ai été un peu happé là-dedans, parce qu’il y avait une dynamique, il y avait un groupe, notamment j’étais beaucoup du côté de Ouishare, où il y avait beaucoup de personnes qui s’intéressaient à ça. Et notamment il y avait dans Ouishare, il y avait un sous-groupe un peu de libristes radicalisés qui étaient le Ouishare Labs, ou avec des personnes plus portées sur le logiciel libre que sur la consommation en général, la consommation collaborative.

Il y a eu des idées d’expérimentation, de protocoles, de comment on fait pour informer son réseau des ressources qu’on a et de ce qu’on peut leur proposer, donc de leur prêter, de leur donner, etc. Dans ce bain d’idées qu’était le Ouishare Labs, a commencé à germer cette idée d’inventaire. À ce moment-là, je me suis dit… Même s’il y avait…

J’avais fait quelques années avant un début de projet qui s’appelait BookSurfing, qui était une sorte de première version, mais à ce moment-là, je n’étais absolument pas compétent techniquement pour réaliser cette idée. Mais j’ai continué à travailler l’idée et à partir de 2013 j’ai commencé à vraiment basculer dans une recherche d’apprentissage technique : à aller apprendre HTML, CSS, JavaScript, HTTP. Ce dont j’avais besoin pour développer ce projet. J’ai pu commencer la base de code d’inventaire en 2014 à la suite de toutes ces recherches.

Walid : 2014, ça fait 10 ans quoi…

Maxime : c’est ça, ça va être en juin de cette année, ça va être les 10 ans du premier commit sur le repo Inventaire, ce qui fait un peu peur.

Les débuts du projet


Walid : plusieurs questions là dessus, la première c’est est-ce que tu commences tout seul ou est-ce qu’il y a justement toutes ces personnes autour de toi de Ouishare Labs, mais le projet inventaire c’était vraiment moi qui le portais ?

Maxime : j’ai commencé le développement tout seul et ça a pris du temps après pour arriver à amener des personnes dans le projet. C’est encore d’ailleurs un sujet de comment faire pour qu’on soit plus nombreux à porter ce projet.

Mais donc en 2014 j’ai commencé seul et après il y a Jums qui m’a rejoint en 2016-2017, qui a commencé à s’intéresser au projet et qui a progressivement commencé à contribuer du code et qui est dans le projet depuis. Et donc on code tous les deux sur le projet depuis. Et après on a beaucoup de contributeurs qui viennent nous aider sur d’autres aspects, notamment la traduction. On a des traductions dans de nombreuses langues par des personnes que pour la plupart on ne connaît pas.

Tout l’aspect base de données bibliographiques, là pour le coup les contributeurs et contributrices sont innombrables parce qu’une des particularités du projet c’est qu’on construit une base de données qui enrichit Wikidata et donc qui va réutiliser des contributions de la communauté Wikidata. Et après on va avoir des contributeurs et des contributrices chez Inventaire qui vont enrichir les deux bases de données, Wikidata et Inventaire.

Mais au fond, inventaire, c’est quoi ?


Walid : et Inventaire étant une sorte de front. Est-ce que tu peux juste expliquer en deux mots ce qu’est Inventaire?

Maxime : inventaire, c’est deux projets à la fois. Il y a le projet qu’on présente au grand public. On propose à chacun de créer l’inventaire de ses livres et pour chaque livre d’indiquer si elle veut le donner, le prêter, le vendre et indiquer à qui ce livre sera visible. Donc ça peut être visible publiquement, des personnes pourront voir. Si on veut indiquer notre localisation, on pourra ensuite voir ce livre comme étant dans le coin. Mais on peut aussi restreindre la visibilité au groupe de son association ou juste à ses amis. Et voilà, donc ça c’est le premier pilier de l’outil. La première partie de l’outil, c’est cet outil de partage de livres.

Et pour permettre cet outil de partage de livres, il y a un deuxième pilier, une deuxième partie du projet qui est la base de données bibliographiques, qui est une extension de la base de données Wikidata et qui va essayer de rendre le plus facile possible le partage de livres en ayant la base de données la plus complète et la plus facile d’utilisation possible.

Le choix de la licence AGPL


Walid : j’avais deux questions pour toi là-dessus. La première c’est quelle licence tu as utilisé pour le projet inventaire et pourquoi tu as utilisé cette licence-là ? Et la deuxième question ensuite c’est quelles sont les technologies que tu as utilisées pour développer Inventaire ?

Maxime : alors sur la licence, ça a été une question difficile parce que les licences c’est des enjeux importants et moi j’avais des désirs de licences qui n’étaient pas nécessairement disponibles dans l’existant. Tout en m’intéressant au libre, je trouvais qu’il pouvait être problématique d’écrire du code qui serait réutilisé ensuite par… si on imagine que le projet inventaire était immensément populaire, peut-être que Amazon voudrait avoir sa propre instance d’inventaire. Et je trouvais ça ennuyeux que la licence autorise ce type de réutilisation. Je m’étais intéressé aux licences CopyFarLeft, Peer Public License, les licences éthiques anticapitalistes.

Il y avait des choses qui existent, mais c’est très peu utilisé par rapport à tout ce qui est CopyLeft, donc logiciel libre, licence GPL, AGPL. Ça rend le logiciel incompatible aussi avec toutes ces licences GPL et AGPL. J’ai fini par me satisfaire de la licence AGPL, qui est une adaptation de la GPL, donc la GNU Public License, qui est une licence virale, donc on ne peut pas refermer le code. Le code va rester ouvert, si on en fait des modifications conséquentes, il va falloir les reverser dans la base de code. Et AGPL ajoute à ça que c’est adapté aux services web en ligne, parce qu’il y a en fait la question de l’utilisateur du logiciel qui n’était pas traité au départ dans la licence originale GPL et qui est traité dans l’AGPL. Ça a l’air de marcher suffisamment pour que Google considère cette licence comme toxique et refuse d’utiliser tout logiciel sous licence AGPL. Donc ça a l’air de marcher. On continue avec ça et pour le moment il n’y a pas de raison d’en changer.

Les technologies utilisées


Walid : et les technologies que tu utilises ?

Maxime : les technologies qu’on utilise sont nombreuses. Je vous recommande le site stack.inventaire.io où on détaille assez finement toutes les technologies qu’on utilise.

Les plus importantes, c’est JavaScript côté serveur, donc avec Node.js et Express, et côté client. Alors historiquement, j’étais parti en 2014 avec ce que j’avais appris à ce moment là qui était Backbone et là depuis 2019 on a commencé à partir de backbone et on va vers Svelte et on arrive bientôt là on est à on doit être à 90-95 % de transition on va être bientôt à la fin complète de Backbone ce qui va mériter de célébrer, parce que on gagne quand même beaucoup en maintenabilité du code. Ça oui pour les aspects JavaScript. Ensuite côté serveur, on utilise une base de données CouchDB, donc c’est du NoSQL. On stocke du JSON directement dans la base de données.

Elasticsearch pour tout ce qui est recherche. LevelDB pour tout ce qui est mise en cache.

Les premiers financements d’inventaire


Walid : la seconde partie dont je voudrais qu’on parle c’est la partie financement. Ce que je comprends, c’est qu’en 2014 quand t’as commencé en gros, il n’y avait pas vraiment de modèle économique autour d’inventaire, comment ça a évolué en fait ? Comment est-ce que tu finances ou vous financez inventaire ?

Maxime : alors de 2014 à 2018 ça n’a pas été financé. J’ai eu la chance en fait en 2014 : j’ai participé avec Michael Fozeu à un concours qui était organisé par la Fing, où on nous demandait de faire un prototype d’une application qui fonctionnerait avec Cozy Cloud.

Walid : c’est quoi la Fing?

Maxime : c’est la Fondation Internet Nouvelle Génération.

Walid : d’accord.

Maxime : alors c’était, parce que je ne suis pas complètement sûr que ça existe encore. Ils organisaient ce concours-là et ils proposaient un prix pour proposer des applications qui utilisaient des données dans Cozy Cloud. C’est en faisant ce concours-là que j’ai adopté complètement la stack technique de Cozy Cloud qui était Backbone, CoffeeScript, CouchDB. Pour les besoins de ce concours-là, j’ai appris toutes ces technologies-là.

Puis ensuite, j’ai directement réutilisé dans l’inventaire et j’ai pu toucher 7000 euros de prix de la Fing pour le proto qu’on avait fait, en récompense pour ce prototype. Et ensuite, j’ai vécu de manière frugale avec ces 7000 euros, en vivant la moitié du temps chez mes parents, la moitié du temps dans des communautés à droite à gauche, notamment en Allemagne, où il y avait des approches très frugales sur la récupération alimentaire, récupérer les invendus, et être beaucoup dans le partage des ressources. Et donc j’ai pu vivre de manière frugale avec ce que j’avais gagné au concours.

J’ai touché un peu de RSA, parce que je n’ai jamais été employé, ça a été très court en 2013, mais depuis j’avais pas été employé donc j’avais pas le droit au chômage. Ensuite, j’ai pu avoir un financement pour les besoins d’inventaire. Je développais aussi des outils pour travailler avec Wikidata. Et donc j’ai pu avoir un financement de Wikimedia pour travailler sur certains de ces outils. J’ai pu avoir peut-être 8000 euros pour travailler pendant 6 mois sur ces outils.

Qu’est-ce que Wikidata ?


Walid : est-ce que tu peux rappeler, pour les gens qui ne sauraient pas, ce que c’est que Wikidata ?

Maxime : la manière un peu simpliste que j’ai de le présenter en général, c’est le Wikipédia des données. C’est-à-dire qu’on a un wiki, donc une base de données que chacun peut venir modifier, enrichir, et là où Wikipédia vous propose de modifier du texte et donc de partager de la connaissance par du texte. Wikidata va vous proposer de modifier des données structurées, c’est-à-dire qu’on va avoir un sujet qui va avoir une propriété et une valeur pour cette propriété. Par exemple, FOSDEM va pouvoir être un sujet, et on va pouvoir dire FOSDEM, nature de l’événement, événement, périodicité annuelle, site web, et on va pouvoir renvoyer vers le site web.

Donc ce n’est plus du texte, c’est du sujet, propriété, valeur. Et ça, ça permet pas mal de choses. Ça permet en premier lieu, donc Wikidata est en premier lieu au service des projets Wikimedia. Wikipédia, qu’on connaît bien, mais aussi Wikisource, Wiktionary, Wikimedia Commons et d’autres. Et donc Wikidata va permettre de rendre disponible de la donnée mutualisée pour ces différents Et donc le Wikipédia en vietnamien n’a pas besoin d’être mis à jour pour avoir la dernière valeur de le nombre d’habitants de Lyon parce qu’une personne va pouvoir venir sur Wikidata mettre la dernière valeur pour nombre d’habitants à Lyon et ça va pouvoir mettre automatiquement à jour la valeur sur tous les Wikipédia qui réutilisent les données Wikidata.

Donc ça c’est le premier but de Wikidata. Ensuite, il y a un objectif de réutilisation des données à l’extérieur également. Il y a des projets, notamment beaucoup dans la recherche. Il y a le collectif Wikicite, qui avait travaillé beaucoup là-dessus, sur la réutilisation des données Wikidata en recherche. Il y a le site Scholia, qui permet aussi d’accéder aux données dans Wikidata sur tout ce qui est les articles de recherche, les auteurs de ces articles, qui cite qui, etc. Donc il y a beaucoup de travail dans ce sens-là, et il y a des projets comme Inventaire qui vont pouvoir aller réutiliser une partie des données Wikidata qui les intéresse. Donc dans notre cas, c’est tout ce qui est sur les auteurs, leurs œuvres, les maisons d’édition, etc.

Le financement par Wikimedia


Walid : donc tu disais que tu avais un financement de 8000 euros de Wikimedia, c’est ça ?

Maxime : c’est ça, si je me rappelle bien. Ce financement, c’était pour améliorer des outils que j’avais déjà bien commencé à développer, notamment des outils en JavaScript, pour réutiliser les données Wikidata, les simplifier notamment, parce que le modèle de données Wikidata est un peu velu, un peu étoffé. Le premier besoin qu’on a quand on récupère les données Wikidata, c’est d’arriver à trier tout ce bruit pour avoir vraiment l’essentiel.

Puis peu à peu, on va voir un peu les détails parce qu’il y a une richesse du modèle de données qui est intéressante. Mais au début, on veut vraiment des données simples. J’ai créé un outil là-dessus qui s’appelle Wikidata SDK, qui est depuis devenu Wikibase SDK parce que Wikidata est une instance de Wikibase, de la même manière que Wikipédia est une instance de MediaWiki.

Donc il y a Wikibase SDK pour utiliser la donnée. Et aussi, pour les besoins d’inventaire au bout d’un moment on avait le besoin de pouvoir modifier les données Wikidata depuis l’inventaire. Par exemple pouvoir ajouter un auteur à une entité d’œuvre dans Wikidata et sans quitter l’inventaire pour que ce soit plus pratique. Et donc il y avait ce besoin de pouvoir le faire facilement et donc pareil j’ai développé Wikibase Edit qui permet de faire cette modificaton sur un Wikibase distant, en gérant les autorisations, etc. Parce que je suis, avec les années, devenu fan d’outils en ligne de commande, j’ai aussi écrit un outil qui s’appelle Wikibase CLI, CLI c’est pour Common Line Interface, et donc c’est un outil qui permet de lire et écrire Wikidata, et n’importe quel Wikibase, depuis la ligne de commande. Voilà, c’était les trois outils principaux pour lesquels j’ai été financé.

Walid : Ok, tu es financé pour l’intégration entre inventaire et Wikimédia ?

Maxime : ce financement c’était strictement pour les outils en eux-mêmes. C’est-à-dire que Wikimédia ne finançait pas inventaire.

Walid : je fais une aparté là-dessus, comment tu contactes les gens de Wikimédia en fait ? Comment ça se passe ? Tu vas les voir en leur disant voilà mon projet, voilà ce que j’essaie de faire et tout. Est-ce qu’il y avait déjà d’autres projets qui essayaient de faire aussi client de leurs données ?

Maxime : pour le coup, c’est une partie importante de la vie du projet Inventaire. C’est que dès 2015, j’ai essayé de me rapprocher de la communauté Wikimédia parce que je voyais que justement, il y avait des choses à faire ensemble, qu’on avait à travailler ensemble et il y avait des intérêts mutuels à travailler ensemble. J’ai eu l’immense chance, donc à ce moment-là, moi j’habitais à Lyon et le hackathon Wikimedia cette année-là, en 2015, était à Lyon. Alors que c’est un hackathon qui se passe chaque année dans une ville européenne différente. Et donc j’ai pu, en m’en rendant compte au dernier moment, aller les voir et aller discuter avec l’équipe Wikidata. Et donc j’ai pu commencer à partir de là à discuter, à échanger. Je suis revenu au hackathon suivant et on a pu échanger comme ça.

Et donc en 2018, je connaissais suffisamment de monde et je me sentais légitime pour envoyer une proposition. Et ensuite, cette proposition a eu un appel à un commentaire de la communauté pour savoir si cette proposition est intéressante pour Wikidata, pour Wikimedia. Et là, j’ai eu la chance d’avoir le soutien d’une grande partie de personnes que j’avais rencontré dans ces événements-là et qui connaissaient mon travail, qui avaient pu voir l’évolution d’inventaire et des outils et donc qui m’ont recommandé dans ce financement.

Walid : donc ça part d’une rencontre physique.

Maxime : pour beaucoup d’entre eux, oui.

Les autres financements


Walid : Ok, je referme cette parenthèse. Qu’est-ce que tu as eu ensuite comme financement ?

Maxime : en 2019-2020, avec Jums, on a travaillé, alors on a fait une prestation en fait. On n’était pas financé pour inventaire, mais on a fait une prestation pour la BNF et la ABES, qui voulaient expérimenter sur l’usage de Wikibase pour leurs besoins de bases de connaissances.

Walid : c’est quoi la ABES ?

Maxime : c’est l’Agence Bibliographique de l’Enseignement Supérieur.

Walid : d’accord, ok.

Maxime : c’est eux qui gèrent notamment le FIDOC, qui est une base de données bibliographique de l’Enseignement Supérieur, où tu vas retrouver toutes les informations sur… Notamment je crois que c’est eux qui font le site thèse.fr, donc il y a toutes les informations sur les thèses, les doctorats, etc. Et donc ils ont une initiative de mutualisation de données et ils voulaient expérimenter sur la possibilité d’utiliser Wikibase à cet usage. Et de la même manière j’avais rencontré une personne de la ABES qui m’avait invité à candidater pour cet appel d’offres et donc on a été choisi et on a pu avoir un financement pour une prestation. Quelque part c’est une prestation qui a fait qu’on ne travaillait pas sur inventaire à ce moment là, mais en même temps ça a pu nous financer, avoir des financements comme ça et pouvoir continuer à travailler sur inventaire. Et donc ça c’était en 2018-2019 et à partir de 2020, là on a eu une autre personne qui s’appelle Hellekin qui nous a recommandé de candidater pour les financements NGI, qui sont Next Generation Internet, donc c’était NGI Zero, qui est une sous-partie de NGI, qui vise à financer notamment du logiciel libre. Et à l’époque c’était NGI Zero Discovery, il y a plein de noms, on s’y perd un petit peu, Discovery c’était très porté sur tout ce qui était recherche, et notamment ils étaient très intéressés par tout ce qui pouvait être intégration ActivityPub.

Next Generation Internet (NGI0) et la fondation NLNet


Walid : on va en parler après, c’est un sujet pour les auditrices et auditeurs qui suivent un peu le podcast dont on a déjà parlé avec Peertube, on en a parlé aussi avec Castopod. C’est un sujet assez récurrent, les financements via NGI et la fondation NLnet. Donc finalement, tu as candidaté à un des appels, c’était via NLnet, c’est ça ?

Maxime : c’était via NLNet, oui.

Walid : C’est remplir un formulaire.

Maxime : c’est ça. Sur le site web d’NLnet, il y a régulièrement des appels à candidature. NLNet fait partie d’un consortium. Il y a plusieurs organisations dans ce consortium, dont petite singularité, dont fait partie Hellekin. Ce consortium va recommander à différents projets, il va faire connaître ce moyen de financement à la communauté du libre et donc ça a commencé à financer pas mal de projets donc comme tu le disais mais après c’est NLNet qui gère donc on candidate sur le site d’NLNet et c’est NLNet qui passe en revue les différents projets, choisit quels projets sont financés et ensuite on est en contact avec NLNet pour obtenir les différents… donc on signe un Memorandum of Understanding pour acter de notre accord sur ce qui va être financé.

Ensuite on fait les développements correspondants et on leur demande le paiement une fois que c’est fait.

Walid : donc en fait ces financements NLnet, qu’est ce que ça implique ? Qu’est ce qui change à partir du moment où vous commencez à avoir ces financements ? Et d’ailleurs vous en avez eu plusieurs aussi ? Qu’est ce qui change en fait pour vous ?

Maxime : ce qui change c’est qu’on a plus se salarier, ce qui fait une énorme différence. Aussi ça structure un petit peu le développement, c’est à dire que par rapport à…

Quand moi je commence le projet en 2014, je suis novice complet dans la gestion de projet technique. Donc j’ai appris en faisant le projet. Après, Jums a apporté de l’expérience. Il avait travaillé en développeur dans une organisation où il y avait déjà plus de professionnalisme. Donc il a pu apporter des choses de ce côté là. Mais après NLnet, ça nous a forcé à avoir une vision : un peu plus à anticiper sur quoi on allait travailler dans les prochains mois.

C’est à dire qu’idéalement, on veut pouvoir proposer des fonctionnalités sur lesquelles on demande un financement et que ça corresponde au travail qui effectivement fait sens à ce moment là. Ça nous a forcé un petit peu à réfléchir un peu plus en amont à ce qu’il fallait faire maintenant.

Walid : qu’est-ce qu’ils voient d’intéressant dans l’inventaire qui leur donne envie d’investir de l’argent dans Inventaire ?

Maxime : ce qui les intéresse dans Inventaire, c’est pas tant l’aspect partage de livres que le côté novateur de la manière dont on va réutiliser de la donnée, structurer de différentes bases de données, tout ça avec des licences libres sur les données et sur le logiciel, et comment on va construire cette base de connaissances au-dessus de Wikidata, en relation avec Wikidata.

C’est tout cet aspect-là, c’est tout le pilier données bibliographiques, données fédérées, qui les intéressent principalement, même si après ils sont aussi intéressés par le côté… Alors après c’est toujours intéressant, là je dis ça, c’est plus dans les retours qu’on a eu sur le troisième financement qui vient de commencer, mais selon l’interlocuteur qu’on a en face, à NLNet, il va y avoir un intérêt porté sur différentes choses. En tout cas, parfois, l’accent est mis sur différentes choses.

Mais donc oui, dernièrement, c’est plus sur cet aspect données fédérées.

Walid : donc en fait, en gros, à partir du moment où vous commencez à avoir les financements NLNet, donc il y en a plusieurs, ça vous permet à tous les deux, c’est ça, de vous salarier en fait, que ça devient votre activité finalement ?

Maxime : alors c’était déjà notre activité de fait, mais là au moins on pouvait être rémunéré. En 2019 on a créé l’association Inventaire qui compte deux membres, donc Jums et moi, et on a pu se salarier dans cette association dont les statuts sont disponibles sur le wiki d’Inventaire pour aller voir ça, et donc depuis on est salarié de l’association.

Walid : donc c’est intéressant de voir que finalement ces financements peuvent tout changer dans un projet.

Maxime : il est probable que si on n’avait pas eu ces financements, à un moment on n’aurait pas pu continuer le projet. Je venais passer déjà de nombreuses années en mode de vie frugale et il y a au bout d’un moment un épuisement à être un peu en mode nomade et à toujours un peu faire attention à ses dépenses. Et donc avoir la possibilité de vivre du projet sur lequel on travaille à plein temps, c’est quand même critique dans la survie du projet.

La communauté autour d’inventaire


Walid : point suivant, on a commencé à l’aborder un tout petit peu, c’est la communauté autour de inventaire.io. Qui est votre communauté ?

Maxime : alors au final, on a déjà pas mal vu différents aspects de cette communauté. Donc il y a tout un aspect autour de Wikimedia. Donc on a de nombreux utilisateurs de Wikidata, de Wikipédia, qui viennent trouver dans Inventaire les moyens de gérer leur bibliothèque tout en étant très proche de Wikipédia et de Wikidata. Parce que sur Inventaire, une fois qu’on voit son inventaire, on peut aller aussi explorer la base de données bibliographiques. Et partout dans la base de données bibliographiques, on va montrer des extraits de Wikipédia avec un lien vers la page Wikipédia correspondante, montrer des données Wikidata.

Et donc pour quelqu’un qui est contributeur ou contributrice de Wikipédia, de Wikidata, ça a un intérêt pour voir toutes ces données auxquelles ils ou elles contribuent. C’est assez apprécié dans la communauté, cet aspect. Une des manières dont Wikidata caractérise inventaire, c’est une visualisation de Wikidata. C’est-à-dire que de leur point de vue, il y a l’interface Wikidata qui est un peu austère, on voit des données très brutes, très minimalistes, et il y a différents visualisateurs et inventaires en est un.

Donc ça c’est une partie de la communauté, après il y a évidemment toute la communauté logiciel libre, où c’est peut-être le moment où ce qui m’avait fait chaud au cœur, c’est la dernière journée du logiciel libre à Lyon (LDLR : les JDLL). Il me semblait que c’était peut-être la salle au monde où il y avait la plus grande densité d’utilisateurs d’inventaire. Parce que moi, j’y ai passé pas mal de temps à Lyon. Et dans la communauté du logiciel libre, c’est là où il y avait le plus de personnes familières du projet. Ça m’avait beaucoup motivé à ce moment-là sur le projet, parce qu’on a des retours chaleureux, et notamment je suis très reconnaissant de Framasoft qui a soutenu le projet depuis longtemps, qui avait fait une interview, publié une interview en 2019 (NDLR : en fait c’est une erreur de Maxime, c’était en 2021 sur Framablog) qui nous avait ramené aussi pas mal de leur communauté, du logiciel libre français, francophone.

Et puis il y a un troisième aspect, mais finalement qu’on connaît peut-être moins bien, qui est tout le monde des amateurs de livres, des bibliothécaires, des professionnels de livres, qui retrouvent parfois…

Les bibliothécaires qu’on a rencontrés, qui nous disaient que ça permettait de continuer de travailler à la maison parce qu’elles continuent à être bibliothécaire. C’est un peu ce qu’on propose. On propose à chacun de devenir bibliothécaire de son réseau. Et donc voilà, les personnes qui aiment les livres peuvent trouver dans cet outil un moyen de vivre leur passion.


Walid : Qu’est-ce que tu en sais finalement de ta communauté d’utilisateurs, à part quand tu les rencontres physiquement dans une pièce ?

Maxime : alors on sait ce qu’on peut voir sur le site, c’est-à-dire que sur le site on peut voir, il y a une carte où on peut se balader et voir les groupes locaux, les utilisateurs qui ont des inventaires conséquents. Ce qu’on voit à travers ça, c’est beaucoup, donc peut-être les plus gros groupes collectifs d’utilisateurs, ça va être des groupes militants, des groupes qui veulent partager des connaissances sur un sujet précis, donc on a vu des groupes de développeurs, des groupes, des bibliothèques anarchistes qui vont faire leur inventaire parce que ces associations ont un local avec une bibliothèque mais n’ont pas nécessairement d’outils bibliothécaires et vont utiliser Inventaire comme outil bibliothécaire.

Walid : c’est ça que je cherchais au départ moi quand je suis tombé sur Inventaire.

Maxime : c’est le but initial du projet. C’était un peu l’idée que je me faisais c’était qu’on pourrait avoir des groupes par entreprises, coworking, associations, que chaque collectif pourrait avoir sa bibliothèque distribuée comme ça.

Walid : est-ce que les utilisateurs sont majoritairement francophones ou est-ce qu’ils sont répartis dans plein de pays différents ?

Maxime : je n’ai pas des statistiques très fines là-dessus, mais au doigt mouillé de ce qu’on voit sur la carte, l’air d’être pour moitié en France, 40 autres pourcents ailleurs en Europe et 10 pourcents ailleurs dans le monde.

Walid : et alors la dernière question que j’ai sur la partie communautaire, c’est qu’en tant que projet, inventaire, qu’est ce qui donne comme outil à sa communauté pour pouvoir interagir avec le projet ? Est-ce qu’il y a une forge ? Est-ce qu’il y a un forum, un canal de discussion ?

Maxime : Alors on a différents outils. Dans les premiers moyens de contact qu’on a, en général c’est soit par email, parce que le site propose un mail de contact, soit par les réseaux sociaux, notamment présents sur Mastodon, Fediverse. Et une fois qu’il y a ce premier contact, on invite les personnes à rejoindre notre chatroom. On a notamment sur Matrix Element un groupe de discussion où maintenant on a commencé à diviser par sujets données bibliographiques ou sujets techniques ou discussion générale. Donc on invite chacun et chacune à rejoindre les sujets qui l’intéressent là-dedans. Les conversations sont par défaut en anglais pour pouvoir inviter des personnes un peu plus largement que juste le monde francophone, même si parfois les discussions reviennent en français, si les personnes ne sont pas à l’aise en anglais.

On a par ailleurs un wiki dans lequel on va documenter le projet. On aimerait faire de plus en plus de tutoriels qui aident les nouveaux venus sur l’outil à se familiariser avec l’outil. On a lancé des ébauches, il y a encore beaucoup de boulot, donc là-dessus, s’il y a des personnes qui veulent contribuer, c’est très bienvenu à faire des fiches de tutoriel pour aider les personnes à venir adopter le projet.

Donc le outil est la forge. On a une forge git, donc on est encore sur le Github. Ce temps là aura une fin probablement. Là on regarde de près tout ce qui se fait sur les projets de forge fédérée avec ActivityPub. En fait on aurait envie d’être sur une forge libre. C’est toujours le problème de comment faire pour ne pas être coupé de contributrices, de contributeurs. Si on pouvait passer directement sur une forge fédérée, ce serait le top. Ça bouge beaucoup dans cet espace. Pour le moment on reste sur Github, mais on regarde de près ce qui se passe sur les autres forges libres.

Qu’est-ce que le Fediverse ?


Walid : point suivant, c’est un de mes points préférés, c’est le Fediverse. Donc on a déjà parlé dans d’autres épisodes, mais je reparle à chaque fois avec les projets qui s’intègrent avec le Fediverse. Il y a toute une partie d’inventaire autour de Fediverse et d’ActivityPub.

Mais d’abord, la première chose que je voudrais te demander, c’est quelle est ta définition du Fediverse ?

Maxime : A la question piège !

Walid : c’est pour ça que je le demande à tous les projets, en fait. C’est parce que c’est pour que chacun donne sa propre vision du truc.

Maxime : il y a plusieurs Fediverse, en fait. Je pense qu’il y a plusieurs périmètres possibles. La définition la plus large, c’est l’ensemble des réseaux sociaux fédérés, autour de protocoles de fédération. Aujourd’hui, on entend notamment parler d’ActivityPub, mais avant ActivityPub, il y avait déjà des Diaspora, des Frendi.ca. Il y avait déjà des choses qui existaient et qui se considèrent comme faisant partie du Fediverse, au minimum de son histoire. Parce qu’aujourd’hui c’est vrai, beaucoup de choses se passent autour d’ActivityPub. C’est peut-être la deuxième définition aujourd’hui du Fediverse, qui est tous ces outils, ces réseaux sociaux qui échangent avec le protocole ActivityPub.

Walid : alors ma deuxième question là-dessus, c’est quelle est la place d’inventaire dans le Fediverse ?

Maxime : c’est typiquement Mastodon, c’est de l’échange de micro-blogs, de l’échange de notes. D’un point de vue technique d’ActivityPub, c’est le logiciel qui publie des notes. Les serveurs se notifient les uns les autres des nouvelles notes disponibles et on a un flux d’informations, d’activités. Et donc pour cet usage-là, ActivityPub a l’air de marcher. Alors il y a des critiques à faire sur la viabilité à l’échelle de ce mode de fonctionnement, sur ce qu’on voit par exemple des instances qui, ayant un espace disque limité, sont obligées de supprimer des notes de l’historique après deux ans peut-être, suppriment ce qu’elles ont localement. Et donc ça veut dire qu’on ne peut plus accéder à des notes plus anciennes que deux ans, ce qui pose des problèmes d’un point de vue d’archiviste ou juste de personnes qui veulent avoir accès au contexte de ces anciennes notes.

Mais bon, globalement on arrive à recréer avec ActivityPub, avec Mastodon, une sorte de Twitter distribué. Ça marche pas trop mal, on a une base d’utilisateurs conséquente. Ça marche assez bien aussi avec poster des commentaires sur des vidéos, donc sur on voit Peertube ou je pense qu’il y a d’autres logiciels que je ne connais peut-être pas aussi bien. Il y a différentes choses comme ça qui viennent s’intégrer avec Mastodon et où les commentaires ont l’air de marcher. Mais dès qu’on va sur des usages qui sont moins dans le commentaire, il me semble que ça peut devenir compliqué.

Et notamment, inventaire de ce point de vue là est un peu bizarre. C’est-à-dire que quand on crée l’inventaire de ses livres, on peut voir ça comme un flux d’activité, mais le flux d’activité est moins intéressant que la base de données qui est constituée par cet inventaire. C’est à dire que avoir les derniers livres ajoutés à son inventaire c’est intéressant, comme actualité. Alors il y a deux questions auxquelles l’inventaire essaie de répondre. C’est :

  • je cherche tel livre qui l’a ?
  • quels livres sont disponibles dans nos réseaux, qu’est-ce que je pourrais emprunter si j’avais envie d’un livre ?

Et ces deux questions, d’un point de vue requête HTTP, enfin protocole, ce n’est pas nécessairement bien pratique de passer par ActivityPub pour faire ça.

Pourquoi ActivityPub n’est pas adapté pour un outil d’inventaire


Walid : c’est le cas à l’heure actuelle?

Maxime : non. Je vais vous dire pourquoi c’est compliqué. C’est que quand on cherche un livre en particulier, on veut interroger une base de données et qui dit « bon ben voilà, j’ai tel livre en base de données, enfin telle personne a tel livre et pourrait te le prêter. Et ça dans le modèle ActivityPub, ça nécessiterait d’avoir l’information que telle personne a tel livre. Donc ça nécessiterait d’avoir été là au moment où cette personne qui est peut-être sur une autre instance a publié l’activité qu’elle avait tel livre dans son inventaire. Et ça voudrait dire être capable de garder cette information sur un temps long parce que peut-être que dans 5 ans, cette personne aura encore ce livre dans son inventaire et je voudrais encore savoir où est-ce que je peux trouver ce livre, mais il faudra que l’activité puisse être encore disponible. Et en fait, il me semble que ce modèle d’ActivityPub où chaque serveur va copier localement la base de données qui va ensuite être interrogeable montre ses limites pour ce type d’usage. Et qu’on serait beaucoup plus… Il me semble que ça marcherait beaucoup mieux de garder les données de référence sur les instances et qu’au moment où je fais la requête pour savoir qui peut me prêter tel livre, mon serveur va demander aux autres serveurs qui a ce livre. Et donc ça voudrait dire que quelqu’un qui a son serveur inventaire sur son Raspberry Pi pourrait avoir juste ses données d’inventaire localement, mais ensuite aller interroger le serveur d’une bibliothèque qui a 50 000 références sans que ça nécessite d’avoir ses données localement. Et donc juste aller demander le bout de données qui nous intéresse. Donc voilà, il me semble que pour de l’interrogation de stock, ActivityPub n’est pas le protocole de fédération fini.

Les fonctionnalités d’ActivityPub implémentés dans inventaire


Walid : actuellement vous avez une implémentation quelconque d’ActivityPub ou pas du tout ?

Maxime : on a une implémentation d’ActivityPub qui vise à partager les activités des inventaires. C’est-à-dire, quand on a fait le choix de rendre son profil fédiversable, c’est un logisme qu’on a inventé, donc on peut aller dans ses paramètres et rendre son profil fédiversable. A partir de là, ça voudra dire que des personnes typiquement sur Mastodon ou ailleurs sur le Fediverse pourront venir suivre votre profil et recevront des activités quand vous ajouterez des livres à votre inventaire. Ça c’est un aspect. Et donc ça c’est le flux d’activités, ça permet de savoir les nouveautés dans les inventaires des personnes qui nous intéressent.

Walid : Il n’y a pas de notion de commentaire ?

Maxime : non, il n’y a pas de notion de commentaire. C’est un peu une implémentation minimaliste qui se concentre sur cet aspect flux d’activité. Il y a une deuxième implémentation d’ActivityPub qui est sur la base de connaissances et notamment ça permet de suivre non pas un utilisateur mais une entité. Donc on va pouvoir suivre un auteur, un éditeur, une œuvre, et quand il y a des modifications qui sont faites à la base de données bibliographiques, par exemple quand il y a une nouvelle édition qui sort chez un éditeur donné, et si on suit cet éditeur, on pourra voir dans son flux mastodonte qu’il y a une nouvelle édition qui a été ajoutée pour cet éditeur. Donc ça c’est très expérimental parce que il y a des usages qui peuvent être intéressants mais ce n’est pas toujours évident. Ce n’est pas nécessairement que l’édition vient de sortir, ça peut être juste que la donnée était manquante dans la base de données et quelqu’un y allait indiquer la donnée. Mais c’est une expérience qu’on voulait mener et pour laquelle on a eu des financements et net.

Walid : ça m’amène à ce que tu disais au tout départ et qui fait un écho à l’épisode avec les gens d’Open Food Facts avec toute la notion d’arriver à faire en sorte que les éditeurs mettent eux-mêmes leurs données dessus, puisque c’est eux-mêmes la source.

Maxime : mais pour ça, il faut qu’ils y trouvent un intérêt, il faut une taille critique. Oui, et puis ils sont globalement frileux. Alors nous, en plus, par rapport à Open Food Facts, je pense qu’Open Food Facts a à faire à des mastodontes, des géants de l’alimentaire. Donc c’est encore une autre catégorie. Nous, on a les maisons d’édition. Il y a des géants, mais il y a aussi beaucoup d’éditeurs indépendants.

On n’a pas encore de collaboration, mais je pense que ça pourrait être quelque chose qui pourrait être intéressant, notamment pour les petits éditeurs indépendants, qu’on les aide à structurer leurs données. Après, pour la plupart, le web n’est pas leur métier, et donc il peut y avoir une certaine appréhension, méconnaissance de la confiance qu’ils peuvent avoir dans un projet comme ça, et peut-être de l’utilité qu’il peut y avoir à être présent dans la base de données comme ça. En tout cas, nous, c’est un des objectifs qu’on se donne de soutenir les maisons d’édition indépendantes dans leur effort de proposer au lectorat des choses qui ne sont pas proposées chez, maintenant, des éditeurs qui sont tous concentrés chez Bolloré. Tous les moyens qu’on aurait de les soutenir, on est chaud, on est intéressé.

inventaire et bookwyrm


Walid : dernier sujet sur cette partie fait divers, j’ai un de mes copains qui m’a un jour parlé d’un outil, (salut Fabrice), qui s’appelle Bookwyrm. C’est rigolo parce qu’on en parlait tout à l’heure sur les licences anticapitalistes, il a une licence anticapitaliste. C’est un outil qui permet de faire des critiques de livres et la première fois que je l’ai vu j’étais là « mais c’est génial ce truc mais en fait il y aurait des choses à faire avec Inventaire ! » et donc en fait je voulais savoir est ce que vous aviez fait des choses avec Bookwyrm qui est donc aussi un autre service qui lui-même aussi fédéré si je dis pas de bêtises et donc voilà je me demandais si vous avez des relations avec les gens de Bookwyrm, si vous avez déjà fait des choses avec eux.

Maxime : on a eu des échanges notamment par différents contributeurs qui sont venus proposer des intégrations dans un sens et dans l’autre et il y a notamment dans l’existant aujourd’hui, il y a notamment un usage par Bookwyrm qui réutilise les données inventaires.

Walid : On dit « Bookworm » ?

Maxime : je crois que c’est « Bookwyrm ».

Walid : OK, je ne savais pas comment dire.

Maxime : Après, Bookworm utilise des données d’OpenLibrary et d’inventaire.

Donc ça, c’est une première intégration. Nous, on aimerait pouvoir afficher des critiques qui ont été écrites dans Bookwyrm. On aimerait pouvoir les afficher dans Inventaire. On n’y arrive pas pour le moment. Ça rejoint d’ailleurs ce problème que j’évoquais avant, c’est que typiquement, les requêtes qu’on voudrait être capable de faire, c’est « pour une œuvre donnée, donne-moi les critiques qui correspondent à cette œuvre ». Et on ne sait pas faire cette requête à Bookwyrm aujourd’hui.

Et donc, parce qu’on ne sait pas à quelle instance il faudrait l’interroger, il n’y a pas un moyen de faire une requête fédérée. Le seul moyen, encore une fois avec ActivityPub, c’est d’être à l’écoute des activités pour constituer la base de données localement. Donc en absence de ça, pour le moment, on n’est pas capable d’afficher ces critiques. On a un autre problème aussi sur la structure de données. Il faudrait pouvoir être capable d’aller interroger leur base de données par ISBN ou par identifiant Wikidata ou par identifiant OpenLibrary ou Inventaire.

Attention, open library ou inventaire, on va trouver un moyen de faire ces requêtes-là. Donc c’est un problème technique qu’on a. Et ensuite, il y a aussi la considération de, « est-ce qu’on veut avoir la possibilité de fédérer, d’écrire des critiques dans Inventaire et de pouvoir les partager ensuite avec Bookwyrm » ?

C’est un sujet récurrent et en fait, ça pourrait être intéressant, mais c’est vrai que les deux projets sont souvent comparés et ce n’est pas toujours évident pour les personnes qui arrivent sur ces sujets-là de voir les différences.

Nous, on est vraiment partis sur les objets physiques livres et sur la gestion de leurs prêts, de leurs dons, etc. Alors que Bookwyrm est vraiment parti sur une alternative à Goodread, parler des livres comme idées, parler des livres comme œuvres. Et quelque part, ces deux outils pourraient avoir des connexions, pourraient avoir des recoupements, mais ce n’est pas directement concurrent dans l’usage. On ne peut pas gérer un inventaire avec Bookwyrm, on ne peut pas gérer des prêts, faire des échanges etc. Et aujourd’hui on ne peut pas faire des… alors on peut mais c’est pas vraiment optimal pour faire des critiques aujourd’hui dans l’inventaire.

Walid : ok, je suivrai ça avec intérêt si ça bouge dans les années à venir, parce que ça me semblait effectivement qu’il y avait des belles synergies là-dessus.

Point d’étape après 10 ans du projet inventaire


Walid : dernière partie, c’est ce que j’appelle les défis à venir. En fait, je voulais savoir un peu, point d’étape, où est-ce que vous en êtes et un peu, quelles sont les choses qui vont arriver ? Déjà, un peu, où est-ce que vous en êtes ? Qu’est-ce que tu penses du projet après 10 ans ? Qu’est-ce qui est bien ? Qu’est-ce qui est pas bien ? Comment tu vois les choses ? C’est la première chose.

Maxime : c’est une question difficile parce qu’on est souvent le nez dans le guidon. Donc là, il faut relever un petit peu et voir un peu plus largement le projet. Il y a clairement des choses qui me motivent à continuer le projet. Il y a un intérêt soutenu par différentes personnes. On reçoit beaucoup de retours de personnes qui trouvent le projet génial. Et donc ça, ça a permis au projet de tenir pendant toutes ces années. Après clairement il n’y a pas eu le succès d’audience, le nombre d’utilisateurs n’est pas dément et donc ça pose la question de l’utilité du projet parfois. On se dit bon bah est-ce que ça vaut le coup de passer autant de temps sur un projet où il n’y a pas 500 000 utilisateurs quoi. Après nous c’est, et je pense Je pense notamment à Jums qui rappelle ça régulièrement, qui dit que s’il y a quelques utilisateurs, quelques groupes d’utilisateurs qui ont un usage, par exemple, dans des bibliothèques associatives, dans des collectifs, où ils vont pouvoir partager du savoir comme ça, en fait, ça nous suffit.

Ça justifie déjà le projet de pouvoir aider des collectifs à se partager la connaissance. Ça suffit comme motivation. Ça peut être compliqué parfois au quotidien, après 10 ans, de trouver la motivation pour un projet qui est encore relativement inconnu du grand public.

Walid : tu ne fais pas de présentation, par exemple, au FOSDEM ?

Maxime: j’en ai fait beaucoup dans les premières années du projet. Je me suis un petit peu épuisé.

J’allais tenir des stands, je me rappelle, en 2015, avoir tenu un stand en parallèle de la COP21. Non, c’était pas là. La COP à Paris, il y avait un festival, enfin il y avait des stands où il y avait des fêtes du Libre où j’allais tenir le stand toute la journée et faire une présentation, etc. Très enthousiaste.

Et en fait, ça prend une énergie folle de faire une journée comme ça. Et donc c’est vrai que là, en ce moment où je n’ai peut-être pas le niveau d’énergie que je pouvais avoir à ce moment-là. Je m’économise un petit peu plus. Au FOSDEM, j’y suis allé un petit peu plus pour picorer, pour discuter avec des personnes. Disponible pour discuter, mais je ne me sentais pas l’énergie d’aller faire une présentation, ce qui supposait en plus de bloquer des mois à l’avance. Ça peut être compliqué.

Et là-dessus, c’est vrai que c’est un des aspects, ça m’apparaît clairement qu’il y a un besoin de relais, il y a un besoin qu’il y ait des énergies nouvelles qui viennent se rejoindre le projet pour que des personnes aient encore l’envie d’aller voir tout le monde pour en parler, parce que peut-être que nous on fatigue au bout de dix ans.

Les defis d’inventaire


Walid : tu viens effectivement de répondre à une partie de ma question suivante, donc qui était les défis en fait, quels étaient les défis pour les mois, années à venir du projet ? Premier défi, avoir du sang neuf. Est-ce que tu vois d’autres défis, d’autres gros défis à venir ?

Maxime : alors il y a les défis, donc là on vient de signer un accord avec NLnet pour les développements sur l’année à venir.

Donc dans les défis à venir, il y a tout ce sur quoi on s’est mis d’accord et notamment il y a le site inventaire.io qui est l’instance principale et à ma connaissance l’unique instance parce que, notamment parce qu’on a plus ou moins découragé à créer d’autres instances en disant en l’état c’est pas nécessairement une bonne idée. Et la raison pour ça c’est que créer de nouvelles instances aujourd’hui c’est repartir d’une base de données bibliographiques vide. On a Wikidata qui est toujours disponible mais on ne réutilise pas tout le travail d’amélioration des données bibliographiques qui est fait sur inventaire.io. Et donc là, l’un des grands chantiers, ça va être de permettre à de nouvelles instances de se créer, tout en réutilisant les données d’inventaire.io.

Et donc, il est possible que les deux piliers du projet dont je te parlais en introduction soient plus nettement séparés à l’avenir. Et donc, qu’on ait un autre site qui soit dédié aux données bibliographiques et que la partie inventaire puisse être plus facilement décentralisée donc pour avoir plusieurs instances d’inventaire et donc de gestion de son inventaire de livres qui réutilise des données bibliographiques mutualisées.

C’est peut-être le plus gros challenge pour l’année et après on a beaucoup de challenges sur la manière dont on va pouvoir améliorer les interactions avec Wikidata, parce que c’était un défi un peu fou de se lancer dans un projet qui utilise une base de données contrôlée par un autre projet. Ça suppose de se mettre dans les choix de modèles de données de l’autre projet, etc. Et ça pose des difficultés pour lesquelles aujourd’hui on a un certain nombre de réponses. Le projet a eu le temps de mûrir là-dessus. Et parfois aussi des rustines. Et il y a des choses qu’on voudrait améliorer, et c’est aussi des grands chantiers où on va essayer de résoudre des problèmes qu’on a identifiés maintenant depuis un certain nombre d’années sur la manière dont on interagit avec Wikidata pour pouvoir améliorer la manière dont on réutilise les données, et aussi on va pouvoir partager plus de données avec Wikidata, notamment les données de design. C’est peut-être les deux plus gros challenges à venir pour le projet d’un point de vue technique.

Et après il y a ces défis techniques et on a, comme tu disais, il y a un défi organisationnel et de communication parce que c’est vraiment, je pense, ce qui pêche peut-être le plus aujourd’hui. Donc c’est notre difficulté à ramener des nouvelles personnes dans le projet. C’est-à-dire qu’on est très heureux de toutes les contributions qu’on a dans les données bibliographiques, dans les traductions, mais il y a encore très peu de personnes qui viennent aider sur du code. Et un de nos espoirs, c’est qu’avec la décentralisation, on va arriver à débloquer ça parce qu’on espère que des personnes pourront installer le logiciel inventaire et du coup voir comment elles pourront améliorer leur instance et donc venir contribuer. Donc ça, c’est un de nos espoirs sur l’aspect contribution au code. Et ensuite il y a tout un enjeu de communication, où on a bricolé des stickers, des flyers, mais c’est encore très petit, on en distribue peu, on en imprime très peu. Il y a tout un travail peut-être à faire là-dessus, de communication, et d’aller chercher les moyens de faire connaître ce projet, qui est maintenant, parce que pendant un certain nombre d’années, j’ai peut-être freiné en disant : non mais c’est pas prêt, c’est pas prêt. Je pense que maintenant on est à un niveau de maturité où on peut amener des personnes du grand public sur l’outil sans qu’elles se cassent les dents sur des bugs etc. Je pense que maintenant c’est peut-être le bon moment pour mettre un coup d’accélérateur sur la communication et le problème c’est que nous on est le nez dans la technique et donc on n’arrive pas à prendre ce temps pour faire la con.

Donc là aussi on a peut-être besoin d’aide, de nouvelles énergies et là-dessus.

Présenter inventaire à quelqu’un qui ne connait pas


Walid : on arrive à la fin de l’entretien, je voudrais passer à une petite conclusion et en conclusion je voudrais te demander deux questions. La première c’est comment est-ce que tu présenterais en une ou deux phrases inventaire à un utilisateur qui connaît pas ? Qu’est-ce que tu lui dirais ?

Maxime : alors ça va dépendre de l’utilisateur, j’adapte en général la présentation en public.

Walid : tu prends quelqu’un qui est en soirée, tu prends quelqu’un qui connaît pas, donc tu connais pas le passé technique, comment tu l’expliques en deux phrases ou trois phrases, qu’est-ce que fait Inventaire ?

Maxime : inventaire permet de faire l’inventaire de ces livres, donc pour chaque livre dire si on veut le prêter, le donner ou le vendre et choisir qui peut voir ensuite cette ressource. C’est une manière de présenter le projet. Et une autre manière de dire la même chose, c’est en fait que c’est un outil qui permet de construire des bibliothèques fédérées. On va arriver à ce que des collectifs puissent avoir une bibliothèque commune distribuée, et donc que chacun devienne le bibliothécaire du reste du réseau. On aide les collectifs à faire des bibliothèques distribuées. C’est une autre manière de voir le projet.

Présenter inventaire à un développeur de logiciel libre


Walid : deuxième question, comment est-ce que tu présenterais Inventaire à un développeur de logiciels libres ? Qu’est-ce que tu lui dirais en quelques phrases ?

Maxime : c’est un projet très riche de tout un tas de questions et que c’est passionnant parce qu’on va aller jongler sur tout un tas de briques techniques, sur des questions de données structurées, fédérées. On va faire du SPARQL, du HTTP, du ActivityPub. On a maintenant des questions de décentralisation, de comment on va faire pour arriver à publier du logiciel qui va pouvoir être réutilisé par différentes personnes.

Et donc avoir des questions de comment on fait pour rendre cette maintenance distribuée la plus facile possible. Et on va avoir toute la question de la fédération autrement que par ActivityPub. Donc pour répondre à toutes les questions que je posais sur comment on fait pour interroger différentes instances sur ce qu’elles ont en base de données. Donc on a des questions sur par quel protocole passer pour faire ces requêtes fédérées. Peut-être que ça peut être du DHT (distributed hash table), peut-être que ça peut être d’autres protocoles pair-à-pair. Il y a plein de défis techniques et après il y a toute la partie données bibliographiques où il y a la modélisation pour tous ceux qui sont fans de livres, de bandes dessinées, de mangas, il y a tout un tas de choses à faire sur comment on fait pour représenter la donnée.

Passez de la complexité du réel dans un modèle de données à peu près cohérent, vous intéresse ? il y a des choses à faire. Je pense par exemple à l’exemple de comment on fait pour représenter Dragon Ball Z, une série comme Dragon Ball Z, en données structurées. Est-ce qu’on représente par chapitres ? Est-ce qu’on représente par volumes ? Et dans ce cas là, dans quelle langue.


C’est un exemple peut-être trop traumatisant pour commencer. C’est pas un bon exemple pour commencer.

Walid : mais non, mais c’est très bien.

Maxime : il y a plein de choses intéressantes à aller gratter. Et moi c’est un projet que je trouve toujours très riche, notamment par tout ce que ça fait connaître comme livre. Je découvre tout le temps des livres, je découvre tout le temps des éditeurs, des sujets, c’est passionnant.

Conclusion


Walid : Maxime merci beaucoup d’avoir répondu à ma sollicitation en plus on a pu se croiser au FOSDEM donc on a pu discuter un peu cette année, c’était cool pour moi aussi pour préparer. Si ça vous a plu laissez moi des commentaires principalement sur Mastodon ça fait toujours plaisir avec grand plaisir. Maxime, merci. Bonne soirée à toi, porte-toi bien.

Et puis j’espère te revoir une prochaine fois sur le podcast pour reparler encore une fois davantage.

Maxime : et bien avec plaisir. Merci à tous les auditeur.e.s et rejoignez-nous dans le chat. On espère vous voir nombreux….

Cet épisode a été enregistré le 29 février 2024.

Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


We got the confirmation that the Inventaire project will receive a 3rd @NGIZero grant 🥳

The exact milestones for this grant are still a work in progress, but the main focus will be on #decentralization

wiki.inventaire.io/wiki/NGI_Ze…

#NLnet #opensource #linkedopendata #wikidata


This entry was edited (6 months ago)

Fondation NLnet : financer le logiciel libre en Europe – Lwenn Bussière


Savez-vous comment est financé une partie de l’écosystème du logiciel libre européen ? Découvrez l’histoire et le fonctionnement de la fondation NLnet, et des fonds européens Next Generation Internet NGI0 avec Lwenn Bussière, Technology Assessor chez NLn

podcast.projets-libres.org/@pr…

Sommaire

Interview avec Lwenn Bussière de la fondation NLnet


Note : cette transcription contient des précisions supplémentaires apportées par Michiel Leenaars. Elles sont disponibles indiquées par une écriture en italique.

Walid : nouvel épisode de Projets Libres! aujourd’hui, on va parler d’un sujet qui est les financements européens. Je dois avouer qu’avant de commencer Projets Libres!, c’était un sujet où j’avais une image de process très long, extrêmement compliqué, qui requierait des gens spécialisés, etc. Et une des découvertes du podcast, on va le voir aujourd’hui, c’est qu’il existe maintenant des nouvelles manières de faire pour avoir des financements simplifiés. Je dois avouer que ça a été une découverte, une très bonne découverte et que je me suis dit qu’il fallait que je fasse un épisode là-dessus.

Cette année, en février 2024, au FOSDEM, j’ai eu la chance de pouvoir rencontrer l’équipe de NLnet et aujourd’hui, j’ai la chance d’avoir avec moi Lwenn Bussière que je laisserai se présenter après. On va parler ensemble de ce qu’est NLnet et de sa place dans tout cet écosystème européen de financement. Lwenn, j’espère que tu vas bien. Bienvenue sur le podcast Projets Libres!.

Présentation de Lwenn


Lwenn : bonsoir Walid. Je suis ravie de pouvoir discuter avec toi des financements NLnet. C’était très drôle quand on s’est vu à FOSDEM, on avait le stand avec tous les stickers des projets qu’on présente et je crois que ça t’a rendu très curieux et très heureux de trouver les stickers de différents projets que tu as déjà accueillis avec Projets Libres! sur ton podcast : les amis de Peertube, Inventaire, Castopod, Open Food Facts. Et nous, ça nous a fait aussi très plaisir de voir qu’il y a de la communication qui se fait aussi dans le libre français. Donc, je travaille à NLnet depuis le début de l’année. On est basé à Amsterdam, aux Pays-Bas, et je suis arrivée un peu par hasard à NLnet après avoir fini un doctorat en philosophie.

J’ai été dans le logiciel libre plutôt en tant qu’usager depuis que j’ai environ 14 ou 15 ans. En commençant Linux, je pense au lycée. Mais ça n’a jamais été… enfin, programmer, c’était toujours quelque chose qui était pour les autres. Sauf qu’en faisant plus de recherche, je me suis retrouvée à utiliser beaucoup plus d’outils et à chercher des alternatives libres et ouvertes dans le cadre de la recherche académique en philosophie. C’était quelque chose qui me tenait à cœur, qui m’a passionnée. Et en fait, quand je cherchais un travail après mon doctorat, quittant la recherche, une amie qui était proche des gens d’NLnet m’a signalé qu’ils embauchaient des gens pour évaluer des propositions de projet, des propositions de financement, et ensuite communiquer avec les projets qu’on décide de financer et donc faire tout ce travail en interne de chargé de financement, on va dire.

Du coup, le travail est en anglais, donc il va y avoir des soucis dans l’épisode de traduction, je vais faire de mon mieux, mais…

Walid : t’inquiète pas, de toute façon, je fais une transcription ensuite dans laquelle après je note en français tous les mots anglais qu’on utilise.

Lwenn : voilà. Donc oui, j’ai rejoint NLnet en janvier et ça a été un plaisir depuis de travailler.

Walid : tes études tu les as fait où? En France ou à l’étranger?

Lwenn : j’étais en France jusqu’au master environ et puis ensuite je suis partie à Amsterdam en Erasmus et je suis jamais rentrée. Les programmes d’échange européen fonctionnent. Ouais voilà c’est ce qu’on va dire.

Présentation de NLnet


Walid : donc là, on est en train de parler d’NLnet. Est-ce que tu peux, dans un premier temps, nous faire l’histoire de NLnet ?

Lwenn : donc la partie qui va être intéressante pour les gens qui t’écoutent, NLnet, c’est une fondation, une organisation non-gouvernementale reconnue d’intérêt public.

Ce qu’on fait, en fait, c’est qu’on obtient des fonds qui sont des fonds européens, aussi certains fonds privés de donateurs, comme une organisation caritative, et qu’on va ensuite les redistribuer à des projets de développement logiciel ouvert et libre. On donne en général des financements qui sont sur des courtes périodes, environ un an de développement, qui sont des petits financements à l’échelle du financement européen puisque nos bourses sont entre 5000 et 50000 euros pour les premiers projets, avec possibilité d’étendre sur plusieurs projets. Et nos missions, ce sont de promouvoir un Internet libre et décentralisé où les utilisateurs sont en contrôle de leurs outils.


Et en fait, énormément des projets qu’on finance ne sont pas des projets qui sont très sexy. Ce sont des projets qui sont des briques fondamentales, qui construisent Internet tel qu’on le connaît. Ça va être des protocoles réseau, ça va être des outils réseau qui sont déployés, ça va être aussi des solutions de stockage de données. Donc en fait, toute cette infrastructure Internet dont on sait très bien qu’elle vient du logiciel libre et qu’elle se repose sur un travail souvent invisible, souvent non rémunéré de volontaires et d’enthousiastes. Nous on essaie de dévier certains fonds européens, avec bien entendu le consentement éclairé de la commission du programme NGI Zero, vers des gens qui vont en fait construire des solutions durables pour Internet.

Et historiquement, NLnet commence dans les années 80 ou 90. Pour la petite histoire, en fait ça commence quand des enthousiastes d’UNIX reviennent des États-Unis en 82 et créent EUNIX, puis en fait décident d’utiliser EUNIX pour faire du réseau, créant EUNET (European Unix Network), qui bootstrap (NDLR : amorce) l’Internet européen.

Et NLnet est fondée officiellement en 89 et a des activités qui sont à la fois des activités caritatives et des activités commerciales. Et ce qu’il se passe, c’est qu’en 97, NLnet fait un échange de parts avec les gens de UUnet aux États-Unis, qui vont devenir Verizon. Et cet échange de parts pour beaucoup d’argent, à l’époque, quelques millions, crée le premier fonds caritatif d’NLnet, qui va ensuite se concentrer sur ses missions de financement.

Michiel : NLnet a démarré à partir d’un groupe d’utilisateur Unix (Unix User Group), NLUUG.nl (qui existe toujours). Il s’agit d’une association, NLnet a été créée pour professionnaliser le travail effectué au sein du CWI/NIKHEF et du NLUUG.

Je sais que tu as beaucoup de questions à propos des financements européens, mais ce qu’il faut savoir c’est qu’on bénéficie beaucoup de financements de la Commission européenne par le programme NGI Zero, mais on bénéficie également de financements privés, des héritages ou bien des gens qui nous font confiance avec plus ou moins beaucoup d’argent et de donateurs. Donc c’est pareil, s’il y a des gens à l’écoute qui ont envie de financer le logiciel libre européen, on peut parler du travail qu’on fait et si ça les intéresse.

Walid : mais là NLnet, donc au départ NLnet c’est un fournisseur d’accès à internet, donc à un moment NLnet se fait racheter par U-Net qui va devenir Verizon ?

Lwenn: en fait NLnet c’est la soeur de EUnet ou Verizon, c’est d’abord une association d’enthousiastes uniques qui commence à créer l’Internet européen, en fait dans un modèle associatif coopératif et qui devient un fournisseur commercial quand en fait on commence à se prendre compte des applications commerciales d’Internet dans les années 90.

Et en fait, comme ce sont ces enthousiastes de logiciels libres, des gens comme Teus Hagen ou Jaap Akkerhuis qui sont dans le Internet Hall of Fame. En fait, ils sont passionnés aussi de logiciels libres. Donc en fait, il y a NLnet, ça commence comme un fournisseur d’accès où tous les fonds qui ne sont pas des fonds opératoires sont reversés aux logiciels libres par un processus de donation.

Walid : ah d’accord.

Lwenn : en fait, dès le départ, il y a quand même cet aspect coopératif.

Michiel : pour en savoir plus sur l’histoire de NLnet et les autres organes, voir en.wikipedia.org/wiki/NLnet. pour l’histoire de NLnet et d’autres organismes : Ce n’est pas très complet mais c’est un bon contexte concernant les noms. Ce serait génial d’avoir une page en français à un moment donné, peut-être que nous pourrons avoir des wikipédiens pour se porter volontaires 🙂

La forme juridique d’NLnet


Walid : NLnet, quelle est maintenant sa forme juridique ? c’est une fondation de droit néerlandais ? C’était le cas dès le départ ou c’est quelque chose, tu sais ça, si c’est…

Lwenn : c’était le cas dès le départ parce qu’au Pays-Bas, tu peux avoir une fondation qui est pour profit. Donc tu peux incorporer ta compagnie comme fondation. Et en fait, en général, pour les petites compagnies qui viennent de débuter, de type Startup ou bien SME (NDLR : small and medium entreprises, en français PME), c’est relativement intéressant comme profil financier en termes de taxes, etc.

Je ne suis pas spécialiste de droits des compagnies, mais il me semble qu’en fait le terme de fondation ne réfère pas nécessairement à des ONG, ça peut également être des fondations qui ont un but de profit. Mais en fait en 97, définitivement ça devient une fondation reconnue d’intérêt public, non profit, dont la mission est de supporter le développement d’un internet ouvert et libre.

Walid : est-ce que tu sais si les fondateurs de départ sont toujours là ?

Lwenn : non, ils nous ont laissé la main sur l’opération, mais c’est vrai qu’on discute encore avec eux et on garde, en fait on garde de très bonnes, ça c’est un truc dont on a parlé un peu plus tard, on a tendance à garder de très bonnes relations avec nos anciens membres mais aussi nos anciens projets. Donc quand tu poses des questions sur notre communauté, pardon les spoilers, en fait on va souvent mettre en contact des projets dont on pense qu’ils ont des choses à se dire parce que on a fondé l’un des projets et on peut se dire « Hey, ce nouveau projet qui arrive, qui est très proche de ce que tu fais, peut-être que ça t’intéresse de discuter avec eux ». Et ça c’est quelque chose qu’on fait beaucoup.

L’équipe NLnet


Walid : actuellement, vous êtes combien de personnes ?

Lwenn : alors, on est 9, mais apparemment on vient d’embaucher 2 autres personnes qui commencent la semaine prochaine. C’est une très petite organisation. D’un point de vue extérieur, quand j’ai découvert NLnet, c’était assez dingue l’impact, le nombre de projets et le nombre de financements qui arrivaient à circuler quand j’ai découvert que c’était…

Donc avant que mon collègue et moi qui avons été recrutés en janvier arrivions, c’était 6 personnes et j’étais sidérée d’apprendre ça.

Walid : quand tu m’as dit ça au FOSDEM, je me demandais comment c’était possible.

Lwenn : tu vois le stand au FOSDEM, il y avait moins de 10 personnes, t’as rencontré tout NLnet.

La place de NLNet dans le libre européen


Walid : ouais, c’est ça. Là on a commencé à parler un peu de la Commission européenne. Une des choses aussi pour introduire NLnet, comment vous vous situez dans l’écosystème du libre en Europe ?

Lwenn : alors, c’est une question un peu large. Je pense qu’en fait, il y a deux aspects de cette question. On travaille avec différents partenaires.

On fait partie d’un réseau de partenaires. Et ça, c’est quelque chose sur lequel on se repose beaucoup parce que nos partenaires, donc la formation NixOS, et nos partenaires Radically Open Security, qui est une compagnie qui fait des audits de sécurité, et dont tous les bénéfices nets sont reversés à d’autres associations, en l’occurrence à nous, envers le logiciel libre, donc comme donation. Et en fait, ces partenaires avec qui on travaille, également APELL, ils vont nous aider quand on travaille avec des projets pour pouvoir orienter nos projets vers des experts sur différents aspects. Nixos, ils sont très bons en packaging. Et en fait, packaging pour Nix, ça permet de pouvoir avoir ce que tu développes qui peut tourner dans n’importe quelle distribution. Donc c’est quand même super intéressant et rapide.

Travailler avec un audit de sécurité, surtout avec ce qui arrive dans le climat politique européen, le Cyber Resilience Act, c’est quelque chose qu’on demande à tous nos projets parce que tu mets ton code partout sur Internet, libre d’accès, open source. C’est quand même trop bien quand tu as ton financement de pouvoir aussi travailler avec quelqu’un qui va juste lire ton code et vérifier toutes tes vulnérabilités pour être sûr que tout ce que tu fais soit bien d’un point de vue sécurité. On travaille avec une université qui nous aide beaucoup, parce qu’ils sont passionnés d’accessibilité. Donc en fait, chacun de nos projets, ils les évaluent en termes d’accessibilité, ils leur font un audit pour pouvoir les aider à améliorer leur accessibilité parce que l’Internet devrait être pour tout le monde.

Walid : que ça soit les audits de sécurité ou l’accessibilité, je pense par exemple aux audits de sécurité, c’est quelque chose qui est compliqué, qui coûte cher pour un projets libre, qu’en général on ne fait pas forcément, parce qu’on n’a pas les compétences ou on ne connaît pas les gens ou ça va nous coûter de l’argent ou on n’a pas le temps.

Lwenn : c’est bien pour ça que nous quand on sélectionne un projet, l’audit de sécurité et l’audit d’accessibilité s’il y a une user-facing interface (NDLR : interface utilisateur) c’est nécessaire. Ça fait partie des clauses qui vont avec nos donations qui sont qu’il va y avoir un audit de sécurité à un moment donné. Et je pense que c’est quand même fantastique pour les projets qui travaillent avec nous d’avoir cette possibilité là. Parce que oui c’est cher, c’est chiant à organiser et aussi c’est dur de trouver en fait des experts dans ce que tu fais très spécifiquement pour jeter un œil à ton code. Parce qu’un expert en database (NDLR : base de données) c’est pas la même chose qu’un expert en système réseau en termes de sécurité.

Walid : la question aussi que je me posais c’était s’il y avait ailleurs, en Europe et puis ailleurs dans le monde, des entités qui ressemblent à NLnet ? Est-ce que vous en connaissez chez NLnet ?

Lwenn : dans le libre européen, pas vraiment d’équivalent, mais des gens qui ont des missions similaires, oui. Le Sovereign Tech Fund, qui est plus connu que nous, a aussi des financements qui sont beaucoup plus importants. Donc ça va être pour les projets plus gros, je pense que ça va jusqu’à un demi-million ou un million. C’est beaucoup plus important et ils ont quand même une barrière d’entrée un peu plus haute en termes de quel type de projet peut être sélectionné et d’administration qui doit être faite par les projets en amont du processus de sélection.

Michiel : notre budget est aussi grand que le leur, et je pense potentiellement plus grand. Ils ne sont certainement pas plus important : ils ont financé moins de 20 projets depuis le début de leur existence, c’est à dire moins de 3 ans.

Walid : excuse-moi, Sovereign Tech Fund, qui est derrière ce fonds ?

Lwenn : c’est des gens très sympathiques, mais qui sont un peu plus, qui travaillent un peu plus avec des investissements, je crois, ils ont quelques investissements privés, et ils ont aussi quelques investissements, ah, ils sont supportés par le gouvernement allemand.

Walid : ah d’accord. Ouais, c’est allemand. Ok, et vous vous parlez ?

Lwenn : parfois. On a certains projets, en fait, qui après avoir travaillé avec nous, vont travailler avec le Sovereign Tech Fund parce qu’une bourse de 50 000 euros pour un an, ça fait un bon tremplin pour ensuite demander d’autres financements. Et les autres personnes dont je voulais te parler, c’était le Prototype Fund en Allemagne aussi, qui va en fait présélectionner les candidats avant de les présenter au gouvernement allemand. Mais il y a une différence, c’est que le Prototype Fund, il faut s’incorporer en compagnie en Allemagne avant de recevoir les financements du gouvernement allemand.

Je pense que ce qui rend NLnet unique, en fait, c’est la vitesse du processus. Parce que, donc, là, les gens avec qui j’ai eu un appel ce matin, qui ont été acceptés, c’est des gens qui ont soumis leur candidature en décembre, avant le 1er décembre. Donc, ça fait quand même 4 mois. C’est la rapidité du processus de bout en bout, parce que là on va commencer à signer.

On travaille beaucoup avec des personnes individuelles, ce qui nous rend relativement uniques, parce qu’en fait il n’y a pas de structure administrative nécessaire pour candidater. Tu peux candidater comme personne, toi, Walid, tu peux écrire une proposition demain, de projet. Tu peux candidater avec ta compagnie, ou tu peux candidater en étant membre d’un collectif ou d’une organisation ou d’une université.


Walid : c’est quelque chose d’assez unique le fait que moi, en tant qu’individu, je peux demander des fonds que j’ai pas besoin d’avoir une…

Lwenn : une incorporation.

Voilà, ouais, ça c’est vraiment… T’as même pas besoin d’être majeur. Et t’as pas forcément besoin non plus de révéler un nom réel. Nous il nous faut juste un nom réel et une adresse pour envoyer les fonds, mais en termes de garder ta confidentialité, ton anonymat, on peut. Travailler avec une personne mineure avec l’aval de ses parents, on peut. C’est cette ouverture je pense qui fait notre différence.


Walid : dernière question là-dessus, les candidats, ils doivent être européens ? Ils doivent vivre en Europe ? Ils peuvent être ailleurs ?

Lwenn : les projets doivent avoir une dimension européenne. Dimension européenne, ça peut vouloir dire que un des collaborateurs du projet réside en Europe. Ça peut vouloir dire qu’une des personnes qui développent est en Europe. Ça peut vouloir dire que le projet est fait pour le bénéfice d’une organisation en Europe. On veut des projets qui soient à dimension européenne, qui aient un impact en Europe. Donc on fait attention à ça. Mais d’un autre côté, c’est quelque chose avec lequel on a une certaine flexibilité sur ce que signifie être européen, parce que beaucoup de projets sur l’infrastructure Internet vont bénéficier à des utilisateurs européens.

L’histoire de Next Generation Internet


Walid : partie suivante. Donc là, tu l’as un petit peu mentionné au départ, mais tu as parlé de NGI0. Maintenant, ce que j’aimerais bien, c’est que tu puisses nous parler plus en détail de ce que c’est Next Generation Internet. Ça m’intéresse parce que je crois que je ne connais pas moi-même toute l’histoire. J’aimerais bien un peu l’histoire de ce que c’est et comment vous en êtes arrivés à collaborer ensemble.

Lwenn : en 2016, la Commission européenne est très triste des résultats de son programme précédent pour développer l’Internet européen. C’était Future Internet ou quelque chose comme ça. Elle se dis qu’avant de créer ce nouveau programme, Next Generation Internet, et de continuer à injecter de l’argent dans les développements internet, qui sont quand même un endroit stratégique et un endroit d’impact pour la Commission européenne, ils vont organiser un workshop avec des experts. Le contact entre NLnet et NGI se fait un peu par hasard parce que Tim Berners-Lee était invité à ce workshop, il a annulé en dernière minute. Michiel Leenaars, qui est à NLnet, est invité à la place et il va travailler ensuite avec Gartner sur la communauté open source. Il leur rend un rapport, une étude sur la façon dont l’open source révolutionne Internet et est un endroit stratégique et crucial pour lequel il faut faire des financements.

Et donc, après ce rapport, la Commission européenne décide que l’une des thématiques qui va devoir être portée par NGI, ça va être NGI Zero, qui est de valoriser l’open source c’est quand même dynamique, c’est créatif, c’est un lieu d’échange et c’est crucial de dynamiser l’open source européen pour toute l’infrastructure internet. NGI c’est pas seulement NGI Zero, il y a plusieurs thématiques qui sont portées par NGI. Nous on travaille avec NGI Zero qui sont les fonds open source, il y a aussi d’autres fonds pour renforcer les technologies européennes.

NGI Zero c’est le fonds avec lequel on travaille, qui nous a été attribué. La Commission européenne décide aussi de travailler différemment de la façon dont ils ont travaillé avec Future Internet, qui est de contacter des fondations comme la nôtre, qui ont l’habitude de travailler avec des projets, pour qu’on leur soumette des projets, pour nous permettre d’attribuer les fonds.

Walid : c’est un grand changement de stratégie de leur part finalement.

Lwenn : ouais.

Walid : en fait, en vous délégant toute la partie appel à projet, suivi, financement, etc., ils deviennent juste les financeurs. Ils apportent les fonds, quoi. Est-ce qu’ils font plus qu’apporter les fonds ?

Lwenn : oui. Tous les projets qui sont financés par NLnet sont évalués par un comité externe. Donc après qu’on a fait tout notre travail en amont de recherche et d’évaluation, qu’on a discuté avec les projets pour raffiner leur candidature, on va en discuter un peu plus sur la façon dont on travaille avec nos projets, il va y avoir un comité externe qui est validé par la Commission européenne, qui va, en fait, vérifier qu’on n’est pas en train de faire absolument n’importe quoi avec leurs fonds. On a une relation de grande confiance avec les gens de NGI, on interagit régulièrement avec eux et nous on leur rend des rapports. Ce qu’on fait c’est qu’on prend aussi tout l’administratif des projets pour qu’ils n’aient pas besoin de faire ces rapports et ces audits. C’est nous qui prenons la responsabilité.

Walid : et ces fonds sur NGI Zéro, ils passent forcément par NLnet ou il y a aussi d’autres organismes qui sont aussi capables de distribuer des fonds, de financer des projets à travers ces fonds ?

Lwenn : alors sur NGI, il y a d’autres organes. En fait NGI a plusieurs fonds et chaque fond je crois est attribué à un organisme spécifique ou bien entre différents organismes mais NGI Zero passe par nous effectivement.

Walid : ok alors on a commencé à en parler tout à l’heure, vraiment sur les financements qui sont effectués par NLnet. Donc là ce que tu disais c’est qu’on a à la fois des fonds qui proviennent donc de NGI0 et à la fois des fonds qui proviennent en propres, c’est-à-dire des donations. C’est les deux moyens que vous avez, vous, pour investir dans des projets ?

Lwenn : on va régulièrement faire du lobbying auprès de personnes dont on sait qu’elles ont de l’argent à donner à l’open source européen pour essayer de les convaincre de nous augmenter.

Donc récemment on a obtenu aussi les fonds NGI Zero Commons qui est un nouveau fonds européen pour les communs numériques. On en avait discuté à FOSDEM, tu étais très enthousiaste à cette idée. C’est un moment très intense pour nous parce qu’en fait avec ce fonds on a quasiment autant, on a deux fois plus d’argent que ce qu’on a eu depuis le début d’NLnet, au total. Parce que là on a 21 millions, quelque chose comme ça, pour les communs numériques. C’est merveilleux. C’est aussi beaucoup de responsabilité et c’est assez terrifiant.


Donc oui, on a des financements européens, on a aussi des donations, des donations de personnes individuelles, des petites donations, quelques euros par mois, des grosses donations.

Un de nos fonds, c’est un fonds de recherche qui est en fait un fonds nommé par une personne qui, à sa mort, lui et sa sœur avaient décidé de léguer, je crois que c’est un demi-million, à la recherche libre d’accès sur les thèmes d’Internet. Et donc ça c’est un fond de recherche qui est un fonds séparé avec lequel on travaille. On a aussi les fonds propres qui viennent de la vente historique d’NLnet. On a différentes sources de financement qui ne sont pas que des financements européens mais c’est vrai que NGI Zero c’est quand même un programme dont on bénéficie beaucoup et on peut faire beaucoup de choses très très cool avec donc c’est quand même merveilleux.

Dans quoi NLnet investit


Walid : maintenant ce que j’aimerais bien savoir, c’est, tu as commencé tout à l’heure à en parler un tout petit peu, c’est dans quoi vous investissez ? Tu as parlé des core technologies, donc vraiment les technologies du cœur d’Internet, et en fait, ce que je voulais savoir, c’était, est-ce qu’on parle plutôt de matériel, est-ce qu’on parle plutôt de logiciel ? Enfin voilà, c’est quoi les types de technologies dans lesquelles vous investissez ?

Lwenn : alors, les fonds européens, NGI Zeo, ont des règles plus strictes que les fonds NLnet. Les fonds européens sont nécessairement en recherche et développement. Malheureusement, on ne peut pas financer de maintenance. Donc, c’est toujours des efforts de recherche, de développement. Les coûts des serveurs, ce n’est pas quelque chose qu’on peut faire avec nos projets.

C’est triste, mais voilà, c’est toujours de l’innovation. Et à travers ces fonds de recherche et développement, donc c’est toujours de l’open source, et c’est du développement logiciel, aussi du développement matériel. On essaie d’identifier les technologies qui sont nécessaires au fonctionnement d’Internet tel qu’on le connaît, les technologies qui rendent Internet un endroit plus décentralisé, plus diversifié, plus accessible, qui permettent aussi aux utilisateurs d’avoir plus de contrôle sur leurs machines, sur leur usage d’Internet. De la même façon, on finance des projets matériels, des projets open source hardware. On aimerait en financer plus. C’est souvent difficile de faire des projets matériels avec les budgets qu’on a parce que, ben, il faut de l’argent. Développer des cartes mères, ça coûte cher.

Ça coûte très cher. Mais quand on a l’opportunité de travailler avec quelqu’un qui fait un projet open hardware. On aime beaucoup ça. Les types de technologies, ça dépend. Je ne peux pas te citer un type de choses qui va être notre objectif.

C’est tellement varié. On essaie de se concentrer sur ce qui va pouvoir impacter Internet pour le mieux. Ce qu’on aime, c’est quand les développements vont pouvoir être réutilisables parmi plusieurs projets. On adore les gens qui font des librairies, qui peuvent être utilisés à travers plusieurs bases de codes.

Ça dépend tellement de l’usage que les gens font aussi d’Internet. Oui, les protocoles réseau, c’est fondamental, mais on est au 21ème siècle, les réseaux sociaux sont aussi devenus un aspect fondamental d’Internet pour beaucoup de gens. On a commencé à travailler très récemment avec un fonds ouvert par Mobifree pour pouvoir libérer les smartphones parce que maintenant c’est fondamental.

Walid : on a parlé à Gaël Duval quand je l’ai interviewé sur Murena et /e/OS et tout ça.

Lwenn : ouais. En fait, c’est la beauté de ça et c’est aussi pour ça qu’on est si peu et qu’on a tellement de travail, c’est qu’en fait, chaque projet, on doit voir par rapport à cette vision, cette vision d’Internet et essayer de calculer, attendez, ça, c’est très joli en termes de recherche, est-ce que des gens vont l’utiliser ? Ça, c’est réutilisable, c’est solide, mais est-ce que ce sera encore là dans trois ans ? Est-ce que ce sera encore important d’avoir cette solution dans trois ans ? Donc autant que possible on essaie de pousser pour des stacks (NDLR piles logicielles).

Donc on essaie de pousser pour des stacks qui soient open source autant que possible. Parfois ça peut faire sens parce qu’il y a des stacks propriétaires, d’avoir des solutions pour interagir avec les stacks propriétaires, genre pour l’instant, parce qu’il faut être pragmatique.

Comment faire de la veille ?


Walid : la question suivante que ça m’amène c’est, vu le nombre de projets que vous avez, vous devez être super occupé, comment vous avez le temps de faire de la veille en fait ?

Lwenn : donc c’est un truc que je vais dire plusieurs fois à travers ce podcast, c’est que nous on peut rien faire pour les candidats s’ils ne candidatent pas. Pourquoi je dis ça à ce moment-là ? Parce qu’en fait on apprend tellement de choses par les projets avec lesquels on travaille déjà, qui nous disent « Hey! » Donc je travaille sur ce truc, mais en fait il y a cette nouvelle chose qui a l’air de devenir super importante là maintenant tout de suite, et viennent de nous donner un sacré coup de pouce, parce que, ah tiens, c’est un sujet qui est ici. Donc ouais, c’est vrai qu’on a besoin de toujours être un peu à l’écoute ou en veille, c’est aussi pour ça qu’on a en fait des appels à candidature avec des temporalités très courtes et très réguliers, qui sont deux mois entre chaque appel à candidature, genre les gens qui vont écouter ce podcast.

Notre prochaine deadline (NDLR : date limite) pour un appel à candidature, ça va être le 1er juin. On serait ravis de recevoir des candidatures, mais si vous la ratez, il y aura une autre deadline, soit en août, soit en octobre, dépendant d’à quel point on est débordé.

Donc le fait d’avoir des temporalités très courtes, ça nous permet aussi de voir où en sont les gens avec qui on travaille.

Walid : quand j’en ai entendu parler la première fois, avec les gens que j’ai interviewés, et les discussions un peu en off qu’on a eues, la première chose que je me suis dit, c’est « Ah, si on avait eu ça dans les années 2000 », sur nos projets, qui finalement ont fini par changer de modèle économique, parce qu’on ne pouvait pas se faire financer, je me suis dit « Ah, il y a certainement des projets qui auraient pu continuer à garder un modèle communautaire », par exemple, mais à l’époque, il n’y avait pas ces financements-là.

Lwenn : ça, on essaye aussi, justement, on essaye aussi de conseiller les gens qui travaillent, les gens qu’on fund (NDLR : finance) et qui travaillent avec nous. On essaye aussi de voir quelles sont leurs options en termes de soutenabilité et en termes de modèles économiques. Un de nos partenaires, donc APELL, c’est l’association… Je me souviens plus de leur nom. Essentiellement, c’est des pros de tous les modèles économiques possibles de logiciels libres et d’open source pour essayer de voir ce qui fait sens pour différents projets.

Donc, c’est quelque chose auquel on tient beaucoup, qui est aussi la soutenabilité et comment les gens peuvent gagner leur vie en faisant de l’open source.

Quels types de modèles économiques financer ?


Walid : il y a des modèles économiques que vous ne financez pas, je pense par exemple typiquement à des modèles open core ou certains modèles pour lesquels il y a un risque quelconque qu’un jour le projet se referme ? (NDLR voir l’épisode d’introduction aux modèles économiques et gouvernances du logiciel libre)

Lwenn : tous les projets qu’on finance doivent être sous une licence reconnue par l’OSI comme une licence open source. Ça va être du GPL, ça va être de l’AGPL, ça va être du MIT, essentiellement. Donc déjà on a quand même cette grosse contrainte que ce sont des licences qui sont clairement open source. Quand nous on finance de la recherche, on n’accepte pas forcément les modèles du dual licensing (NDLR : double licence). Après, si ça peut arriver qu’on travaille avec quelqu’un qui va avoir une solution propriétaire, mais aussi une solution open source qui est entièrement open source, self-standing et qui s’intègre bien avec d’autres choses. Ça, c’est pas du tout un souci pour nous. Mais c’est important que nos fonds de recherche et développement ce soit clairement de l’open source et que ce soit quelque chose qui s’intègre dans les stacks open source.

Walid : je voulais dire typiquement des projets où on va dire bon ben voilà tu as la version elle est free, elle est open source et puis pour avoir les fonctionnalités supplémentaires il te faut la version qui elle n’est pas open source tu vois. Et là il faut que tu payes 50 euros par mois tu vois. Est-ce que vous êtes capable de financer ce type de modèle économique ou pas ?

Lwenn : je vais revenir un tout petit peu en arrière, si tu me permets. De manière très terre à terre, la façon dont fonctionnent nos financements, c’est pas des salaires, c’est des donations. C’est des donations sur des choses que les gens ont développées. Donc en fait, on donne pas d’argent en avance. On donne quand on reçoit, enfin, quand cette personne a développé le code, on a fait un accord qu’il va y avoir une donation parce qu’on apprécie ce que cette personne est en train de faire sur Internet. Et ces donations sont conditionnées au fait que tout ce qui est fait soit open source. Si quelqu’un a un modèle économique qui est de l’open core, mais que le projet avec lequel il candidate pour nous, c’est d’ajouter des fonctionnalités au core (NDLR : coeur du logiciel), effectivement, et à la version complètement open source, complètement gratuite. Pourquoi pas ? Si ça fait sens, pourquoi pas ? On n’a pas d’a priori sur les choix et les modèles économiques, mais on a ces restrictions qui sont que toutes ces donations sont conditionnées au fait que les technologies développées soient open source.

Candidater et être sélectionné : qu’est-ce que cela implique ?


Walid : la partie suivante, c’est comment on postule, comment vous sélectionnez tout ça ? Est-ce que tu peux m’expliquer un peu, je vais dire un flux standard mais un flux, de comment ça se passe pour se faire financer du moment où vous faites un appel à candidature jusqu’au moment où vous donnez les fonds ?

Lwenn : je vais te donner la version pour les candidats qui est relativement simple et je vais te donner la version pour nous qui est relativement plus difficile.

Walid : oui voilà, la vôtre elle m’intéresse beaucoup, la vôtre.

Lwenn : donc, je pense que tu as vu sur notre site, il y a les différents fonds avec « Est-ce que vous avez un projet ? », « Soumettez votre projet. » Et je ne sais pas si tu as ouvert le formulaire par curiosité. Notre formulaire est très simple. Pour un candidat, c’est environ peut-être une demi-heure de travail. La raison pour laquelle on essaie d’avoir ce formulaire aussi simple, c’est parce que ça permet aux gens de nous dire ce qu’ils pensent être important à propos de leur projet. Et ce qui est important pour eux, enfin pour iel est de présenter leur projet, pas forcément avec des grandes explications sur comment ça va révolutionner le stade technologique, mais juste de se concentrer sur « j’ai besoin d’argent pour faire ça, ça, ça et ça, est-ce que ça vous branche ? »

Donc on essaie vraiment de simplifier la procédure de candidature. Ça, ça va être l’étape de candidature. Les candidatures, il y a des cycles tous les deux mois. Ensuite, il y a une période d’attente pendant qu’on évalue les candidatures. Et il y a deux cycles de sélection. Le premier cycle, c’est une pré-sélection, ou bien, enfin, c’est une première sélection où on décide quels sont les projets avec qui on a envie de poser plus de questions ou bien d’essayer de voir s’il y a peut-être quelque chose, versus quels sont les projets dont on pense que, aussi cool qu’ils soient, c’est peut-être pas le bon fit (NDLR : ça ne correspond pas). Donc après quelques semaines pour le premier cycle, on essaie de garder ça en dessous de quatre semaines, mais c’est difficile. Ouais, en fait je devrais pas dire ça parce que je suis déjà, on est déjà en retard pour l’avril. On essaie de garder ça en dessous de huit semaines, mais c’est un peu difficile pour pouvoir contacter déjà les projets qu’on a décidé de discuter un peu davantage avec eux versus les projets dont on pense que c’est pas forcément un certain marché pour nous. Après ce premier cycle de sélection, on va ensuite avoir des discussions individuelles avec les projets, donc ils vont recevoir une ou deux semaines après l’annonce de la première sélection des questions supplémentaires pour donner des détails, nous expliquer un peu plus leur vision, nous donner les détails techniques, nous donner un budget, etc.

Et on va ensuite revoir toutes ces réponses, évaluer et essayer de décider quels sont les projets qui nous semblent viables et qu’on va sélectionner. Et ensuite, lorsqu’on a sélectionné après ce deuxième cycle les projets, on va ensuite les envoyer à un comité externe qui va donc, comme on disait, vérifier cette liste de différents projets qu’on a notés et qu’on a pré-reviewés. Et après ça, quand on a la décision finale du comité externe, on peut commencer. On peut accueillir les projets et commencer à travailler avec eux.

En interne, c’est moins léger comme procédure. Pour le fond d’avril, sur notre dashboard de travail, on reçoit 400 candidatures qui arrivent et on va évaluer, donc on va lire chacune de ces candidatures et les évaluer selon trois critères, l’excellence technique, l’impact et le potentiel stratégique et la valeur pour l’argent ou bien l’impact pour l’argent. Du coup, il y a ces outils de notation, mais effectivement c’est toujours très clinique et ça ne suffit pas à représenter la complexité des projets. Donc, on va à chaque fois devoir faire de la recherche supplémentaire, aller visiter les différents sites des projets, essayer de comprendre, ok, c’est ça ta place dans l’écosystème, c’est ça avec qui tu travailles, c’est ça ton stack, quelles sont tes relations avec les autres projets dans lesquels tu t’intègres, si t’as envie de faire de l’ActivityPub, quelles sont tes relations avec les autres projets ActivityPub, etc. Donc on va en fait jeter un œil à tout ça, formuler quelques questions préalables pendant qu’on décide ce premier cycle de sélection. Donc ça, comme tu t’imagines, on est quatre, en parallèle on est toujours en train de discuter avec nos projets qui sont en train de travailler et d’être fondés. C’est beaucoup, mais du coup voilà, ce sont un peu les critères de présélection et ensuite après, quand on a décidé quel projet passe cette première étape de sélection, par consensus, on va leur poser des questions supplémentaires. Peut-être que ça va être quelque chose comme, bon, on est ravi de ton impact, mais on a quelques questions sur pourquoi est-ce que tu es en train d’utiliser cette librairie plutôt que cette librairie. Donc ça peut être des questions très techniques, comme ça peut être des questions un peu plus large scope (NDLR : un périmètre plus large), genre c’est juste ce qui nous manque pour faire une décision finale. Comment tu envisages l’impact de ton projet, ou bien comment tu as organisé ton budget, ou bien quelles sont tes étapes de recherche sur ce projet, etc. Voilà, ça va être le type de questions qu’on va poser, mais c’est vraiment des questions de discussion, pour essayer d’obtenir des informations supplémentaires pour faire notre décision.

Après ces questions, ou ce dialogue parfois, puisque parfois il peut y avoir des moments où les projets commencent à être déjà modifiés un petit peu avec ces questions, du genre typiquement ce que je te disais qu’on peut pas financer de la maintenance mais par contre qu’on peut financer de la recherche on va discuter avec certains projets « tiens je vois que tu as des coûts de serveurs de maintenance ça va pas marcher mais cet aspect de ta recherche m’intéresse beaucoup cet aspect peut-être un peu moins » donc ça peut être aussi une étape de négociation où on peut raffiner le projet pour qu’il ait le meilleur impact possible et le meilleur aspect financier possible. Après cette étape de dialogue, on fait cette sélection finale, on envoie ça au comité de revue externe et on peut envoyer la bonne nouvelle après. Donc c’est un processus qui est relativement rapide et très peu d’administratifs et très peu de casse-tête pour les candidats. Et en fait, notre rôle, notre mission, c’est de prendre un maximum de casse-tête administratif pour les projets qu’on finance.

Walid : on en a parlé un tout petit peu tout à l’heure, mais dans la discussion, vous regardez la soutenabilité économique du projet? Non, c’est plutôt ça, c’est plutôt des choses qu’on discute après, en général, lorsqu’on travaille avec des projets spécifiquement. Ce que je te disais, c’est qu’en fait, n’importe qui peut candidater. Ça peut être des individus, ça peut être des coopératives, ça peut être des chercheurs, enfin des chercheurs académiques, ça peut être des compagnies. Et ça c’est pas quelque chose sur lequel on discrimine du tout.

Obtenir des subventions européennes parce que c’est un projet qui est nécessaire et louable et n’aura jamais de modèle économique pertinent, parce que le capitalisme, c’est un modèle économique. Et c’est un modèle économique social qu’on valorise beaucoup de fait. C’est notre mission, si tu veux.


Donc c’est pas… En fait, c’est quelque chose sur lequel on peut conseiller certains projets qui souhaitent avoir des pistes pour avoir un modèle économique, mais c’est pas nécessairement quelque chose qui est un deal-breaker pour nous.

Ça nous fait plaisir si quelque chose a besoin d’avoir un modèle économique derrière pour pouvoir continuer. ça nous fait plaisir si cette personne peut continuer à se soutenir. Voilà.

Walid : pendant que les gens sont en train de réaliser ce qu’ils ont dit qu’ils allaient réaliser, vous avez des échanges réguliers avec eux ?

Lwenn : oui.

Walid : enfin, je sais pas, c’est des points ? Comment ça se passe en fait ?

Lwenn : c’est aussi un peu la magie de cet organisme, c’est que les projets avec qui on travaille sont très autonomes. On fait pas de points, on fait pas de rapports. Ce qu’on a, c’est que lorsqu’on a sélectionné un projet, on va ensuite mettre en place un memorandum, donc une garantie informelle que cette personne va recevoir des donations caritatives pour son travail envers un internet libre. Mais cette personne nous envoie avec ce mémorandum, on a un plan de projet avec une description des différentes tâches que cette personne a prévue de faire et nous on dit oui ça nous paraît être une tâche qui est louable et importante et quand tu l’auras faite on va te donner 4000 euros. Et ensuite, les projets nous envoient des demandes de paiement. Lorsqu’ils ont accompli leur tâche, ils nous envoient un lien vers leur dépôt ou bien vers la doc ou quoi que ce soit, juste pour nous dire « Hey, j’ai fait ce que j’avais dit que j’allais faire, on vérifie et on envoie l’argent ».

Walid : ça veut dire quoi « vous vérifiez »? C’est-à-dire que vous vérifiez que ça a été fait ou vous vérifiez…?

Lwenn : ben si, on vérifie que ça a été fait, on vérifie que ça compile.

Walid : oui, c’est ça, ok, d’accord. Vous prenez le code, vous le…

Lwenn : on le fait tourner, si c’est du packaging, on le fait tourner, si c’est un blueprint de hardware (NDLR : dessin technique d’un matériel), c’est un peu plus compliqué, mais on essaie de voir si on peut construire.

Walid : ça prend du temps tout ça ?

Lwenn : oui, oui, effectivement. Par contre, les gens ne nous font pas de rapport. On ne demande pas des rapports techniques de 12 pages, de « ah, j’avais prévu de faire ça pour cette raison, j’ai décidé de faire ça ». C’est vraiment aussi simple, pour le projet avec qui on travaille, c’est aussi simple que de dire : « j’avais dit que j’allais développer une librairie, voilà les librairies ».

Walid : c’est génial, ça réduit la contribution et le financement à quelque chose d’extrêmement simple pour les gens. Ça c’est vraiment…

Lwenn : en fait, si tu veux, notre postulat de départ, c’est qu’il y a plein de gens qui sont absolument brillants en développement technique et tous ces process de management de projet ou bien d’organisation de financement, c’est l’enfer.

Et tous les process sociaux où il faut parler à des gens, faire du reporting, etc. c’est une galère sans nom. Et du coup, nous ce qu’on essaie de faire, c’est de simplifier le processus au maximum pour que beaucoup plus de gens puissent obtenir des financements pour le logiciel libre qu’ils développent en réduisant la charge pour ces personnes. C’est aussi pour ça que la question que tu me poses à propos des business models (NDLR : modèles économiques), justement ce qu’on a envie de faire c’est de permettre aux gens de pouvoir développer le logiciel libre qu’ils veulent développer sans avoir besoin de se casser la tête à trouver la façon de vendre ça à les venture capital (NDLR : capitaux risqueurs, VC) ou bien de monter une compagnie là-dessus.

La communauté autour de NLnet


Walid : le sujet suivant sur lequel je voulais t’interroger, moi j’ai appelé ça la communauté autour de NLnet, c’est à dire il y a plein de projets qui ont été financés par NLnet, il y en a toujours plus. Est-ce que vous NLnet vous animez une communauté ? Est-ce que vous faites que de la mise en relation de projets ? Est-ce que voilà, je sais pas, est-ce que vous avez des webinaires ? Est-ce que vous avez des événements ? Enfin qu’est-ce que vous avez vous pour faire en sorte que les gens interagissent entre eux dans cette communauté ?

Lwenn : est-ce que nous, on anime une communauté ? Non. C’est un choix, et c’est un choix délibéré. Parce qu’on pense que l’Internet devrait être décentralisé, parce qu’on pense que les projets devraient interagir dans leur propre communauté pour eux et non pas dans une communauté artificielle d’avoir reçu de l’argent de la même source. Pour nous, ça ne fait pas sens de faire des cohortes ou bien des promotions pour des gens qui ont des travaux très différents. En revanche, on adore créer des connexions directes dès qu’on peut. Si un nouveau projet, on pense que ça peut être intéressant de les mettre en contact avec des projets précédents avec qui on a travaillé, on va les mettre en contact directement. On a effectivement un Speaker Bureau qui permet de nous contacter ou demander si on aurait quelqu’un à proposer pour intervenir à un événement, prendre la parole. On organise des webinaires qui permettent à certains de nos projets, quand ils ont abouti à notre Success Story, de présenter leur travail et on a un réseau de partenaires, sur lequel j’ai un peu touché, qui propose de l’aide et du support à nos projets.

Et donc on est ravi quand on voit des projets qui s’entraident, ou qui commencent à travailler ensemble, mais on a un choix délibéré de ne pas créer notre propre communauté, forum, IRC, et puis aussi voilà, tu t’en doutes…

Walid : vous n’avez pas le temps quoi.

Lwenn : ouais.

Comment est-ce qu’NLnet fait sa publicité ?


Walid : voilà, bref. Bah oui. Ma question suivante, qui est assez connexe à celle que je viens de te poser, c’est comment est-ce que vous faites de la pub en fait ? Comment est-ce que vous faites connaître des gens ?

Lwenn : bah, toi ! Nos projets sont notre meilleure publicité. On demande aux projets qu’on finance de nous reconnaître en termes de financement parce que c’est sympa, sur leur site ou sur leur repo, un peu comme ils veulent. Et c’est toujours très sympa quand on a de nouveaux projets ou de nouvelles personnes qui nous contactent en disant « Hé, j’ai entendu parler de vous par tel ou tel autre projet d’open source avec lequel je participe et j’avais envie de candidater. » Donc nos projets, c’est notre meilleure publicité. On est un peu sur Mastodon, ActivityPub, mais c’est vrai qu’on aime beaucoup garder les choses très techniques et on aime ce bouche à oreille et on aime le fait qu’on n’a pas besoin de faire des publicités sur Facebook, Google, Mastodon et on préfère au contraire que ce soit recommandé par tes amis : « tiens, ton projet de logiciel, je sais que tu es en recherche de financement depuis trois ans, tu devrais peut-être pouvoir te candidater à NLnet ». Ça, ça nous fait très chaud au cœur quand ça arrive.

Walid : est-ce que tu peux donner un peu des exemples, ce que j’ai appelé les success stories, des projets qui se sont vraiment développés à travers les financements NLnet ?

Lwenn : d’une part, on aime les projets qui deviennent grands et qui ont beaucoup de développement, mais pour nous, chaque personne qui pendant un an ou deux a développé du logiciel libre et open source avec les financements qu’il lui fallait pour pouvoir continuer à travailler sur sa passion, c’est une success story. Mais en termes d’impact, on a beaucoup travaillé avec ActivityPub. Je pense que tu as ce podcast sur Castopod.

Walid : tout à fait, ActivityPub étant mes sujets fétiches sur le podcast.

Lwenn : mais on a aussi travaillé avec Peertube et Mobilizon, WireGuard qui sont excellents en termes de sécurité, CryptPad qui nous permettent de faire… sur lesquels on a échangé pour la trame de cet épisode, qui font des documents collaboratifs chiffrés de bout en bout, soit sur leur serveur, soit self-hosted. Jitsi également, puisqu’on est en France, c’est quand même intéressant de mentionner. Ça fait des exemples intéressants, mais c’est vrai que si tu vas voir sur notre site, on a plus que 400 projets. Il y a des trucs de très haut niveau, des réseaux sociaux. Il y a des trucs de très bas niveau, du bootloader (NDLR : amorçeur de démarrage). Et pour du très très bas niveau d’architecture internet, on vient de « on-boarder » (NDLR : intégrer) un projet pour créer des batteries autonomes. Enfin, pour créer des kits de développement de batteries autonomes open source. Voilà. On est vraiment à tous les niveaux du stack internet, de l’énergie aux réseaux sociaux.

Qu’est-ce que cela fait de faire ce travail ?


Walid : je voudrais te poser une question que je n’avais pas notée dedans mais qui est intéressant. Qu’est-ce que ça te fait à toi, personnellement, de financer ces projets, ces gens qui, avec cet argent-là, vont développer des trucs qu’ils n’auraient peut-être pas pu développer autrement ? Qu’est-ce que ça te fait à toi, en fait ?

Lwenn : c’est incroyable. Franchement, c’est incroyable. Je t’ai dit au début que je venais de la recherche en philosophie, donc ça a fait quand même un changement radical, mais quelque chose qui est merveilleux et qui est quelque chose qui me plaît beaucoup dans mon travail, c’est que je peux échanger et apprendre d’experts en permanence. C’est vraiment comme d’être née à sniper tous les jours, sur plein de sujets différents. Et c’est incroyable de pouvoir travailler avec autant de gens qui sont absolument brillants et de les aider à réaliser des choses qui sont utiles pour la société. Voilà.

Walid : vraiment, encore une fois, je me dis, si on avait eu ça dans les années 2000, il y a plein de trucs, ça aurait été génial. Donc, c’est vraiment génial que ça existe.

Lwenn : il y avait NLnet dans les années 2000, mais c’était encore tout petit, en fait.

Les défis à venir pour NLnet


Walid : Bah ouais, on vous ne connaissait pas.

Dernière partie, c’est ce que j’appelle le futur. Ce que j’aimerais bien savoir un petit peu, c’est quels sont vos défis, qu’est-ce que vous avez dans le futur, sur lesquels vous savez que vous allez devoir travailler ?

Lwenn : notre gros défi en ce moment c’est de s’agrandir, pas vraiment de s’agrandir mais au moins d’accélérer nos processus pour pouvoir maintenir le niveau d’attention qu’on porte à chacun des projets qui candidate individuellement parce que comme tu vois le processus que je t’ai décrit d’évaluation c’est quand même très très personnalisé et donc réussir à avoir plus de capacités et ou plus de vitesse tout en gardant ce niveau d’attention, ça va être un grand défi pour nous en tant que fondation et un défi un peu permanent. On a parlé également du fonds NGI Zero Commons, qui est très très excitant et qui est un des plus grands fonds avec lesquels on n’a jamais travaillé. Le plus grand fonds avec lequel on n’a jamais travaillé. Il va falloir beaucoup d’efforts pour trouver de nouveaux talents et de nouvelles personnes avec qui travailler et financer des projets. Et en fait, plus généralement, les choses qu’on garde sur le radar, c’est plus des défis pour le logiciel libre européen en général. C’est le Cyber Resilience Act qui va quand même beaucoup affecter les développeurs de livres européens.

Le Digital Market Act qui est une nouvelle très très positive qui va quand même vraiment changer l’écosystème du libre européen. Donc c’est des choses qui sont enthousiasmantes mais qui sont aussi assez effrayantes de trouver le temps, l’énergie de réussir à les relever.

Conclusion


Walid : de ce que je comprends de ce que tu dis, on arrive à la fin de cet entretien. J’aimerais bien en guise de conclusion te poser quelques petites questions.

La première question c’est « qu’est-ce que tu dirais à un porteur d’un projet libre et qui ne connaît pas NLnet ? »

Lwenn : en quelques mots. On donne des sous au logiciel libre européen, venez candidater.

Walid : très bien. Qu’est-ce que tu dirais à un porteur de projet qui a déjà bénéficié d’un financement NLnet ?

Lwenn : c’était un plaisir de travailler avec vous. Le fait de candidater à votre premier projet NLnet ne signifie pas que vous ne pouvez pas recandidater. On serait ravis de voir où vous en êtes et on est toujours ravis de vous croiser à FOSDEM ou ailleurs.

Walid : d’ailleurs, avant de te laisser une tribune libre, je n’ai pas posé la question, mais FOSDEM, c’est un événement très important pour tout l’écosystème du logiciel libre. Est-ce qu’il y a d’autres événements dans lesquels vous allez ?

Lwenn : oui, en fonction de nos envies individuelles en tant que différentes personnes de NLnet, on a nos propres affections et réseau et en général on est aussi présent au Chaos Computer Conference en hiver.

Walid : ok, et bien écoute on arrive sur la fin de l’entretien, c’est la tribune libre. Donc la tribune libre c’est, je te laisse la parole pour faire passer un message, le message que tu as envie de faire passer aux auditrices, aux auditeurs de Projets Libres!, et à tous les gens qui pourraient tomber sur cet épisode.

Lwenn : à tous les auditeurs et les auditrices qui sont passionnés de Projets Libres! et de logiciels libres, s’il y a des projets que vous connaissez, qui recherchent des financements, essayez de les pointer dans notre direction, parce qu’on adore recevoir de nouvelles candidatures, voir de nouvelles têtes, et aussi on essaie d’aider à chaque fois qu’on peut.

Walid : c’est une conclusion très intéressante. Moi-même, j’en parle très régulièrement autour de moi, en disant aux gens, vous devriez vraiment candidater. Et d’ailleurs, Benjamin Bellamy de Castopod disait que c’était les gens de chez Xwiki qui l’avaient aidé à remplir le formulaire NLnet et que c’est comme ça que Castopod est né finalement.

Lwenn : ah oui, quelque chose pour les projets qui ont déjà travaillé avec nous, aidez vos copains, aidez les autres projets que vous connaissez qui ont des difficultés financières – tout le monde est en difficulté financière dans le libre – mais aidez-les à candidater. Montrez-leur que c’est simple, parlez-leur de votre expérience, le bien, le moins bien et essayez de les encourager parce que c’est vous qui nous permettez de voir de nouveaux projets, de nouvelles têtes et de découvrir des talents. Typiquement ce que les gens de XWiki ont fait en aidant Benjamin de Castopod, on a besoin de ça parce qu’on ne peut pas faire tout ça. Malheureusement on n’a pas le temps.

Walid : Ben écoute Lwenn, déjà t’es ravi de te croiser au FOSDEM parce que moi je suis arrivé sur le stand de NLnet, j’ai demandé est-ce que par hasard quelqu’un serait francophone, je pensais que la réponse allait être non. On m’a dit « ah mais si si il faut que tu repasses demain, il faut que tu rencontres Lwenn », donc là j’étais super content. Après je t’ai recontacté et tu m’as dit oui super c’est génial on va pouvoir faire un épisode, donc j’étais super content. C’est un sujet qui me tient vraiment à cœur, vraiment ravi qu’on ait pu faire cet enregistrement, donc voilà je te remercie beaucoup de ça. J’espère qu’on aura l’occasion de pouvoir reparler de NLnet dans les mois ou années à venir sur le podcast Projets Libres!. Et puis pour les auditrices et auditeurs, vous avez compris il faut faire tourner cet épisode auprès des gens qui font du logiciel libre donc je compte sur vous, voilà c’est votre mission. A bientôt, merci beaucoup et bonne soirée, à une prochaine Lwenn.

Lwenn : merci beaucoup, ça a été vraiment un plaisir de discuter avec toi.

Cet épisode a été enregistré le 24 avril 2024.

Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.


Introduction aux modèles économiques et gouvernances des logiciels libres – G. Le Bouder, R.Semeteys

projets-libres.org/introductio…


This entry was edited (6 months ago)

[Evaluer le libre] OSXP2024 – L’art d’évaluer l’open source : regards croisés d’experts du libre


Cette table ronde réunit des experts de divers horizons pour explorer les enjeux et les meilleures pratiques d’évaluation des solutions open source. Dans un monde où ces logiciels jouent un rôle croissant, il est crucial de savoir les évaluer efficacement

podcast.projets-libres.org/@pr…

La vidéo de la conférence est disponible sur Youtube.

Sommaire

Transcription de la conférence sur l’évaluation des logiciels open source


Walid Nouh: bonjour à toutes et à tous, merci d’être là. Je m’appelle Walid Nouh, je suis le fondateur d’un podcast qui s’appelle Projets Libres!. Aujourd’hui, j’ai la grande chance de pouvoir animer une table ronde où on va parler d’évaluation de logiciels libres. Avec moi, on a quatre invités. Vous allez voir de profils différents qui ont chacun des intérêts différents à évaluer des logiciels libres. La première personne, c’est Lwenn Bussière qui est Technology Assessor chez NLnet. On va expliquer après ce qu’est NLnet. Thierry Aimé qui est responsable logiciel libre au ministère des finances. Benjamin Jean qui est le CEO du cabinet Inno3 et Raphaël Semeteys qui est senior architecte chez Worldline. Je vais vous laisser à chacun la parole pour vous présenter et expliquer un petit peu votre structure, qui vous êtes et quelle est votre structure. Louane, est-ce que tu veux bien commencer s’il te plaît ?

Présentation des intervenants


Lwenn Bussière: bien sûr. Merci de m’avoir invité Walid. Bonjour tout le monde. Je m’appelle Lwenn et je travaille à NLNet, qui est une fondation aux Pays-Bas qui donne des financements entre 5 000 et 50 000 euros à des projets de logiciels libres et open source. Essentiellement ces financements viennent par la Commission européenne, du programme NGi Zero, qui est un programme de cascading de financement venant de la Commission européenne et étant distribué par… une organisation, en l’occurrence NLNet. Et donc, nous évaluons au cours de notre travail des candidatures de centaines de projets de logiciels libres, hardware, open source aussi, et firmware, donc pas seulement du développement logiciel, cherchant des financements européens.

Walid Nouh: Benjamin ?

Benjamin Jean: bonjour tout le monde, vous m’entendez ? C’est un peu intimidant, mais très bien. J’ai l’impression de chuchoter. Donc, enchanté, Benjamin Jean, je suis le président et fondateur du cabinet Inno3, qui est une petite structure. On est moins de 10 personnes. En fait, on est principalement concentré sur tout ce qui est définition, mise en œuvre de stratégie de politique open source. Je fais très bref, mais des contextes dans lesquels se retrouvent souvent ces questions d’évaluation de l’open source. Quand est-ce qu’il est pertinent, d’une part, de diffuser ses propres projets en open source ? Et quand est-ce qu’il est pertinent d’utiliser les projets des autres et selon quels critères. Rapidement, on a aussi participé très récemment à la fondation d’une autre structure qui s’appelle Open Source Experts. C’est un groupement d’entreprises de l’open source qui vise à proposer les réponses groupées des acteurs de l’open source pour des gros marchés. C’est aussi dans cette logique que je me retrouve ici présent.

Walid Nouh: Raphaël, si tu prends un micro.

Raphaël Semeteys: merci. Merci pour le micro aussi, bonjour à tous. Moi je suis Raphaël Semeteys, je travaille avec et autour de l’open source depuis pas mal de temps. Précédemment chez Atos, pendant 10 ans, j’étais dans le centre de compétences open source où on accompagnait les clients dans leur adoption, leur réflexion autour de l’open source. Et puis depuis 10 ans à peu près aussi, je suis maintenant chez Worldline où on utilise beaucoup de composants open source pour construire notre propre solution, notamment dans le domaine du paiement.

Walid Nouh: Thierry.

Thierry Aimé: et donc moi c’est Thierry Aimé, je travaille au ministère des Finances, précisément à la direction générale des Finances publiques, au bureau de l’architecture et des normes. Dans le cadre de mes fonctions, responsable des choix open source, logiciels libres pour ma direction, nous utilisons énormément de logiciels libres et nous sommes régulièrement amenés à nous interroger sur la qualité des logiciels que l’on pourrait déployer pour remplir les besoins identifiés. Et sinon, plus largement, je m’occupe du marché de support et d’expertise logiciel libre. C’est un marché qui est au bénéfice de l’ensemble des administrations centrales. Tous les ministères en bénéficient. Et c’est un marché où on partage nos problèmes, nos questionnements sur l’identification des logiciels libres. On a en particulier pour ça des études d’opportunités, des études qu’on fait régulièrement, des études stratégiques ou techniques pour identifier ces logiciels libres.

Table ronde du salon Open Souce Experience 2024.Table ronde OSXP (source)

Pourquoi évaluer les logiciels open source ?


Walid Nouh: très bien, alors si maintenant on commence à rentrer un peu plus dans le détail, la première chose qu’on peut se demander c’est quel est le besoin, pourquoi est-ce qu’on veut évaluer des logiciels libres ? Vous allez voir que chacun a des réponses très différentes en fonction de la structure dans laquelle il travaille. Donc on va commencer par parler de pourquoi vous avez besoin d’évaluer des logiciels libres. Loen, est-ce que tu peux expliquer un peu chez NLnet pourquoi vous avez besoin d’évaluer des logiciels libres ?

Lwenn Bussière: oui, bien sûr. Essentiellement, c’est notre mission puisque nous donnons des financements de recherche et développement. Donc, on travaille vraiment en amont, c’est-à-dire qu’on reçoit des candidatures de jeunes, moins jeunes, développeurs indépendants, compagnies, universités, qui vont nous proposer un projet, en général un projet tout neuf et très souvent de la recherche de pointe. Et pour… Oui, pour financer la recherche et le développement de nouveaux projets open source. Et ces financements de recherche et développement, on les adresse aussi à tous les niveaux de l’infrastructure de l’Internet européen. Pour nous, c’est important que les utilisateurs aient le contrôle de leur expérience, la possibilité de self-host (NDLR : auto-héberger), la possibilité d’avoir le contrôle de tes données, la possibilité de savoir ce qui se passe dans le code et d’avoir des solutions qui soient accessibles et sécurisées pour chacun d’entre nous. Ce sont des critères qui nous intéressent particulièrement. Donc, on travaille beaucoup en amont de nouveaux projets de recherche.

Walid Nouh: vous recevez beaucoup de candidatures ?

Lwenn Bussière: oui,

on a des appels à projets tous les deux mois et le dernier appel à projets qui s’est clôturé le 1er octobre, on avait 567 candidatures autour de toute l’Europe. Donc plusieurs centaines tous les deux mois. Et on a financé, depuis le début des programmes NGI et NLnet, on a financé plus d’un millier de projets. Je pense qu’on a passé la barre des 1,5 milliers à ce stade-là.

Lwenn Bussière


Walid Nouh: ok, donc là ce qui est intéressant c’est qu’on a de l’évaluation en amont avant que les projets soient matures, sur des projets qui sont vraiment un peu early stage (NDLR : phase précoce). Benjamin, dans votre cas à vous chez Inno3, quels sont les différents besoins qui font que vous avez, dans quel cas vous allez avoir besoin d’évaluer les logiciels libres ?

Benjamin Jean: c’est pour ça que j’ai pris mon PC. Finalement, on se pose souvent la question de l’évaluation, mais pas pour les mêmes raisons. Le terme est utilisé peut-être à mauvais escient. Il y a, je pense, de manière assez similaire, la question de l’évaluation d’un point de vue de la valorisation, de se dire, quel type de projet peut être diffusé utilement en open source ? D’une part, quels sont les critères qui vont être au sein d’un centre de recherche ou d’une organisation pris en compte pour décider de l’opportunité de diffuser en open source ? Les modalités qui sont associées ? Là, il y a une évaluation. Il y a une évaluation aussi a posteriori. Donc là, c’est plus pour piloter finalement la valorisation, mais c’est aussi lié à la valorisation. C’est-à-dire ce projet qu’on a diffusé dans un premier temps, qu’est-ce que ça nous a apporté au regard des objectifs qu’on s’était donnés ?

Donc ça rejoint peut-être un peu ce qui s’est dit, mais dans un contexte interne de l’organisation, donc un peu différent. Il y a la question plus liée à la manière. En fait, quand on travaille, quand on définit en interne une politique open source, finalement, on ne peut pas le faire comme si on était le seul au monde. C’est-à-dire que chaque organisation doit aussi s’interfacer avec les politiques des autres acteurs avec lesquels elle travaille, notamment les fournisseurs. C’est là où on va tomber sur les sujets de marché public. Et donc, il y a cette question de la façon dont on peut traduire dans les marchés qu’on publie les enjeux qu’on a quant à l’utilisation de l’open source en interne et comment on va évaluer les réponses sur cette base, notamment si on impose des solutions open source, par exemple, si on impose des solutions communautaires, si on impose, l’État l’a fait, différentes entreprises, uniquement des projets qui ne sont pas portés par des entreprises, mais plutôt par des organisations non créatives, par exemple.

Benjamin Jean


C’est quelques exemples comme ça, mais qu’on puisse se situer à cette échelle. Et qu’est-ce que je me suis noté d’autre ? Oui, dans tout ce qui est, alors ça rejoint finalement ce qui vient de se présenter avec NLnet, c’est dans tout ce qui est appel à commun. Alors c’est un terme qu’on utilise beaucoup en France, qui commence à être utilisé aussi en Europe, je trouve, de plus en plus, mais qui se rapproche beaucoup de ce que fait NLnet. C’est-à-dire que l’idée, c’est de penser d’une part à l’évaluation du projet, mais aussi de la communauté qui est derrière. Donc là, ça rejoint aussi les métriques. On va en parler tout à l’heure des méthodes. Mais comment dans ces appels à projet, un peu différents, qui vise à financer des projets qui d’une part sont ouverts mais qui d’autre part sont maintenus par des communautés qui pérennisent l’investissement des acteurs publics ou privés. Là, il y a une évaluation, et généralement la plus simple possible pour donner lieu ensuite à des financements, même si moins importants, plus réduits. Et je finirai juste avec ça. On est impliqué dans un projet, pour montrer la diversité des situations dans lesquelles on travaille sur l’évaluation, un projet qui s’appelle Hermine, un projet open source et open data, dans lequel ce qu’on cherche à introduire, ça permet d’avoir une vision aussi complète de l’ensemble des logiciels open source qu’on utilise au sein de son organisation. Pour différentes raisons, la première c’est la conformité open source, donc c’est de là que vient le projet initialement. Mais il y a d’autres sujets qu’on essaye de greffer à ça, notamment la question de la soutenabilité. C’est-à-dire de se dire, si j’utilise plein de logiciels open source au sein de mon organisation, comment est-ce que j’évalue la pertinence du choix de tel logiciel au regard aussi des critères qui sont liés à sa communauté, à la qualité juridique, et à plein d’autres choses. Et ça c’est notre façon d’évaluer qui est beaucoup plus automatisable. avec des standards et des méthodes qui se développent. Mais ça fait aussi partie de nos préoccupations.

Walid Nouh: on va en parler après, justement dans les méthodes aussi. Raphaël, de ton côté, chez Worldline, vous plutôt industriel, pourquoi évaluer ? Quels sont les enjeux pour vous ?

Raphaël Semeteys: effectivement, nous, on est plutôt en aval, on va dire. Clairement, l’enjeu pour un groupe comme Worldline, qui construit des services critiques, hautement régulés, très visibles, dès que ça tombe en panne, il n’y a plus de paiement, ce genre de choses-là, on a besoin d’avoir confiance dans les composants qu’on va sélectionner pour construire ces services-là, qu’ils soient open source ou pas d’ailleurs. Et donc, en fait, ça part vraiment d’une analyse de risque, c’est-à-dire quel risque je prends quant à ma capacité à opérer des services critiques, à sélectionner tel composant ou tel autre composant. Et c’est ça qui a amené à, et j’en parlerai après, sur la méthode que j’ai contribué à créer, sur comment évaluer ces risques-là. Donc c’est vraiment en tant qu’utilisateur final, s’assurer qu’on va sélectionner des composants qui sont pérennes, qui vont continuer à répondre aux besoins, qui vont être patchés au niveau de sécurité, ce genre de choses.

Walid Nouh: tu peux passer là. Le micro à côté à Thierry. Alors là, bon, le ministère, vous aussi.

Thierry Aimé: oui, nous sommes donc utilisateurs d’un très grand nombre de logiciels libres. Ça ne s’est pas fait d’un coup, c’est venu progressivement au tournant des années 2000. Les logiciels libres sont entrés dans la direction.

Et en fait, c’est le résultat d’une politique où systématiquement, c’est une politique stratégique de consulter systématiquement l’offre libre pour tout nouveau besoin avant de se tourner vers éventuellement l’offre propriétaire. Donc quand on se tourne vers l’offre libre, on définit un périmètre, on définit un besoin et puis souvent, très très souvent, il n’y a pas une solution qui ressort mais une multitude de solutions sur énormément de sujets. Il y a une profusion de logiciels libres, c’est assez étonnant, cette diversité, cette dynamique.

Thierry Aimé


Et donc la question qui arrive très vite, c’est comment le choisir ? Beaucoup de ces projets, c’est parfois des projets personnels, c’est parfois des projets d’études, c’est parfois des projets d’éditeurs qui ont en fait un projet qui ressemble beaucoup à celui des éditeurs propriétaires, c’est-à-dire qu’ils sont les seuls maîtres à bord de leurs solutions. Il faut évaluer toutes ces choses et estimer les risques et quelles sont les meilleures solutions à déployer chez nous, puisque l’enjeu quand on déploie un logiciel libre, ce n’est pas de le faire pour quelques mois mais c’est un enjeu de pérennité sur des dizaines d’années où il faut garantir que ce logiciel continuera d’être disponible, maintenu et que l’on pourra même pourquoi pas contribuer d’ailleurs à améliorer le logiciel. Ne serait-ce que, si on détecte des anomalies, disposer de recours pour, auprès de la communauté, faire valoir ses correctifs. Voilà, donc c’est vraiment important pour nous de sécuriser l’utilisation du logiciel libre en garantissant le choix initial.

Comment évaluer le logiciel open source ?


Walid Nouh: très bien. Passons un peu au gros morceau de la conférence, c’est les méthodes d’évaluation. On voit qu’il faut évaluer, mais alors comment on évalue ? Et là, il y a plein de méthodes, il y a plein de manières de faire différentes. Et encore une fois, en fonction de quelle organisation, les méthodes sont un peu différentes. Donc là, je vais reposer encore une fois la question cette fois-ci. Mais Lwenn, comment vous maintenant, un peu plus dans le détail, comment vous faites pour évaluer toute cette masse de dossiers qui arrivent et tous ces projets qui viennent vers vous ?

Lwenn Bussière: comme les projets qui arrivent sont en général des projets très jeunes, et aussi de par le fait que notre procédure de candidature est très simplifiée. D’ailleurs, si vous avez un projet que vous avez envie de présenter pour notre prochain call (NDLR : appel à projet), n’hésitez pas. Donc, on a une procédure très simplifiée qui est juste un webform qui prend peut-être une demi-heure, une heure à remplir et où on encourage les développeurs à oublier le marketing et juste nous expliquer ce qu’ils font, pourquoi. et s’arrêter là. Et donc nous on reçoit ces candidatures qui font chacune une ou deux pages relativement courtes et à chaque fois on a besoin de faire beaucoup, beaucoup de recherches pour chacun des projets que nous recevons puisque ce sont souvent des projets qui sont même pas encore créés ou bien très jeunes. On va jeter un œil au repo, on va jeter un œil aux différents projets qui existent dans le même espace, aux différentes librairies sur lesquelles quelqu’un construit, si c’est des projets de hardware, quelles sont les solutions qui existent, quelles sont les schématiques, quels sont les fournisseurs pour le firmware, quelles sont les plateformes qui sont targetées, etc. Donc c’est très pointu et c’est taillé sur mesure à chacune des candidatures que l’on reçoit. On a quelques critères qui sont très stricts, puisqu’il faut que les projets soient européens. Il faut qu’il y ait une dimension européenne. Ce sont des financements européens, donc il y a des règles. On regarde le budget, on regarde aussi les critères stricts. Il faut que le projet soit de la recherche et du développement. Et ensuite, on évalue les projets sur trois critères, seulement trois, donc comparés. à la méthode de Benjamin qui est très précise. Ça va être beaucoup plus un processus de prendre des notes et de poser des questions, puisqu’on regarde l’excellence technique. Est-ce que la solution est adaptée au problème ? Est-ce que la solution est maintenable ? Est-ce que c’est clair ? Notre critère principal, c’est l’impact, la pertinence. Est-ce qu’on pense que le problème fait sens ? Ou est-ce qu’on pense juste que ce n’est pas forcément un use case (NDLR : cas d’utilisation) qui nous intéresse ? Et enfin, on regarde le budget, l’organisation, le planning. Est-ce que ça a l’air d’être un projet qui est viable en termes de micro-grants (NDLR : micro financements) entre 5 000 et 50 000 ? Est-ce que c’est une stratégie qui est faisable sur un an avec les financements qu’on a ? Et quels sont les aspects sur lesquels on peut aider et raffiner ? Donc après cette première approche, on fait une présélection des projets qui nous intéressent et ensuite on va contacter les personnes qui ont candidaté aux projets qui nous intéressent et leur poser des questions pour raffiner la direction de leur projet. Donc ça va être le moment où on pose des questions techniques en détail, comparer sur d’autres projets qui existent, pourquoi créer une nouvelle solution, pourquoi utiliser cette librairie plutôt que celle-là. Après cette phase d’échange, qui est souvent très enrichissante pour nous et pour les personnes qui candidatent, on fait une deuxième sélection d’évaluation qui va ensuite être envoyée à un comité externe qui supervise notre travail. C’est le life cycle d’un projet. Lorsqu’on a sélectionné un projet, ensuite on va travailler avec eux, on a plusieurs partenaires, des associations, des entreprises qui vont soutenir le projet avec des audits de sécurité, d’accessibilité, apporter de l’aide pour trouver des business models qui soient soutenables, trouver de l’écriture technique et identifier les besoins des projets. Donc on n’est pas seulement juste sur la sélection et voici vos sous et allez-y coder, on essaie vraiment d’être présent. sur toutes les étapes de développement pour pouvoir soutenir et appuyer les projets open source qu’on sélectionne le plus possible.

Walid Nouh: si vous voulez en savoir plus sur les financements NLnet, je vous renvoie vers l’épisode du podcast Projet Libre qui parle de NLNet justement, avec Lwenn, sur lequel on revient pendant plus d’une heure sur le fonctionnement, comment ça fonctionne, quels types de projets sont financés, etc. C’est assez passionnant. Moi, je suis un fan total de NLNet. J’en parle dans quasiment tous mes épisodes. Donc voilà, je ne suis pas… Raphaël, est-ce que tu peux s’il te plaît succinctement parler un peu de la méthode que tu as créée il y a bien longtemps maintenant pour faire de l’évaluation ?

Raphaël Semeteys: oui bien sûr merci, il y a 20 ans en fait. La méthode s’appelle QSOS, ça veut dire « qualification, sélection, logiciel open source ». Puis ça existe aussi en anglais, qualification etc. C’est une méthode que j’ai créée il y a une vingtaine d’années quand j’étais chez Atos et qu’on accompagnait nos clients dans le choix de logiciels libres open source. Et c’est quelque chose qu’on faisait déjà en interne. Au départ, c’est tout con, QSOS, ça n’a pas inventé l’eau chaude, véritablement. C’était faire des comparatifs, un peu comme ce qu’on trouvait dans les trucs de la FNAC, en disant, « tel téléviseur, voilà ses caractéristiques techniques, voilà ce qu’il permet de faire », et donc nous, on commençait à faire ça en interne. Puis après, dans mon boulot de conseil auprès de mes clients, dans l’accompagnement justement de leur stratégie open source, etc., on s’est dit « mais en fait… Cette méthode-là, on pourrait l’open sourcer elle-même ». Et donc, en quoi ça consiste ? Je l’ai dit, c’est une analyse de risque au départ. On va regarder plutôt le projet que le software lui-même pour essayer d’identifier les risques qui pourraient être liés à l’adoption du projet. Donc, la maturité et la pérennité, ça va être des aspects légaux, ça va être des aspects, est-ce qu’il y a de la gouvernance ? Comment est organisée la communauté ? Est-ce que les contributeurs font tous partie de la même entreprise ? Combien ils sont ? Ce genre de choses-là, est-ce que c’est industrialisé ? Est-ce qu’il y a du patch management ? Il y a toute une batterie de critères qui est standard, qui est définie dans la méthode elle-même et qui est appliquée systématiquement, quel que soit le type de logiciel. Ensuite, il y a une autre batterie de critères qui va dépendre de la famille de logiciels considérés pour pouvoir comparer des solutions les unes avec les autres. Si je prends des solutions de BI, injection de dépendance, framework back, front, etc. On va définir des grilles de critères.

Donc c’est organisé sous forme d’arbres qu’on va pouvoir, sur la base de ces grilles-là, on va pouvoir évaluer des solutions. Mais ce qu’il faut comprendre c’est que quand on a décidé d’open sourcer la méthode, ce qu’on s’est dit c’est, ce qu’on voudrait c’est faire de la veille technologique collaborative, donc communautaire. Parce qu’à partir du moment où on livrait des études, par exemple au ministère des Finances ou à d’autres clients, à partir du moment où on a livré l’étude, elle devient caduque, puisque les logiciels, les projets continuent à évoluer. Et donc on s’est dit « c’est dommage, il y a une déperdition d’énergie qui est énorme, alors qu’on analyse des communautés qui justement se mettent ensemble pour créer de la valeur. Donc est-ce qu’on ne peut pas créer de la valeur également en partageant la veille et en distribuant l’effort de veille ? ». Et c’est ça qui explique un peu comment est organisé QSOS. Alors je ne vais peut-être pas rentrer dans les détails là maintenant tout de suite, peut-être qu’on y reviendra un peu après.

Mais il y a un point qui est très important, c’est qu’on veut dissocier les activités de créer une grille d’évaluation de celle d’utiliser une grille d’évaluation que j’ai faite ou pas, que quelqu’un d’autre a créée, pour évaluer un logiciel. Et éventuellement, une autre personne, une tierce personne, peut utiliser des évaluations qui n’ont pas été faites par elle pour les comparer dans son contexte donné. Et c’est ça qui explique un peu comment est organisée la méthode et le fait que, notamment, on ait un système de notation qui soit le plus simple possible en disant un critère, à la fin, il est noté sur 0, 1, 2 : 0, ça ne fait pas. 2, ça couvre complètement ce qui est décrit dans le critère. Et 1, on est dans quelque chose qui est partiel, qui est intermédiaire.

Raphaël Semeteys


Et pour essayer de faire les choses les plus objectives possibles, pour que ça puisse être utilisé par d’autres, qui eux, lorsqu’ils vont s’approprier plusieurs évaluations et vouloir faire un choix, par exemple, je reviens sur des frameworks de BI, etc., ils vont regarder la partie maturité-pérennité, effectivement, parce que c’est très important. Mais ils vont être aussi capables de pondérer et de dire, moi, dans mon contexte, donc modéliser son contexte, forme de poids. qui vont s’appliquer sur ces différents arbres et grilles de critères. C’est comme ça qu’on articule les choses et se dit qu’on va produire de la valeur qui va être utilisée par d’autres. À partir de là, on a un format et on peut générer des rapports, etc. Ce genre de choses-là. Ça va, je pense que j’ai été trop long.

Walid Nouh: non, ça va. Je pense que la suite logique, c’est de passer le micro à Thierry pour expliquer comment ils utilisent justement cette méthode.

Thierry Aimé: effectivement, on a identifié cette méthode presque au moment de sa création. On a été peut-être un des premiers à s’y intéresser, extérieurs en tout cas à Atos. Et donc à cette époque, on était déjà avec régulièrement des choix de logiciels libres à faire. Et j’avais regardé les possibilités à l’époque qui existaient. Je disais justement qu’il y avait une solution poussée par Intel pour évaluer des logiciels libres dans le début des années 2000, mais qui était d’une très grande complexité avec énormément de critères, de sous-critères et des notations très fines à mettre en œuvre. Ça ne me paraissait pas nécessairement très praticable. Et ce que j’avais trouvé d’intéressant à l’époque, et qui s’est confirmé d’ailleurs, c’est que la méthode QSOS n’était pas mal dans le sens où elle ne coupait pas trop les cheveux en quatre. Elle était assez simple à mettre en œuvre et on arrivait à sortir une vision assez objective, je trouve quand on compare 2, 3, 4 logiciels dans un domaine donné.

Il y a un autre aspect qui nous plaisait énormément, c’est que le marché déjà à l’époque, maintenant il est interministériel, donc c’est encore à une autre échelle, mais déjà au début, dans les années 2005, il était déjà interdirectionnel, c’est-à-dire que toutes les directions du ministère des Finances en bénéficiaient. Donc en général, les directions n’ont pas du tout les mêmes agendas. Donc au moment où on faisait une étude, nous, pour un besoin, les autres n’avaient pas ce besoin, mais un an après, ils retrouvaient finalement le même besoin. Ils pouvaient reprendre ces études, regarder l’effet de pondération qui est un outil extrêmement intéressant parce que ça permet de contextualiser l’étude QSOS. Et donc, les autres directions qui, selon leur cycle de vie et d’intérêt pour tel ou tel logiciel libre, pouvaient donc rejouer cette méthode, la ressortir, l’adapter à leur contexte et obtenir dans leur contexte, la meilleure solution. Et ça, c’est un intérêt encore plus grand aujourd’hui où le marché est partagé avec l’ensemble des ministères.

Thierry Aimé


C’est des études que l’on fait mensuellement, elles sont techniques ou stratégiques. On met au point de départ un demandeur qui va exprimer un besoin, qui va définir des critères, etc. Dans le cadre de ce marché, une étude est réalisée, une étude QSOS est réalisée sur la base du besoin, évidemment, initialement présenté, mais qui peut s’élargir un peu puisque quand on fait les cadrages pour nos études, on est ouvert à l’ensemble des ministères. Donc tous les ministères peuvent partager et compléter la grille fonctionnelle, sachant que si moi je ne suis intéressé que par certains aspects de cette grille fonctionnelle, je pondère à zéro les autres. Donc c’est très simple d’adapter en fait le résultat de l’étude QSOS à mon contexte. Et donc, cette étude, une fois réalisée, elle peut continuer à vivre, puisqu’on pourra toujours la ressortir et adapter éventuellement les critères au contexte nouveau, peut-être, où un choix s’impose, peut-être un peu différent du choix initial.

Walid Nouh: les études, c’est vous qui les faites en interne ?

Thierry Aimé: alors, c’est des études qui sont réalisées dans le cadre de marché. Donc, j’ai évoqué au départ le marché de support logiciel libre, dans le cadre de ce marché de support, il y a une prestation d’études de veille qui est réalisée tous les mois sur des sujets qui sont choisis par l’administration et qui sont donc cadrés ensemble et réalisés par le prestataire, celui titulaire du marché, et restitués à l’ensemble des ministères qui peuvent participer. C’est une restitution en visioconférence maintenant et où chacun peut participer, peut participer et quand il s’agit donc d’études techniques ou une étude ou en tout cas une grille QSOS a été utile. Parce qu’on fait parfois des études où on peut malheureusement pas mettre en œuvre de grilles QSOS c’est pas toujours la solution idéale donc en tout cas quand c’est présenté sous forme d’étude QSOS on a donc à l’occasion de la restitution les fameux diagrammes qui permettent de comparer de visualiser les avantages et les inconvénients Et en tout cas, nous, un élément qui est absolument essentiel, c’est la pérennité des solutions, leur stabilité, leur fiabilité, effectivement, selon tous les critères génériques qui prévalent à toutes les études et qui sont un élément extrêmement important dans nos choix.

Walid Nouh: très bien. Benjamin, pour toi, en fait. Qu’est-ce que vous utilisez comme méthode ? Est-ce que vous avez développé quelque chose en interne ? Comment est-ce que vous faites pour justement évaluer dans le cadre des missions que vous avez ou des veilles que vous faites ces logiciels ?

Benjamin Jean: alors, j’ai réfléchi à ça en même temps.

On est assez agnostique dans le sens où on va utiliser à peu près tout ce qui existe pour répondre aux besoins des missions dans lesquelles on est. On n’est plus sur du sur-mesure. Alors, pas de manière péjorative, ça pourrait parfois. L’exemple, j’évoquais tout à l’heure l’évaluation de la valorisation. Et en fait, l’important, c’est déjà de contextualiser la valeur pour l’organisation. Je suis un centre de recherche. Qu’est-ce que je recherche quand je veux diffuser en open source ou réutiliser l’open source ? Quels sont mes critères à moi ? Pareil si je suis la Commission européenne, pareil si je suis une collectivité.

Benjamin Jean


Et de ce premier travail sur la valeur, on en tire ensuite des éléments à mesurer et on va trouver ce qui est automatisable, ce qui ne l’est pas et qui peut passer par des enquêtes ou d’autres méthodes de ce type-là. Donc la majorité du temps, on va vraiment faire ce travail avec l’acteur pour qui on est missionné, pour adapter, en utilisant tous les outils qui existent, une grille d’évaluation qui soit la plus pertinente pour répondre à ces enjeux. Et forcément, on réutilise de projet en projet des briques, mais il n’y a jamais eu deux cas similaires. Je prends l’exemple de ce centre de recherche, le CNES. Vous pourrez voir, il y a tout le travail qu’on a fait, publié sur Internet. Vous le retrouverez. La Commission européenne, on était plus sur les logiciels open source critiques pour la Commission. Pareil, vous retrouvez à chaque fois, c’est des… Les résultats ne sont pas les mêmes. Pour autant, on s’appuie énormément sur toutes les méthodes qui existent. Là, on va dans le même sens. Ensuite, l’autre contexte que j’évoquais tout à l’heure, qui était plus les appels à commun, en tout cas des appels à projet qui se rapprochent plus de ces logiques de commun. Là, généralement, on intervient plus sur ce qui fait que le projet est un commun. On est moins sur l’expertise métier qui reste souvent par l’acteur commanditaire ou l’acteur qui finance. Et le prisme qu’on essaye de prendre généralement, c’est dans les communs, on parle souvent du triptyque avec d’une part les ressources, d’autre part les communautés, et ensuite les règles de gouvernance des ressources. Et donc c’est de faire cette analyse des trois axes pour comprendre d’une part quelles sont les ressources et leur fiabilité, de comprendre quelles sont les communautés et aussi voir la pérennité du projet derrière la communauté. Et pareil, de réfléchir à l’organisation des acteurs entre eux et avec d’autres. pour voir dans quelle mesure c’est quelque chose qui est pérenne dans la durée ou pas. Là c’est plus réduit mais ça se rapproche aussi de ce qui a été évoqué tout à l’heure par NLnet pour vraiment s’assurer que le projet ait un intérêt à financer ce projet particulièrement.

Walid Nouh: effectivement tout ça c’est intéressant parce qu’on voit que en fonction de ce qu’on regarde, à quel moment dans la chaîne du développement de la vie du produit on évalue pas de la même manière. Une des questions que je voulais reposer à Raphaël c’est cette méthode QSOS qui a été développée il y a 20 ans elle est certes toujours où est-ce qu’elle en est en fait ? Actuellement elle en est où ?

Table ronde du salon Open Souce Experience 2024.Table ronde OSXP – (source)

Raphaël Semeteys: il faut différencier la méthode du projet et notamment du projet initial de dire on voulait créer de la veille technologique communautaire et collaborative la méthode elle existe toujours elle est utilisée toujours aujourd’hui Dans le projet, pour faciliter le travail, le déroulé de la méthode et surtout le partage d’informations, on avait commencé à développer des outils. Et moi, il y a une dizaine d’années, je me disais toujours : « si j’appliquais QSOS au projet QSOS, je pense que sur la partie maturité, pérennité, je ne serais pas super top ». Parce que c’est quand même vachement lié à moi, à Atos. Alors après, il y a des gens qui sont partis, il y a d’autres gens qui quittent QSOS, etc. Mais la pérennité n’est pas garantie. Quand j’ai quitté Atos, ça s’est un peu confirmé. Il y a un peu d’orphelinat quand même qui s’est ouvert là. Mais pour autant, la méthode elle-même, elle reste toujours valable. C’est plus l’outillage maintenant qui est complètement déprécié, obsolète vu les technologies. Mais on est en train de travailler sur un reboot de QSOS justement. Donc ça tombe bien. Et là, cette fois-ci, on veut le faire vraiment de la manière la plus communautaire possible. Donc là, ce qu’on est en train de faire, c’est qu’on est en train de préparer les bases techniques pour pouvoir avoir quelque chose pour rebooster le projet, et ensuite essayer de venir faire fédérer une communauté là-dessus. Donc si vous êtes intéressé par ce sujet-là, suivez-nous, contactez-moi, ça va être disponible sur GitHub bientôt. Là on va parler de l’aspect code et développement des outils, mais l’objectif vraiment c’est de collaborer et de contribuer à des évaluations, c’est clair. Et très vite vont se poser des questions, on l’espère. Aujourd’hui, on n’a jamais eu à vraiment mettre en place des règles de gouvernance et tout, parce qu’on n’a pas été confronté, on ne voulait pas construire une usine à gaz avant d’être confronté au problème. Lorsqu’il va y avoir plusieurs personnes qui vont vouloir corriger les évaluations, ou alors modifier des grilles, comment on met à jour des évaluations sur des versions de grilles qui sont plus récentes, ce genre de choses-là, et tout ça, ça va être très très intéressant. Donc venez nous rejoindre, là très vite on va essayer de relancer ça. Voilà, donc je ne sais pas si ça répond à la question.

Les tendances qui vont avoir un impact sur l’évaluation


Walid Nouh: ça répond à la question. Si maintenant on parle un peu en guise de conclusion du futur, comment vous voyez un petit peu, quelles sont un peu, j’allais dire, les tendances qui font qu’on va avoir besoin d’évaluer ou qui vont changer la manière dont vous évaluez les choses ? Dans ce qui se passe à l’heure actuelle ou dans ce que vous pressentez qui va se passer, qu’est-ce qui va remettre en cause la manière d’évaluer les choses ? Lwenn, est-ce que tu veux nous en parler un petit peu ? C’est un sujet très vaste, on pourrait en parler pendant très longtemps.

Lwenn Bussière: oui, c’est un sujet assez difficile aussi. Donc, ouf… c’est un sujet difficile.

Walid Nouh: prends un ou deux, prends un point ou deux qui deviennent à l’esprit, ça ira très bien.

Lwenn Bussière: pour nous, à NLnet, on a eu beaucoup de challenges au niveau de l’échelle, puisque la quantité de projets qui candidatent est de l’ordre du millier par an et qu’on est une équipe de quatre pour évaluer. Donc on a vraiment eu quelques soucis en termes d’échelle pour pouvoir continuer à avoir la qualité et l’attention qu’on porte aux détails de chaque projet qu’on reçoit, qui n’est pas quelque chose qu’on souhaite sacrifier, mais on est encore en train d’essayer de trouver un compromis qui fonctionne par rapport à la nouvelle échelle à laquelle on travaille.

De manière plus vaste, on a beaucoup parlé avant cette table ronde des enjeux du CRA qui commencent à changer les dynamiques d’évaluation.

Lwenn Bussière


Je pense que Benjamin est très concerné, donc je vais probablement te passer la patate chaude.

Walid Nouh: le Cyber Resilience Act.

Lwenn Bussière: de notre côté, c’est quelque chose qui nous tient à cœur, mais qui nous tenait déjà à cœur dans le sens où, quand on évalue des projets, on pose des questions dès le début sur l’architecture, les bonnes pratiques,les dépendances, le choix des languages qui peut impacter beaucoup de qualités, en termes de sécurité, d’accessibilité, de pérennité donc on essaye dès le début de pouvoir discuter de ces choses mais je pense qu’on est tous impactés par le CRA et la manière dont ça va changer nos méthodes d’évaluation et impacter les aspects qu’on recherche dans les différents projets.

Walid Nouh: Nenjamin, de ton côté ?

Benjamin Jean: alors le teasing pour le CRA, c’est que demain matin, vous avez une présentation sur un guide qu’on a produit pour le CNLL sur le Cyber Resilience Act, qui concerne vraiment la réglementation européenne en matière de cybersécurité associée aux projets qui sont mis sur le marché européen. Donc je vous invite demain matin à venir à la conférence et le guide sera publié à ce moment-là aussi. On a essayé vraiment d’aller le plus loin possible, notamment dans les effets que ça peut avoir vis-à-vis des acteurs d’open source, avec ce prisme particulier de l’open source. Et ça, c’était la réponse un peu facile. Sinon, pour ta question initiale, moi, ce que je vois aussi, c’est…

Dans le cas des projets qu’on a été amenés à auditer, souvent ce dont on s’est rendu compte, c’est qu’il y avait une dépendance via des API à plein de services qui étaient fournis par d’autres fournisseurs. Et je pense que dans l’audit des projets, dans l’évaluation des projets, même des projets open source, c’est important de prendre en compte cette dépendance d’un projet vis-à-vis d’autres projets. Parce qu’en fait, on n’est pas que dans une vision statique du périmètre du code. Ça, c’est un point qui est intéressant à avoir en tête.

Benjamin Jean


Et un enjeu peut-être pour les années à venir, c’est la qualité. L’open source, ça peut être soit un gros bloc, soit un grain très très fin. On travaille beaucoup sur les grains très très fins. Et là, ça ne peut que être automatisé. Et pour automatiser l’évaluation de ces grains très très fins, de toutes les bibliothèques que vous utilisez dans votre organisation, il faut avoir des métadonnées qui sont béton, qui sont super bonnes. Et là, il y a un gros travail encore à faire sur la qualité des métadonnées et ensuite la façon dont on peut les traiter. On a des méthodes pour les traiter, mais on n’a pas toutes les métadonnées qu’on aimerait avoir.

Table ronde du salon Open Souce Experience 2024.Table ronde OSXP (source)

Walid Nouh: Raphaël, ton côté ? Qu’est-ce que tu vois comme évolutions qui vont impacter ta méthode, ta manière d’évaluer ?

Raphaël Semeteys: juste pour réagir à ce que tu disais sur les métadonnées, c’est clair. Il y a 20 ans, quand j’ai créé QSOS, il n’y avait pas SPDX, par exemple. Typiquement, ça, c’est quelque chose qu’on va se baser là-dessus. Ça, c’est un point important. Après, sur ce qui va changer, sur la manière d’évaluer, c’est ce qui a changé dans l’IT. Pour moi, il y a deux grands trucs qui changent. Il y a le cloud et l’IA. Le cloud, pourquoi ? C’est avec toutes les réactions qu’il y a eu des projets communautaires qui se sont dit « Ah ouais, mais il faut qu’on change nos licences pour réagir par rapport à des utilisateurs type cloud qui vendent notre projet as a service et qui ne contribuent pas ». Donc on voit qu’il y a des gens qui sont sortis de la définition de l’open source à cause de ça. Je pense à Mongo, il y en a plein, Elastic, Terraform et demain il y en aura d’autres. Donc il y a des nouvelles licences qui émergent. On peut associer à ça aussi d’autres types de licences où il y a des notions de Code of Conduct ou d’éthique qui sont rentrées dans les projets. Il y a des licences éthiques qui apparaissent. Ça, c’est le premier point. Donc, c’est sur les termes licences. Qu’est-ce que ça veut dire Open Source ? Mais pourtant, il faut quand même évaluer les choses. Et l’IA, pourquoi ? Et là, je vais faire rapidement. L’IA, parce qu’elle peut servir dans la partie évaluation en se basant sur des choses qui sont formelles et clairement, objectivement évaluées, à faire quelque chose en langage naturel. Donc je vois, c’est utiliser l’IA pour aller plus loin dans l’évaluation.

Et après, il se pose la vraie question d’évaluer l’IA, évaluer ce que ça veut dire Open Source AI. Donc là, je renvoie vers la discussion de ce matin et l’autre table ronde qui était plus animée que la nôtre. Nous, on est cool. Là, il y avait des étincelles. Et je renvoie à la prez que je ferai demain, d’ailleurs, sur ce sujet-là, sur ce que ça veut dire Open Source, en tout cas pour un industriel comme moi, et ce que ça veut dire ouverture quand on parle d’IA. Donc ça, ça va changer des choses et on voit qu’on dépasse la notion de code. Tu parlais d’API, on va parler de datasets, on va parler d’algorithme. Enfin voilà, il y a ce genre de questions qui se posent. Mais je me tais.

Raphaël Semeteys


Walid Nouh: Thierry, pour finir.

Thierry Aimé: oui, bon, nous, on est vraiment utilisateur final. Donc je ne pense pas que les choses ont trop évolué, à part peut-être la question de l’IA qui, effectivement, n’est pas vraiment pris en compte aujourd’hui dans la méthode QSOS.

En l’état, la méthode nous rend parfaitement le service qu’on en attend et donc de ce point de vue, il faut qu’elle continue d’exister. Je suis content d’apprendre qu’un reboot se prépare. En tout cas, on contribuera très volontiers par nos études puisque nos études de veille réalisées depuis 4 ans sont systématiquement mises à disposition en open source sur la forge de l’Adulact. Alors l’URL c’est gitlab.adulact.net/marche-sll : Support logiciel libre, SLL. Et donc sur cette page, vous verrez publié l’ensemble des études réalisées depuis 4 ans.

Thierry Aimé


Et donc dans notre action de publication, on ne manquera pas de publier sur la nouvelle instance de partage des études de veille QSOS pour participer à l’effort collectif sans problème puisque de toute façon c’est déjà open source. Alors, toutes les études ne contiennent pas d’études QSOS, mais en tout cas, à chaque fois qu’elles en contiendront, on le fera. Voilà.

Walid Nouh: parfait, il est 17h45, on a réussi à tenir 45 minutes. Petit mot de conclusion, c’est un sujet très vaste. Là, on n’a pas beaucoup parlé, on n’a pas rentré très dans le détail. Je vous renvoie sur le podcast Projets Libres si vous voulez en savoir plus là-dessus. Et on va commencer une série spécifiquement qui va s’appeler Comment évaluer le logiciel libre ? dans lequel on va aller voir des acteurs qui ont ces besoins d’évaluation et on va leur demander qu’est-ce que vous évaluez, pourquoi, comment, quels sont vos critères, etc. Donc là, ça va commencer en janvier avec Raphaël. On va commencer à parler à des gens et à faire des épisodes là-dessus. Merci à toutes et à tous. La conférence était filmée et elle sera aussi disponible sur le podcast avec une transcription. On espère que tout sera ok pour les gens qui n’ont pas pu être là. Merci à toutes et à tous. Bonne soirée.

Raphaël Semeteys: merci.

Cette conférence a été enregistrée lors du salon Open Source Experience à Paris le 5 décembre 2024.

Licence


Cette conférence est publiée sous la licence CC BY-SA 4.0 ou ultérieure.

This entry was edited (4 months ago)

Offrir des services numériques libres aux citoyens : de Lutèce à Cité Libre – Paris.fr


Plongez dans l’univers de Lutèce, la solution open source développée par la Ville de Paris pour alimenter les services numériques dédiés aux citoyens ! Dans cet épisode, Magali Lemaire et Philippe Bareille nous racontent l’histoire de Lutèce, la créatio

podcast.projets-libres.org/@pr…

Sommaire

De Lutèce à Cité libre avec Magali Lemaire et Philippe Bareille


Walid: chères auditrices, chers auditeurs, bienvenue pour ce nouvel épisode de Projets Libres! Aujourd’hui, on va parler de Paris et on va parler d’un sujet qui va être très intéressant et qui me tient à cœur. Puisqu’il se trouve que le sujet dont on va parler aujourd’hui a été une de mes premières expériences professionnelles. Je reviendrai après. Et donc, c’est avec grand plaisir qu’on va reparler de tout ça. Donc aujourd’hui, on va parler de Lutèce et de l’initiative qui suit qui s’appelle Cité Libre. Donc, qui sont des initiatives et des logiciels de la ville de Paris. Et pour en parler, j’ai avec moi deux invités. J’ai avec moi Magali Lemaire qui est chef du bureau de l’ingénierie logicielle et du développement et Philippe Bareille qui est chargé d’une mission open source et référent OSPO. Peut-être que vous avez entendu un épisode il n’y a pas très longtemps du podcast Libre à vous, l’épisode 228, qui m’a en partie servi de trame aussi, je le cite parce que c’était très intéressant. Voilà, et donc écoutez Magali et Philippe, bienvenue sur le podcast Projets Libres!

Philippe: bonjour, merci.

Magali : merci beaucoup.

Présentation de Magali Lemaire et Philippe Bareille


Walid: eh bien c’est parti, on va commencer. Je vais vous demander d’abord de vous présenter, vous nous dire un petit peu… qui vous êtes ? Quel est votre parcours ? Et pour commencer, Magali, à toi l’honneur.

Magali: alors donc, Magali Lemaire, je suis au sein de la ville de Paris et dans cette équipe précisément depuis 2009. En fait, j’ai commencé comme chef de projet où j’ai travaillé sur des services numériques et le développement de plugins génériques pour Lutèce. Et petit à petit, j’ai pris d’autres responsabilités au sein de la ville pour devenir chef de bureau en remplacement de Pierre Levy il y a deux ans.

Walid: et toi Philippe ?

Philippe: bonjour Walid, et tout d’abord merci pour ton invitation. Moi j’ai commencé ma carrière comme développeur dans les télécoms et la magie des entreprises de service m’a fait découvrir de nombreux domaines. Et c’est en fait dans le service public à la mairie de Paris que j’ai décidé de poser un peu mes valises quand on m’a proposé de m’ancrer davantage dans le projet Lutèce. Donc j’étais alors chef de projet technique et mon implication dans le projet et sa diffusion et tout le travail autour de sa diffusion m’a permis d’y consacrer un peu plus de temps au sein de la mission transverse du système d’information à la direction informatique.

Présentation de Lutèce


Walid: je vous propose de rentrer dans le vif du sujet. J’aimerais tout d’abord qu’on parle de Lutèce et que vous puissiez me présenter, pour les auditrices et les auditeurs, ce qu’est Lutèce.

Magali: Lutèce, c’est un framework de développement Java qui a permis de développer l’ensemble des services numériques de la ville de Paris, déjà, pour donner un peu une vue d’ensemble. Je pense que c’est déjà un bon démarrage. On a 300 services numériques qui sont développés sous Lutèce aujourd’hui. Ça peut être comme apparenté une grosse boîte de Lego. En gros, on a un gros Lego qui est le cœur de la machine et après on fait des assemblages pour arriver à définir des services numériques. Ou des applications métiers aussi, ça peut être les deux. Donc on a développé cette offre au fur et à mesure depuis 2002.

On est assez transverse, on est assez généraux. On a créé toute une palette de services autour de la collectivité. Du coup, on a autant d’une offre de rendez-vous, des offres pour faire des formulaires électroniques à destination… des formulaires dématérialisés à l’usage des Parisiens. On fait de l’intermédiation aussi, c’est-à-dire on pourrait mettre des associations en contact avec des citoyens parisiens. On a construit des plateformes autour de tout ce qui est démocratie participative. Donc en fait, on a une offre qui est assez diverse. Et on couvre l’ensemble de l’activité de la collectivité. Donc, on a des services d’état civil qui tournent, on a de la prise de rendez-vous. Du coup, on a tout ce qui est collecte d’encombrants. On gère vraiment toute la vie de la collectivité au niveau des services numériques après, au niveau des applications métiers on peut en parler. Il y a des fois des logiciels ou des solutions qui sont plus appropriées.

Les utilisateurs de Lutèce


Walid: OK. Est-ce qu’à part la ville de Paris, il y a d’autres gens qui utilisent Lutèce ?

Philippe: alors oui, je me permets d’y répondre. Effectivement, c’est assez compliqué aujourd’hui de savoir précisément qui utilise, parce que quand on met un projet comme ça, libre d’accès, libre d’utilisation, on n’impose pas à l’utilisateur de se référencer, de se manifester. Donc aujourd’hui, on a parmi les collectivités et organismes qui se sont signalés, oui, effectivement, il y en a un certain nombre. On recense une trentaine de villes en France, que ce soit à travers soit des départements, soit des agglomérations de communes, des villes, etc. À l’étranger également, on en recense quelques utilisations. Et ce n’est pas qu’une application dédiée au secteur public, on a aussi du secteur privé, avec un groupement hospitalier qui utilise Lutèce pour sa prise de rendez-vous, notamment. Historiquement, on a eu Météo-France, qui était un des premiers utilisateurs de Lutèce, Notaire.fr, ce genre de structure également.

Walid: d’accord, ok, je ne savais pas. J’aimerais bien que vous nous expliquiez comment est née l’idée de développer sa propre solution pour la ville de Paris. Après, j’expliquerai un tout petit peu qu’est-ce que c’était de l’autre côté du décor en tant que prestataire qui a bossé dessus.

Philippe: la genèse, elle est plutôt simple. C’est qu’en 2001, le maire de l’époque, Bertrand Delanoë, avait pour volonté de proposer aux administrés, aux citoyens parisiens, des sites web conçus de la même façon, avec principalement de l’édition de contenu. Donc, c’était des informations sur la vie locale des différentes mairies d’arrondissement qui étaient proposées à cette époque-là, dans ce besoin. Donc il s’est tourné vers la direction informatique qui a étudié les différentes façons de pouvoir le faire et au final, on s’est rendu compte qu’aucune offre sur le marché permettant de faire de l’administration de contenu n’était disponible. Dans l’équipe, on avait une personne qui était un architecte logiciel qui avait déjà une empreinte dans l’écosystème open source, qui a proposé que nous le développions en interne. Donc Lutèce est né comme ça en 2001 pour répondre à un besoin purement de gestion de contenu. Il a été déployé pendant toute l’année de 2002 sur l’ensemble des mairies d’arrondissement et ce que ça permettait aussi, c’était évidemment l’administration de contenu par des personnes non techniques, mais également un habillage graphique qui correspondait aux couleurs politiques de la mairie d’arrondissement, donc au niveau local. C’était également un critère primordial.

De là, l’offre, ou en tout cas le besoin autour des sites web a beaucoup évolué et c’était bien beau de diffuser, de permettre de la gestion de contenu, mais il devenait important et primordial de proposer du service aux citoyens. Donc c’est comme ça qu’une des premières évolutions de Lutèce a été de refaire totalement l’architecture pour s’orienter vers de la modularité. Donc ça, je pense qu’on y reviendra un petit peu plus tard. Cet aspect de modularité est extrêmement important parce que, comme le disait Magali, aujourd’hui un site Lutèce est une construction, un assemblage de différents composants qui viennent spécifier et spécialiser un site web.

Un petit mot peut-être sur pourquoi ça a été ouvert en open source : l’exécutif, l’équipe municipale, a constaté que ce projet avait consommé pas mal d’argent public. Leur souhait était de le remettre à disposition des autres administrations françaises et même d’ailleurs, pour permettre à des collectivités qui n’ont pas forcément nos moyens, nous de capitale française, d’implémenter et de mettre également en place ce type de service. Sachant que si la ville de Paris en a eu le besoin, on peut établir que l’ensemble des villes avait également besoin ou pourrait avoir également besoin d’un système de gestion de contenu et de proposer du service à ses citoyens. On ne va pas réinventer le besoin du service public.

Philippe Bareille


Walid: et là, à cette époque-là ? Vous n’aviez pas les compétences en interne pour développer un tel système ? Parce que je me rappelle, en tant que prestataire, que ça a pris quand même pas mal de temps à développer ce système.

Magali: alors, peut-être que tu vas pouvoir nous donner un autre éclairage, parce que Philippe et moi, en 2001, on n’était pas là (rires). Non, moi, de ce que je sais, c’est que l’équipe interne a été composée de quatre personnes à l’époque et ils ont commencé à faire le développement en 2002. ça a vraiment été pour moi fait en full interne. Après, il y a peut-être eu une seconde version d’évolution où il y a de la prestation effectivement qui a été mise en œuvre. Mais pour moi, la version de départ, ça a été fait en interne. Et la mise en prod des mairies, la première mairie, mairie du 3ᵉ, ça a été fait en janvier 2002, si je me rappelle bien.

Walid: je ne me rappelle plus les dates, mais on a travaillé… Alors moi, à l’époque, je bossais chez Atos. On était toute une équipe de trois ou quatre personnes et on a travaillé sur la création de zéro de cette plateforme, je me rappelle bien. Et donc on avait un cahier des charges, on a développé ça. À l’époque, c’était surtout du CMS. Donc je me rappelle bien qu’on a travaillé là-dessus, la gestion des droits, etc. Tous les systèmes de workflow de publication et tout. Je ne me rappelle pas à l’époque qu’on ait parlé que ça ait vocation à devenir open source. Par contre, ce que je me rappelle très bien, c’est avoir moi-même été l’installer sur les serveurs de la mairie de Paris, les versions de préprod, ça je me rappelle très bien par contre. Et en Java, je ne sais pas pourquoi ça a été développé en Java, mais à l’époque, effectivement, tout avait été, dès le départ, développé en Java quand nous, on a travaillé dessus.

Magali: la raison pour laquelle c’est développé en Java, c’est assez simple, c’est qu’en fait, les compétences internes qu’on avait, dont Pierre, étaient des compétences Java. Donc ça s’est fait assez naturellement. SPIP à ce moment-là, ça n’existait pas encore. Je crois que c’est 2001 que ça a été lancé. En tout cas, c’était concomitant. PHP, ce n’était pas encore orienté objet. Donc on avait nous des librairies, enfin eux, avaient des librairies en interne et des services. Et du coup, ils sont partis sur du Java. Il s’est avéré dans le temps, avec les problématiques de maintenabilité et de robustesse, que le choix de Java s’avérait être le bon. Et aujourd’hui, on est assez contents d’être partis sur ça.

Walid: ok, intéressant. Moi, ça me rappelle de bons souvenirs. J’ai un souvenir que c’est la première fois de ma vie où j’ai fait un rm -rf / sur le serveur de pré-prod et que trois jours avant de livrer, j’avais effacé tout le serveur de pré-prod. Je ne l’ai plus jamais refait après.

Philippe: ta marque. C’est formateur.

Walid: voilà, c’est formateur. J’étais jeune ingénieur. Maintenant, on parle du lancement. Cette première version qui est mise à disposition du public, comment elle est accueillie ? Est-ce que ça se passe bien ? Est-ce qu’on voit tout de suite le potentiel ? Qu’est-ce que vous en savez en fait ?

Magali: ça se passe bien. Déjà, c’était assez important pour la ville de Paris que les mairies disposent de leurs propres sites. Et en plus, de manière assez industrielle. Donc ça, c’était quand même quelque chose d’assez novateur. Très vite, surtout notre équipe, dans un premier temps, a identifié le potentiel énorme qu’il y avait derrière. Tout ce qui était plug-in générique, le cœur de Lutèce… En fait, ils se sont tout de suite axés sur le fait d’avoir du re-use, de pouvoir réutiliser l’ensemble des composants, de ne pas redévelopper tout à chaque fois. Et ça, ça a été vraiment au cœur des problématiques.

Alors, le véritable envol finalement de Lutèce… évidemment, il y a eu le site des mairies, il y a eu l’intranet de la ville de Paris aussi qui s’est construit sur Lutèce. Et vraiment, le point important de bascule, c’était tout ce qui était dématérialisation des services numériques. Donc c’était, que je ne dise pas de bêtises, mais il y a 14 ans à peu près, 14-15 ans. C’est l’époque où tu es arrivé aussi, Philippe, je pense, non ?

Philippe: il y a eu à peine deux ans plus tard, en 2016.

Magali: et donc du coup, il y a eu une grosse vague d’investissements sur l’ensemble des services numériques de la ville de Paris. Et du coup, le potentiel de Lutèce s’est révélé vraiment essentiel parce qu’en termes de coûts, de maintenance et d’investissement, on arrivait à faire des choses sur mesure, en même temps des plugins qui soient génériques, des choses qui soient réutilisables et derrière, qui ont fait leur preuve parce que les choses ont quand même beaucoup évolué. En revanche, le cœur dont tu parlais, l’administration des droits, c’est des choses qui sont pérennes, qui ont évolué, mais qu’on utilise toujours.

Philippe: et c’est un gain qu’on retrouve également dans les administrateurs des plateformes, alors qu’ils ne sont pas des personnes techniques. Encore une fois, des gens qui gèrent les applicatifs métiers, qui ont accès à ces outils d’administration et qui, d’un site à l’autre, reconnaissent et sont capables de capitaliser sur une formation qu’ils ont eue ou sur leur expérience pour être performants sur d’autres sites basés sur Lutèce. Donc, au final, en interne, il y a eu un certain nombre de gains au niveau de l’équipe de développement, etc., mais aussi au niveau des agents et utilisateurs des plateformes qui se sont, une fois habitués, retrouvés tout de suite dans un environnement familier qu’ils connaissaient et ils pouvaient comme ça passer d’un site à l’autre sans douleur.

Walid: est-ce que le fait que les sources étaient assez rapidement mises à disposition, que ce soit devenu un logiciel libre, a été un gain en termes d’image ou en termes d’opportunités pour la ville de Paris ?

Philippe: alors oui, très clairement. Alors ça, pour le coup, on était la première administration, de tête, française à pousser du code libre et disponible, sous forme open source évidemment. On a bénéficié naturellement d’une curiosité qui a fait parler de nous et du projet. Donc en 2002, lorsque l’équipe municipale a voté l’ouverture du code, aussi bien la presse que de grands acteurs dans le logiciel se sont penchés sur la plateforme parce que c’était un événement en soi.

Par contre, on s’est aperçu, pour l’anecdote, qu’une communauté s’entretenait. Ce n’est pas juste bien de montrer patte blanche et de pousser du code sur une plateforme. Il faut aussi encourager, entretenir, informer, diffuser des informations, des événements, des possibilités de se réunir, de discuter et possiblement d’orienter la feuille de route également et de co-développer, co-construire cette plateforme. On en a appris un peu à nos dépens au fur et à mesure parce que ce n’est pas tellement dans nos métiers d’agent du service public que de marketer ou de communiquer sur ce type d’outils, même si on était aux manettes dans le développement.

Magali: oui, et au-delà de ça, on était très orientés projet. Autant Philippe que moi, j’étais dans une cellule dont l’objectif était de développer des projets rapidement sur la base de Lutèce et des plugins génériques. Donc, on devait sortir des choses très vite, très fort. Donc, on a sorti vite le budget participatif, rapidement Dans ma rue. Et du coup, c’est vrai qu’on a été complètement orientés sur les projets et qu’on n’avait pas de délégation de temps sur le marketing ou la promotion de Lutèce. Donc, c’est vrai qu’on n’avait pas de métier dédié à ça. Au départ, on était vraiment dans le cœur du système. C’est vraiment depuis deux, trois ans qu’on a plus de temps pour travailler sur Lutèce et faire la promotion de Lutèce. C’est vraiment récent.

Les grandes évolutions de Lutèce


Walid : moi, ce qui m’intéresserait, c’est de savoir, entre les premières versions que vous mettez à disposition, donc là, ce qu’on voit, ce que disait Magali, c’est que déjà, vous avez eu un premier travail qui était de rendre le cœur plus extensif, de pouvoir faire des plugins, etc. Quelles ont été un peu les grandes évolutions qui se sont passées sur Lutèce au fil du temps ?

Magali : alors, au départ, on a effectivement créé, développé nous-mêmes et avec des prestataires la solution. Rapidement, on a intégré des frameworks plus reconnus, dont le framework Apache. À mesure, on a intégré aussi d’autres composants, comme la gestion des logs et la gestion des caches. Techniquement, ça évolue surtout aussi par le fait de prendre d’autres solutions open source pour les intégrer. On ne fonctionne pas tout seul, on ne réinvente pas la roue à chaque fois. Et là, la dernière grosse évolution technique, c’est une migration vers Jakarta EE pour passer en compatibilité cloud native au maximum. Ça, c’est vraiment un énorme travail qui est fait en ce moment pour être dockerisable. On a une grosse évolution en termes d’infrastructures en cours.

Walid: tu peux expliquer pour les gens qui ne savent pas ce que c’est que Jakarta par rapport à Java ?

Magali: comment je vais pouvoir expliquer ça simplement ? Disons qu’on passe d’une solution qui devenait payante. Oui, en fait, nous, on a le souci de rester indépendant au niveau de l’utilisation de notre open source et des outils qu’on utilise. Java devenait payant, en tout cas, on passait là-dessus. Et ça n’a pas été dans notre politique du tout de rester dans cette dynamique-là. Et le choix a été fait de passer sur Jakarta EE, même si effectivement, ça nécessite de réécrire un grand nombre de choses. Ce n’est pas anodin pour nous cette montée de version. Est-ce que ça répond à la question ?

Walid: ça répond à la question, je me demandais si c’était une implémentation open source de Java. C’est un projet complètement séparé maintenant d’Oracle.

Magali: oui.

Walid: et communautaire.

Philippe: tout à fait.

Walid: à part ces problématiques techniques, qui sont des grosses évolutions, est-ce que vous avez eu des grosses évolutions fonctionnelles ? Là, on a parlé des plugins, etc. Est-ce qu’il y a eu des grosses évolutions fonctionnelles ?

Magali: en fait, on est passé vraiment de la partie CMS sur laquelle tu as dû travailler, et on a évolué beaucoup vers tout ce qui est service numérique. C’est-à-dire qu’aujourd’hui, on est capable avec un plugin de formulaire de créer des formulaires à étapes plus ou moins complexes qui sont adossés à des workflows et à d’autres composants et nous permet de faire un service numérique où un usager va déposer des pièces. Nous, on va être en capacité, ville de Paris de demander des pièces complémentaires, de faire progresser la demande dans un workflow avec des états de la demande, et resituer aux Parisiens où en est le traitement de leur demande.

On a mis en place l’année dernière toute la partie gestion d’identité du Parisien. Il y avait déjà un compte Paris, mais plus largement, on a géré toutes les entités du Parisien. Et du coup, on a créé un écosystème, ce que je disais tout à l’heure, avec énormément de fonctionnalités. On a une plateforme de rendez-vous où il y a plus de… combien, Philippe, 150 instances de rendez-vous ?

Philippe: non, il y en a une cinquantaine d’instances qui génèrent pas loin de 600 000 rendez-vous par an.

Magali: voilà, et donc là, ces services permettent aux Parisiens de prendre rendez-vous avec les mairies, avec différents services de la collectivité. Et derrière, il y a tous les services d’état civil qui tournent. Tout ce qui est titres d’identité, on est relié avec l’ANTS (NDLR : Agence Nationale des Titres Sécurisés). Du coup, on fait remonter nos rendez-vous sur la plateforme de l’État.

On a fait évoluer Lutèce au fil des besoins. On construit des plugins en fonction des besoins. Et là, en fait, on est vraiment motivé par le fait qu’un service numérique ne doit pas nous faire dépenser des millions d’euros pour être réalisé. Donc l’idée c’est que vu qu’on a déjà plein de composants, quand on nous demande à nouveau sur un service numérique, théoriquement les éléments dont on dispose nous permettent de faire peut-être 60 ou 80 % de la demande et on va peut-être compléter le reste avec des développements spécifiques si nécessaire.

Walid: ANTS, Agence Nationale des Titres Sécurisés, si je ne dis pas de bêtises.

Magali: c’est ça, tout à fait. C’est vrai que tout le monde ne connaît pas l’ANTS.

Walid: pas de souci.

Magali: et donc, du coup, oui, on a beaucoup de services différents et réutilisables. Fonctionnellement, oui, on est parti du CMS. Aujourd’hui, la partie CMS constitue peut-être 10 % de notre activité. Ce n’est vraiment plus le cœur de notre activité du tout. C’est anecdotique comparé au reste.

Walid: et alors, il y a une autre évolution aussi qui n’est pas technique et qui n’est pas fonctionnelle, c’est l’évolution des compétences. Comment vous êtes passés d’une petite équipe de quatre personnes à, d’ailleurs, je ne sais pas combien vous êtes ?

Magali: on est 17, donc un peu plus. Mais compte tenu de la quantité de choses qui sont portées par Lutèce, au final, ce n’est pas si énorme que ça. Comment on est passé de 4 à 17 ? Par une volonté, quand même, au niveau de la collectivité d’asseoir Lutèce. c’est-à-dire dans la mesure où le service était utilisé par l’ensemble des services numériques et le service socle pour tout le développement de la ville de Paris, on a intégré de plus en plus de compétences.

Les 17 personnes ne font pas tous les développements en interne. On garde la souveraineté, on définit les principes de ce qu’on veut faire, et ensuite, on confie les principaux axes de développement à des sociétés de prestations qui ont le marché de maintenance Lutèce.

Walid: et d’ailleurs, une fois que c’est développé, après, c’est vous qui faites la maintenance du code ?

Magali: non, on garde le pilotage de cette maintenance, c’est-à-dire qu’on organise la roadmap de développement, on priorise le besoin et voilà. Et après, le développement, il y a une partie qui est faite en interne, on a quand même des développeurs en interne qui font une partie des développements. Après, on est accompagné par une société de prestations qui réalise cette maintenance et les évolutions du cœur et des plugins associés. C’est mixte. On n’est que 17 là où les sociétés de prestations ont une force de frappe beaucoup plus importante que nous. Du coup, on s’appuie beaucoup sur les prestataires de services.

La définition des évolutions


Walid: pour terminer sur cette partie-là, comment vous définissez les orientations ? Comment vous dites, dans la prochaine version, on aimerait faire ça ?

Magali: on a beaucoup de services numériques qui utilisent des outils. On a des retours des utilisateurs qui nous indiquent que j’aimerais bien voir apparaître telle fonctionnalité ou telle fonctionnalité parce que ça leur manque. Du coup, on l’inscrit dans la roadmap, on définit effectivement le caractère générique de la fonctionnalité, voir si ça intéresse toute ou partie des gens. Et après, on lance le développement. Et en fonction des projets, pour l’instant, au priori, effectivement, la réalisation, en fonction des projets, on est en interne. C’est eux qui nous font vivre aujourd’hui. Ça reste les projets qui nous font vivre.

La communauté autour de Lutèce


Walid: ok, très bien. Pour revenir à ce qu’on disait un petit peu en introduction, si on passe maintenant sur la communauté, à part les mairies et donc Paris au sens large, qui d’autres utilisent Lutèce ? Quel rapport vous avez avec ces gens-là ? Est-ce que vous les connaissez ? Comment vous interagissez avec eux ?

Philippe: moi, j’ai l’intention d’animer trois types de communautés. La toute première, c’est celle dont je viens de parler, que j’identifie comme fonctionnelle. Ce sont des villes, des utilisatrices, des utilisateurs qui ont un besoin et qui souhaitent disposer d’un outil qui permette de répondre à un besoin. Pour ça, il n’y a que les villes. Il n’y a que les utilisateurs qui peuvent identifier leurs besoins, le nommer, le définir et de voir si l’outil correspond à la réponse à ce besoin. Ce n’est pas une équipe technique qui va dire « Oui, je crois que cet outil, on l’a testé, il va bien. » Non, c’est aux équipes fonctionnelles et métiers de se prononcer là-dessus. J’estime qu’une communauté qui sait parler du logiciel et qui sait se concentrer uniquement sur le fonctionnel plutôt que sur la technique ou de mélanger un peu tous ces sujets est beaucoup plus efficace.

Ensuite, une communauté technique, parce que, comme Magali le disait, rien que pour la ville de Paris, on a un certain nombre de partenaires extérieurs qui sont amenés à travailler sur la plateforme. Ces intégrateurs-là, ces partenaires, sont amenés aussi à développer du service Lutèce ailleurs. Donc, il est de bonne intelligence de travailler avec eux, d’animer cette communauté technique et d’être en mesure de les guider, de les accompagner et de leur proposer une partie du support, mais également des comités d’architecture où on soit capable de leur dire, « non, non, attendez, ça, c’est pas dans les règles de l’art de Lutèce, c’est pas comme ça que Lutèce a été pensé, et comme ça que Lutèce pourra accepter vos contributions, donc s’il vous plaît, veillez à telle et telle contrainte. De cette façon, on pourra tous en bénéficier ».

Et la troisième communauté, ça peut paraître plus anecdotique, mais c’est une des plus dynamiques en ce moment, c’est la communauté de traducteurs. Parce qu’on s’est rendu compte qu’il y avait un intérêt croissant à l’étranger. Et sur plusieurs présentations que j’ai pu faire auprès d’homologues, notamment européens, j’ai été amené à voir un intérêt de leur côté. Et présenter une solution dont l’interface est purement en français. Bon, je voyais des yeux écarquillés, j’ai bien compris qu’il fallait que je leur présente quelque chose dans leur langue. J’en suis pas capable, donc ce sont ces mêmes personnes qui ont accepté de contribuer et de participer à un hackathon que j’ai organisé, qu’on a organisé en octobre 2023 et qui a permis donc de traduire le cœur de Lutèce, donc cette partie socle qui est commune à chacun des sites Lutèce, en six langues intégralement. Et six nouvelles ont reçu des contributions qui ont permis d’avancer. Là, la prochaine étape, c’est de se concentrer sur les fonctionnalités métiers pour avancer sur les traductions, notamment de ces six langues, pour pouvoir permettre de proposer du test intégralement traduit à ces communautés qui font réellement preuve d’intérêt pour les développer et les implémenter localement.

Walid: donc si je reprends, il y a d’un côté les utilisateurs utilisatrices finaux, de l’autre côté il y a toutes les personnes techniques qui peuvent contribuer au code et donc ça inclut les sociétés.

Philippe: tout à fait. Ou même d’autres villes et administrations qui ont des compétences techniques en interne. C’est notre cas et ça existe.

Walid: mais vous avez une volonté de faire un écosystème avec des sociétés partenaires qui sont capables d’intégrer du Lutèce ?

Philippe: idéalement, oui, parce que lorsqu’on répond à des homologues, à d’autres administrations françaises, d’autres villes, agglomérations de communes, etc., qui viennent nous voir et qui nous disent « Tiens, fais-moi voir ton Lutèce, comment tu le fais fonctionner et comment je peux, moi, le réutiliser », c’est quand même une des raisons pour lesquelles on l’a mis open source, sans parler de la transparence, des algorithmes et des services derrière, évidemment. Mais le but était de le partager et que les gens se le réapproprient.

Les évènements autour de Lutèce


Walid: et alors, tout à l’heure, tu as parlé d’un hackathon. Est-ce que vous organisez d’autres événements pour que les gens se rencontrent ? Que ce soit en ligne ou que ce soit physique.

Philippe: on a eu organisé par le passé certains événements physiques. Une plateforme dédiée à ça, dont le nom m’échappe, mais dont on reprend un petit peu les rênes pour remettre ces groupes de discussion. Clairement, ce sont des groupes de discussion basés principalement sur des individualités, comme dans ce milieu, dans cet écosystème open source. Donc de remettre ces rencontres physiques possibles, parce que c’est vraiment là que se font les contacts, que les décisions sont prises, et qu’on est capable d’évaluer la maturité d’un projet open source et le dynamisme d’une équipe de développement derrière. Donc il n’y a que comme ça, réellement, qu’on peut le faire.

J’ai également en tête de monter des webinaires réguliers qui soient orientés pour ces différentes communautés que j’ai citées précédemment, pour leur permettre d’identifier aussi qui les utilise, qui est là, qui ne soit pas tout seul, qui soit rassuré par le fait qu’il ne soit pas tout seul, et que si une décision est prise, s’il y a un bug qui venait à être détecté, qu’il soit rassuré sur le fait que si ce n’est pas eux… tout le monde n’a pas des capacités techniques sous la main et prêtes à dégainer, que ce soit ville de Paris ou que ce soit une autre ville qui soit en mesure de proposer un correctif qui puisse être déployé rapidement et comme ça, tout le monde en bénéficie.

Donc c’est vraiment ça qu’on cherche à faire. Et donc par ce genre de webinaire, au-delà de s’identifier, c’est aussi faire des flashs, des coups de projecteur plutôt, aussi bien techniques que fonctionnels, pour présenter l’évolution des outils, l’évolution du produit, des fonctionnalités qui peuvent être méconnues, pourquoi pas des petites sessions de formation. Dire voilà, « si vous souhaitez vous intégrer dans ce type d’utilisation, voilà comment on vous le propose, voilà comment nous on le fait, voilà comment ça se fait sur la plateforme ». Parce qu’on a une documentation qui est là, mais elle est assez conséquente. On reste dans une administration, et pas Google avec juste un champ de recherche, un bouton pour lancer une requête. C’est un peu plus complexe que ça.

Lutèce et la concurrence


Walid: très bien. Je vais dire, mes questions suivantes qui en découlent, c’est la gouvernance. Mais avant, je voudrais juste qu’on revienne 5 minutes sur la concurrence. Bon, des concurrents, je pense qu’il y en a plein de manière générale. Comment vous comparez par rapport aux concurrents ? Est-ce que vous avez vraiment des points forts ? Et aussi, est-ce qu’il y a des concurrents, il y a des choses que vous voyez à l’extérieur qui vous inspirent aussi pour le développement de Lutèce ?

Magali: alors, des concurrents, effectivement, il y en a, mais pas sur le même segment que nous. Encore une fois, nous, on est excessivement transverse. Et du coup, si tu veux, il y a des concurrents comme Liferay, Jahia, sur la partie CMS, on a OpenCMS et Ametys. Il y a aussi Public qui propose une offre assez proche de la nôtre par certains aspects. après, les concurrents, on va en avoir plus sur des segments vraiment, par exemple rendez-vous, tu vas avoir des outils pour créer des rendez-vous. Tu vas avoir un outil pour gérer des formulaires, tu vas avoir la plateforme Decidim qui va être centrée sur la participation citoyenne, mais on ne va pas vraiment avoir une offre transverse avec une société ou une collectivité qui va proposer un ensemble de services comme nous on fait.

Ça, c’est la vraie différence. Et la vraie différence, c’est que nous, on est vraiment open source. C’est-à-dire, on parlera de Cité libre tout à l’heure, mais vraiment, l’idée, c’est vraiment de donner les éléments à d’autres collectivités, des associations, des acteurs divers, variés, pour qu’ils puissent reprendre notre code, nos plugins, pour créer leurs solutions.

Et là-dessus, effectivement, je ne pense pas qu’il y ait de société ou de collectivité qui propose ce que nous, on propose. Aujourd’hui, à l’échelle… France ou même ailleurs, je ne vois pas d’autres organisations qui proposent ce que nous, on fait.

Alors là où, effectivement, après, on a des choses plus fines sur vraiment des secteurs d’activité précis. Moi Decidim, ce qu’ils font, je trouve ça génial. Je trouve que c’est très bien, mais ils n’adressent qu’une toute petite partie de l’activité.

Et la difficulté qu’on a, nous, c’est de nous spécialiser sur quelque chose de particulier parce qu’en fait, ce n’est pas notre objectif. On n’a pas pour objectif d’être spécialiste vraiment de quelque chose. On reste générique, on veut rester volontairement un peu haut par rapport aux services qui sont proposés, parce que nos services, ils sont déclinables. Faire du rendez-vous pour faire du formulaire. Et du coup, si tu veux, on fait des plugins métiers particuliers, mais c’est vrai qu’on évite la majeure partie des cas.

Magali Lemaire


Walid: pour les gens qui sont intéressés, j’ai interviewé Valentin Chaput l’année dernière pour parler de Decidim. L’histoire est assez intéressante, puisqu’il y a quelques parallèles aussi, puisque ça vient de la mairie de Barcelone. Et sur les aspects gouvernance, il y a des choses aussi très intéressantes.

Philippe: à l’origine, ça vient de Consul, qui était un projet madrilène.

Walid: c’était un peu des bisbises entre Madrid et Barcelone. Et finalement, Barcelone a fini. Enfin, c’est ça, mais il y a des choses très intéressantes. Je pense en particulier au fait qu’à un moment, ils ont fini par sortir Decidim de la mairie de Barcelone pour éviter les problématiques de changement de majorité politique.

Ce qui, vous, dans votre cas, je suppose qu’il y a un consensus politique au fil du temps pour continuer à travailler là-dessus, mais eux, ils avaient cette problématique-là. Bref, ce n’est pas le sujet de l’épisode.

Magali: pour répondre à ta question, Decidim, effectivement, super intéressant. Public aussi, il y a des choses intéressantes. Après, il y a des initiatives au niveau de l’État, comme celle de la DINUM, de par leur force de frappe qui est… Vraiment, nous, on trouve ça fascinant parce qu’ils ont une possibilité de diffusion assez importante. La seule chose qu’on regrette, c’est de ne pas travailler assez avec eux, de ne pas être assez embarqués dans leurs solutions pour arriver à diffuser ce que nous, on fait. Ça, on le regrette, nous, quand même profondément.

On aimerait arriver à travailler, à diffuser nos solutions à un niveau un peu plus élevé, puisque je pense que ce qu’on propose, c’est recréé par ailleurs et c’est dommage.

Qu’est-ce que Cité libre ?


Walid: ça m’amène à la transition suivante. Le mieux, c’est que vous introduisiez Cité Libre pour introduire le constat qui a amené de passer de Lutèce à Cité Libre. Qu’est-ce que Cité Libre ? Et quel est le constat qui fait que vous en êtes arrivé à créer Cité Libre ?

Philippe: Cité Libre, c’est une réponse qu’on a trouvée pour améliorer et surtout améliorer la capacité à être diffusée de Lutèce, tout en réduisant la difficulté technique qui est liée aujourd’hui.

Juste pour illustrer l’exemple, c’est que quand je disais tout à l’heure une administration, une ville, n’importe quoi, qui vient nous voir et qui disent « Tiens, j’aime bien ton Lutèce, comment je peux m’en servir ? », notre réponse pendant 20 ans, ça a été « Ben, va voir sur GitHub ! ». Je veux dire, on a été suffisamment technique pour le faire, estimé avoir affaire à des gens techniques majoritairement.

À tort, parce qu’une fois sur GitHub, si on n’est pas développeur, intégrateur ou ingénieur en informatique, on a juste des répertoires avec des fichiers sources et on ne sait pas forcément comment intégrer. D’autant plus que Lutèce est une plateforme extrêmement modulaire et générique, ce qui fait que pour implémenter un service comme Rendez-vous, par exemple, on parle d’un assemblage de pas loin de 70-75 modules et qu’il n’y a pas une documentation qui dise fonctionnellement : si vous voulez faire du rendez-vous avec un raccordement et un gestionnaire de file d’attente, il faut prendre tel plugin, mais attendez si vous êtes sur tel type de file d’attente, il faut tel module… C’est quand même extrêmement complexe.

Ça faisait quelques années qu’on réfléchissait à mettre en place un système qui puisse déployer un service numérique complet, mais vraiment le plus complet possible, tel qu’on l’utilise nous en fait, à l’identique, sur les mêmes versions, avec les mêmes compatibilités de version, les mêmes fonctionnalités. Mais c’est clairement le manque de temps qui nous a empêchés de le faire.

Mais là, depuis deux ans, on a eu l’autorisation de créer Cité Libre, qui vient s’inscrire comme la solution de package pré-assemblé basé sur Lutèce. Donc, on évite maintenant de parler Lutèce, parce qu’au final, c’est une plateforme technico-technique dont on peut parler avec des gens qui s’y connaissent et qui veulent contribuer. Là, évidemment, il va falloir parler technique. Mais pour ceux qui souhaitent rester au niveau service, en fait, inutile de parler du plugin OAuth2 ou SSO, etc. Au final, vous souhaitez quoi comme type d’authentification en SSO ? On va vous recommander cet assemblage-là. Mais l’assemblage, au final, on l’a déjà vécu, on l’a déjà mis en place chez nous, donc on a industrialisé un certain nombre de services numériques chez nous.

Donc autant en faire profiter, au même titre que du code mais en open source, des assemblages déjà faits, avec une liste de composants qu’on recommande et qu’on utilise nous en interne, pour les citoyens parisiens. Avec des versions compatibles et avec des fonctionnalités qui sont clairement établies, parce que ça répond à un besoin qui a été déjà défini.

Donc, tout ça pour dire au final que Cité Libre propose des services pré-assemblés. Alors, je ne vais pas aller jusqu’à dire prêts à l’emploi, mais prêts au test, en tout cas, pour un déploiement facile en local, sur une machine. On met en place un certain nombre de serveurs qui permettent de montrer toute la puissance sur un jeu de test qu’on propose également. Toute la puissance d’un outil, tout le fonctionnel, les notifications, la puissance du workflow, comme le disait Magali, tout ce qu’il est possible de faire pour permettre aux prospects, alors j’aime pas trop ce terme parce que je suis pas un commercial ni un vendeur, mais au final aux gens intéressés de dire « Bon bah ouais, en fait ça colle à mon besoin ».

Philippe Bareille


Voilà Cité Libre. Et l’intérêt aussi à travers ça, c’est de proposer ces fonctionnalités en marque blanche. C’est-à-dire qu’il y a tout un graphisme et un univers graphique propre à Cité Libre, mais tout est fait pour une appropriation de cette interface graphique par les utilisateurs des packages Cité Libre, pour leur permettre de garder un parcours usager le plus cohérent possible aux couleurs de leur administration.

On ne veut pas, je ne citerai aucun fournisseur de rendez-vous par exemple, mais basculer comme ça du site de sa mairie ou de son administration vers la plateforme XX qui fasse du rendez-vous : « Ah mince, mais attends, je ne sais pas où je suis, je ne sais pas d’où je viens, est-ce que je suis bien sûr de prendre rendez-vous à cet endroit-là ? Que se passe-t-il de mes données ? » Parce que c’est quand même aussi un critère important.

Ben non, en fait, Cité Libre, si vous le mettez à votre charte, reste dans l’écosystème de votre organisation.

Walid: est-ce qu’en simplifiant, on ne pourrait pas dire que, peut-être que je me trompe, que Lutèce, c’est le projet et que Cité Libre, c’est le produit, quoi ? Pour rester dans un…

Philippe: tout à fait.

Walid: c’est un peu de la productisation. Pour avoir une diffusion.

Philippe: c’est tout à fait ça. Et ça permet aussi de recentrer le discours commercial. Non, encore une fois, je ne me suis pas commissionné à chaque adoption, mais en tout cas, de recentrer le discours sur du service fourni aux citoyens et non un assemblage technique.

Magali: ça permet surtout d’avoir une approche fonctionnelle auprès des collectivités et de leur parler un langage qu’elles comprennent. Pour l’instant, on était quand même très technocentrés. Et Lutèce, quand on expliquait ce que c’était, les gens ne comprenaient pas. Clairement, on avait quand même une grosse difficulté à définir ce que c’était Lutèce et ce qu’on pouvait faire.

Et du coup, avec Cité Libre et en déclinant des services au sein des collectivités pratiques – l’état civil, la prise de rendez-vous, des services pour enlever un encombrant – des choses qui parlent aux gens en fait. Et en montant des services qui parlent vraiment aux collectivités avec leurs préoccupations quotidiennes. Du coup, là, on arrive à passer sur un autre plan. On arrive à discuter, à les intéresser beaucoup plus qu’en parlant technique.

Walid: et alors, la création de Cité Libre, qu’est-ce que ça a représenté pour vous en termes d’équipe ? C’était beaucoup de travail ?

Philippe: non, du tout. Parce que comme je disais tout à l’heure, on a déjà industrialisé la plupart des services proposés par Cité Libre et inclus dans Cité Libre. Donc, au final… je vais essayer de rester éloigné de la technique, mais on a un fichier d’assemblage et un thème graphique à appliquer à un site.

Donc au final, le temps réellement passé à reconstruire ou en tout cas à génériser ces applications qu’on utilise, c’est de l’ordre de quelques heures, honnêtement.

Le plus compliqué aujourd’hui, parce que si vous allez sur le GitHub, Cité Libre a son propre GitHub, vous verrez qu’il y a un certain nombre de commits et d’activités dessus, mais au final, ce sont de nouvelles fonctionnalités qu’on n’utilise pas forcément chez nous, mais qu’on souhaite mettre à disposition des gens qui souhaitent le mettre en place et le tester, pour leur montrer la puissance notamment, je ne sais pas moi, de l’authentification en back-office, donc à l’interface d’administration, via un annuaire d’entreprise.

Voilà. Donc ça, on l’a fait nous, parfois, mais étant donné qu’on l’a fait, on le propose également.

Donc tout ça basé sur des… alors, on n’a pas tout développé. On réutilise aussi beaucoup d’open source et des briques libres, mais c’est basé sur des standards, et c’est ça qui nous permet d’enrichir ces offres. Même si on n’est pas forcément utilisateur, on se dit que ça a tout intérêt à venir compléter l’offre.

Walid: et vos premiers retours ?

Philippe: les premiers retours sont extrêmement intéressants. J’ai énormément d’interlocuteurs, aussi bien dans des villes que des départements qu’à l’étranger. Maintenant, ça y est, je suis capable de leur dire : voilà la commande à taper pour déployer un service Cité Libre dans votre langue. Tout de suite, ça ouvre des portes qu’on n’aurait pas eues auparavant sans un certain investissement côté testeur. Aujourd’hui, c’est beaucoup plus pratique. Il y a énormément de tests et de benchmarks en cours parce qu’on est aussi dans l’administration. La prise de décision, on est souvent challengé face à des solutions d’entreprise, qui elles proposent des offres en SaaS ou là, pour le coup, juste du turnkey, du prêt à l’emploi.

On n’en est pas encore là. De toute façon, on n’a pas le droit, nous, Ville de Paris, de proposer ces services en SaaS. Par contre, on sait que également en plus de cet intérêt auprès de futurs utilisateurs, on a aussi créé un intérêt ou recréé un intérêt auprès d’intégrateurs qui se disent qu’ils peuvent aussi proposer ce service-là. Donc de proposer des services Cité Libre en SaaS qui pourraient être déployés, maintenir et supervisés pour leurs clients.

La licence de Lutèce


Walid: deux remarques parce que je m’aperçois que, un, j’ai oublié de vous demander quelle licence c’était, donc on va y revenir. Et deux, pour les gens qui sont intéressés par toutes ces problématiques autour de l’évaluation, justement, je vous invite à aller voir la conférence d’Open Source Experience que j’ai republiée, qui s’appelle « Comment évaluer le logiciel libre ? », dans laquelle on parle de tous ces sujets-là, aussi les sujets du public.

Donc ça peut être aussi un complément là-dessus. On parle de SaaS, etc. J’ai complètement oublié de vous demander : quelle licence il y a sur Lutèce ?

Philippe: on est sur une BSD-2. Le choix a été pris il y a 24 ans. Ça n’a pas changé depuis. Pourquoi ? Parce que c’est un des types de licences les plus permissifs possibles. Aujourd’hui, ça permet à quiconque, en plus de l’intégrer chez soi, de se le réapproprier, de développer dessus, de contribuer et de le refournir. Le choix de ce type de licence était motivé vraiment par l’absence de barrière à l’adoption de Lutèce. Vraiment aucune.

La création de l’OSPO de la mairie de Paris


Walid: si maintenant on passe sur le dernier gros sujet, parce que l’heure tourne, qui est la gouvernance, c’est là que ça devient assez intéressant aussi. Non pas que le reste ne l’est pas, mais parce qu’on va définir le mot OSPO, dont je n’ai pas encore trop parlé sur le podcast, et il y aura un épisode de définition un peu plus tard dans l’année là-dessus.

Est-ce que vous pouvez expliquer un petit peu ce que vous avez mis en place en termes de gouvernance autour de toutes ces contributions ? Parce que je n’ai pas posé la question de savoir si l’expérience de Lutèce vous a donné envie et est-ce que vous contribuez à d’autres logiciels depuis ? Donc en fait, c’est un peu le moment pour commencer à parler de ces sujets-là.

Philippe: d’accord. Alors l’OSPO ? C’est une notion qui, alors je te laisserai en parler lors d’un prochain épisode, mais en tout cas, c’est extrêmement important parce que c’est ce qui a permis, nous, déjà la création de Cité Libre, en tout cas de justifier un meilleur facteur de diffusion de notre plateforme.

Non pas juste en disant qu’on fait de l’open source, mais aussi en prenant les actions en face pour le concrétiser.

Walid: ah les deux sont liés ?

Philippe: tout à fait, tout à fait. Une partie de la feuille de route de l’OSPO, donc OSPO ça veut dire Open Source Programme Office.

Ça a été organisé à la Ville de Paris, en tout cas on a commencé à en parler en 2019, on l’a mis réellement en place en 2022. C’est une notion, ce n’est pas une équipe à proprement parler, c’est du temps que je dédie sur une activité qui nous permet d’être un bon acteur professionnel dans cet écosystème open source qui est complexe, qui jusqu’à il y a quelques années, notamment avec Pierre Lévy, était soutenu et garant de notre bon comportement dans cet écosystème.

Et au final il était temps de concrétiser cette empreinte, cette prise sur le secteur, en se disant, en fait, l’open source n’est pas juste poser du code, n’est pas juste réutiliser du code, n’est pas juste faire un peu de doc et considérer que notre code est quelque part réutilisé. Ça a aussi des vertus dans le milieu RH, ça peut être un vrai argument de recrutement. Ça peut nous permettre de réfléchir à : est-ce qu’un agent du service public peut contribuer, en tout cas du service public à la Ville de Paris, dans un environnement plus localisé ? Qu’est-ce qu’on fait des besoins et des envies de contribution à d’autres projets ? Donc ça, la réponse a été traitée. Et ensuite, comment est-ce qu’on peut professionnaliser notre approche et notre usage de l’open source ?

Philippe Bareille


C’est ce qui nous permet, nous, de justifier un peu plus de participation à des salons, à des conférences, etc., pour montrer un petit peu et parler de notre politique open source et de s’assurer que ce soit correctement ou le plus correctement appliqué en termes plus concrets.

Walid: est-ce que le fait d’avoir l’OSPO, c’est ce que je comprends sous-entendu, vous fait plus contribuer ? Ou en fait, l’OSPO va juste servir à faire ça dans les règles de l’art ?

Philippe: alors, l’OSPO permet déjà d’avoir une personne à contacter quand on est à l’extérieur et qu’on veut savoir comment la politique de la Ville en termes d’open source est mise en œuvre. Ça tombe dans une boîte qui est relevée et une personne qui suit ça. Nous, on a profité pour mettre en place des métriques sur les contributions extérieures, etc. Donc, on a des tableaux de bord qui nous permettent de mieux suivre les tentatives de contributions de l’extérieur.

Donc, je dirais que le sujet est extrêmement vaste. On s’est basé sur une méthode qui est, j’espère, connue maintenant. Ça fait quelques années que ça existe. C’est l’Open Source Good Governance Initiative, avec la Fondation Eclipse et OW2 et d’autres acteurs du secteur privé, notamment.

On a défini un cadre de déploiement ou de mise en place d’un OSPO dans n’importe quel type de structure. Le but étant de se dire : quel que soit notre background, notre environnement, notre périmètre, sachez que l’open source peut avoir un impact là-dessus. Donc si c’est un de vos objectifs du numérique, dans votre gouvernance, etc., sachez que l’open source peut avoir une emprise, peut avoir une influence et un impact positif dessus.

Donc au final, en se basant là-dessus, on a une espèce d’éventail de sujets couverts et qui peuvent être résolus par une approche supervisée par cette gouvernance et qui permet donc évidemment, de traiter toutes ces bonnes pratiques et toutes les règles qu’on souhaite mettre en place pour des contributions, soit de nous à l’extérieur, soit de l’extérieur sur nos projets.

Voilà, j’espère avoir répondu à ta question.

Walid: c’est intéressant. Et qu’est-ce que ça vous apporte en termes de relations avec l’écosystème, avec d’autres acteurs publics, etc. ? Est-ce que ça vous place dans une position, parce que ça fait longtemps que vous faites du logiciel libre par rapport à d’autres, est-ce que ça vous place dans une position où on vient vous voir pour prendre des conseils, on regarde ce que vous faites, etc. ? Est-ce que finalement, ça met plus en avant ce que vous faites depuis des années ?

Philippe: alors oui, ça nous permet d’avoir une meilleure visibilité, évidemment, et de considérer cette visibilité comme nécessaire et indispensable, en fait, à la bonne évolution du produit et à cet aspect de partage qui est nécessaire.

Encore une fois, la politique open source de la Ville n’est pas juste motivée à publier du code. C’est également faire partie d’écosystèmes pour réfléchir et permettre d’établir des communs sur lesquels on n’impose pas nécessairement tout ce qu’on fait. Évidemment, on travaille de pair avec d’autres organisations, mais le chapitre Lutèce et Cité Libre n’est pas le seul de l’OSPO. L’OSPO permet également de suivre d’autres projets sur lesquels, soit on n’est pas contributeur, mais on est juste utilisateur.

Donc quels sont nos droits et nos devoirs en tant qu’utilisateurs d’une plateforme ou d’une solution open source, qu’est-ce qu’on peut faire et comment on doit s’intégrer ?

Donc c’est également un point d’entrée, comme je le disais, un point de contact qui est indispensable. Et cette notion d’OSPO, alors elle existe depuis 25 ans dans le secteur privé, dans le public on a découvert ça plus récemment. Mais on est en train, pareil, avec la Commission européenne – enfin, on n’est plus en train, on anime maintenant des groupes de travail avec la Commission européenne et des homologues dans les États membres, que ce soit au niveau des villes ou des gouvernements nationaux, on organise quelques rencontres dans l’année. Ce n’est pas énorme, mais en ligne, on a des discussions sur nos feuilles de route respectives, sur l’application de certaines choses ou du partage de problématiques qu’on peut avoir au quotidien, et comment est-ce que les autres les résolvent.

Donc c’est un vrai apport, c’est un vrai atout que de s’être organisé comme ça et de s’être réuni en tant que Programme Office de l’open source.

L’organisation pour accueillir des contributions externes


Walid: une question qui est liée à ça… Comment vous comptez vous organiser si demain, vous commencez à avoir, par exemple, des contributions d’organismes étrangers qui, eux, vont arriver avec des problématiques spécifiques ? Je pense à l’authentification, ce genre de trucs, etc. Comment vous allez vous organiser pour, justement, contribuer ?

Je pense que c’est comme un ERP avec les comptas dans tous les pays. Est-ce que vous avez déjà des idées de comment vous allez organiser ça pour qu’à la fois, vous continuiez à travailler sur le projet, mais aussi que des gens puissent arriver et contribuer sur des problématiques externes sur lesquelles ils ne pouvaient pas forcément avoir la main ou des manières de vérifier un peu tout ça ?

Philippe: en fait, on a déjà eu l’expérience par le passé de tentatives de contribution qui ont dû être refusées. C’est toujours malheureux parce qu’on voit toujours des efforts finalement vains et en tout cas qu’on ne peut pas valoriser, malheureusement. Mais ça, c’est pour plein de raisons. Une des premières, c’est un non-respect de règles : des règles de nommage, des règles d’architecture, etc. D’autres peuvent être, malheureusement, des spécificités trop importantes qu’on ne peut pas considérer comme génériques. Je veux dire, Lutèce est une plateforme générique avant tout. Donc là, ce qui serait idéal, parce que ça ne s’est pas toujours passé comme ça par le passé, c’est que la structure ou le commanditaire de ces évolutions nous contacte en amont et dise : « Bon, j’ai l’intention de faire réaliser ça. Selon toi, comment je dois le faire ? »

Et là, on ne parle pas de le faire pour eux, on parle juste de les accompagner et de leur donner 2-3 directives à respecter pour que ça puisse s’intégrer totalement dans l’univers Lutèce.

Il y a une question de généricité et une question de rentrer dans le spécifique du besoin du métier. Là-dessus, la réponse d’architecture serait de développer un composant qui vienne se brancher à un composant générique, qui puisse adresser tous les différents systèmes spécifiques. Donc ça, il suffit juste de donner ce genre de conseil pour dire :

« Est-ce que vous connaissez ? Est-ce que vous allez respecter ça ? Si vous le respectez, montez un GitHub à côté, dites que vous êtes un projet ou un repo Lutèce compliant, et hébergez vos propres données spécifiques, ou vos propres codes et projets spécifiques, et tout se passe bien. » Après, ce jeu d’assemblage peut aller chercher des projets à droite à gauche. On peut imaginer sur les GitHub de la Ville de Paris, pour tout ce qui est vraiment purement générique, et l’entité ou la structure qui contribue peut tout à fait proposer ses propres outils que eux ont dû mettre en place pour satisfaire leurs besoins.

Walid: ok, c’était une question que j’avais après : est-ce qu’en fait, les gens peuvent faire leur propre catalogue de plugins finalement, qui sont justement spécifiques pour eux, ou des besoins qu’on n’aurait pas en France, ce genre de choses ?

Philippe: tout à fait. Nous, du coup, on a fait la même. En toute transparence, on a un repository aussi en local, qui n’est pas public, justement pour aller finement dans certains besoins qu’on a jugés spécifiques, donc qu’on ne peut pas partager, parce que tous nos devs ne sont pas forcément open source.

Par contre, dès qu’on peut faire du générique, on le fait et on le met en partage.

Les implications de produire du code Open Source


Walid: une dernière question là-dessus. Est-ce que le fait que ça soit du code libre, ça change quelque chose quand vous créez le code ? Je suppose qu’il n’y a pas de différence entre un plugin propriétaire que vous faites pour vos besoins à vous et un plugin open source. Mais est-ce que vous, en termes de développement, ça vous change quelque chose ou ça vous met une contrainte particulière par rapport au développement ?

Magali: oui, bien sûr, ça nous met une contrainte particulière.

Le fait de développer quelque chose de générique, qui puisse s’adresser au plus grand nombre, ça exige plus de temps de conception, de réflexion, pour arriver à définir quelque chose qui puisse être évolutif et qui n’aille pas trop dans le détail pour répondre à un besoin pour que ça reste à un niveau… toujours, on essaye… En fait, la problématique qu’on a, c’est finalement de rester à un niveau au-dessus, et c’est plus compliqué que d’aller répondre aux besoins spécifiques de la personne qui te le demande. Parce que du coup, tu vas te dire : « Je suis obligée de remonter d’un niveau dans ma réflexion pour rester générique. » Et concevoir du générique, c’est plus compliqué que de développer quelque chose de spécifique qui va être jetable, pour évoluer sur un autre projet ou faire un fork d’autre chose.

Magali Lemaire


Là, on a vraiment cette problématique de se dire : on fait quelque chose qui est durable. Il faut qu’on se pose, il faut qu’on évalue les possibilités d’évolution, comment on va pouvoir avoir des interfaces, quelles vont être les API à mettre en œuvre avec d’autres systèmes. C’est comme une partie d’échecs : on compte le coup d’après pour concevoir notre solution. Du coup, oui, je pense que ça demande un effort de réflexion et aussi un investissement financier qui n’est pas neutre. C’est plus long de développer quelque chose de générique que de développer quelque chose de spécifique. Alors, dans un premier temps. Après, sur le long terme, c’est plus rentable.

Relation entre équipe de dev et l’OSPO


Walid: quelle est la relation entre vous, le service de développement, et l’OSPO ? Quelles sont vos relations, en fait ?

Magali: Philippe va t’expliquer lui comment il fait son animation et moi je vais t’expliquer mon point de vue.

Philippe: merci Magali, je vais commencer par dire qu’on est totalement dépendants l’un de l’autre. Je vais les voir régulièrement, on a des points hebdomadaires pour se tenir informé, je me tiens informé des nouveautés sur les plugins génériques, de ce que je peux intégrer ou pas, des montées de versions sur un assemblage qui va par exemple instruire les demandes, procédure administrative basée sur le workflow, etc. Donc je vais être au courant comme ça de montées de versions que je suis capable de faire et que je dois faire pour tenir informés les utilisateurs et pour leur mettre à disposition.

Donc j’ai, moi, cette petite maintenance à faire des packs sur la base des informations que j’ai des équipes de Magali. Ensuite, inversement, mon action permet… Alors, eux sont principalement dédiés à l’implémentation des projets de la mandature et de l’exécutif. Mais de temps en temps, je peux également dire, tiens, j’ai un besoin, j’ai une idée d’intégration dans un service parce que je sais que je vais avoir une réutilisation derrière. Donc, est-ce que vous pouvez m’aider sur un détail technique ? Parce que bon, j’ai été développeur une dizaine d’années auparavant, donc je ne suis pas tout à fait autonome parce que vraiment, c’est quand même deux métiers différents. Mais ce background technique, moi, me permet d’en faire une certaine partie, mais sur certaines, je sèche et j’ai besoin d’une intervention, d’une équipe support pour me permettre de mettre en place de nouveaux services ou d’ajouter de nouvelles fonctionnalités à mes services.

Magali:

pour moi, ça permet de donner une autre dimension à notre métier, c’est-à-dire que ça nous permet de prendre de la hauteur sur ce qu’on réalise et le réemploi qu’on peut en faire notamment au niveau de l’OSPO. En fait, le partage d’expérience qu’on peut avoir des autres collectivités, les retours qu’on a de Philippe, ça nous nourrit aussi. C’est important aussi d’avoir effectivement le développement projet, mais aussi d’avoir la projection de Philippe de l’extérieur et le regard qu’il nous apporte de l’extérieur parce que ça nous permet de lever un peu la tête de la feuille et de considérer qu’effectivement on peut s’ouvrir à d’autres, que d’autres peuvent contribuer. Alors on le sait, mais effectivement, avec Philippe, ça se matérialise.

Magali Lemaire


Et ça, c’est important pour les équipes de voir effectivement qu’on peut intéresser Lyon, Bordeaux, Marseille, qu’on peut intéresser l’étranger. On a quand même pas mal travaillé avec les États-Unis, avec Bloomberg. Il y a quand même beaucoup de choses qui arrivent à rayonner. Et pour les équipes qui travaillent sur les projets, je pense que c’est hyper important de voir qu’effectivement, ça a une résonance autre qu’au sein de la Ville de Paris et sur leurs propres projets.

Philippe: tu as dit quelque chose d’important sur lequel je me permets de rebondir, c’est qu’effectivement, l’OSPO permet de concrétiser, matérialiser le travail qui est fait par les équipes de dev et les chefs de projet technique au quotidien. Et de se baser sur des faits, des chiffres qui permettent de faire du reporting, de faire de l’auto-évaluation, d’atteinte d’objectifs, etc. plutôt que de compter juste sur le souvenir qu’a chacun de son rôle et de ce qu’on attend de lui.

Magali: je pense que pour compléter juste, je crois que ça complète, ça donne la dimension open source. Tu vois, open source finalement, dire que c’est open source c’est bien, mais ce n’est pas suffisant. L’OSPO, ça va permettre vraiment de le concrétiser. Moi, je dirais vraiment ça. Ça valorise le travail des gens.

Walid: en parlant de valorisation du travail, c’est quand même valorisant de faire du code qui est utilisé par les concitoyens et qui peut être réutilisé par d’autres. Est-ce que c’est une grosse motivation dans les équipes ?

Magali: j’espère. Oui, oui. Moi, je pense qu’on a un certain nombre de personnes qui sont très engagées. Je pense que de toute façon, si tu viens dans notre équipe et que tu viens faire de l’open source, tu es forcément engagé.

Parce que c’est quand même prenant, c’est intéressant, c’est hyper diversifié. Et puis, on a quand même tout ce sens de l’engagement pour le service commun. Donc, je pense que oui, je pense sincèrement qu’on a tous ce côté-là.

Walid: les gens qui viennent travailler dans l’équipe, ils faisaient de l’open source avant ou pas du tout ?

Magali: pas mal, oui. Pas tous, mais au niveau de l’équipe Java, il y a quand même une grosse sensibilité de base, forcément. Et après, au niveau des chefs de projet, on a des gens qui sont très investis, effectivement, dans l’open source.

Une de nos jeunes collègues, qui était cartographe en enseignement et qui était très investie, qui est très investie dans l’open source. Donc, on a vraiment déjà, on s’est vraiment chevillé au corps.

Les défis de Lutèce et Cité libre


Walid: avant qu’on termine, la dernière chose que je vais vous demander, c’est les défis. Est-ce que vous avez un ou deux défis majeurs qui vous attendent, que ce soit techniques ou en termes d’organisation ou de communication ? Est-ce qu’il y a quelque chose que vous voudriez mettre en avant ?

Magali: à mon niveau, j’en ai deux très importants. C’est déjà l’intégration de l’IA dans nos travaux. Non pas pour le subir, mais pour l’accompagner et l’amener en douceur dans nos projets, tout en considérant toute la partie éthique, écologique, financière et toutes les problématiques qu’on a derrière.

Pour ne pas le subir, on veut arriver à proposer des plugins qui intégreraient des modules d’IA. Après, on réfléchit vraiment à toutes les problématiques et ce qui est sous-jacent avec l’IA. Et ça, c’est une grosse problématique qu’on aura tous. De toute façon, ce n’est pas seulement nous. Donc je pense qu’on va devoir suivre le mouvement et ne pas le subir. Donc, du coup, on va le faire avec toute la réserve et toutes les protections qu’on peut avoir. Mais néanmoins, on va y aller.

Et après, il y a toute l’organisation dont tu parlais, la communauté. Comment l’accompagner, la faire grossir, amener les gens à contribuer ? Parce qu’aujourd’hui, effectivement, on est dans la diffusion. Moi, j’adorerais que les gens contribuent aussi, plus encore. Et c’est vrai que ça demande encore une ouverture qui est nécessaire et qu’on va parvenir à avoir.

Walid: Philippe, de ton côté ?

Philippe: je partage tout à fait le second défi évoqué par Magali. C’est clairement ça pour moi, c’est l’animation de cette communauté et de trouver des axes, même si ça a été fait par le passé, il n’y a pas de souci, mais de le faire maintenant sous couvert de l’OSPO et surtout cette mise à l’échelle, en fait. Voilà. Moi, c’est le passage à l’échelle qui m’importe.

Aujourd’hui, c’est de dire, ce qui a pu marcher avec telle ville, en fait, il faut s’assurer que ça puisse marcher avec toutes les autres. Donc, au début, c’est un accompagnement presque individuel et après, c’est un accompagnement de groupe. Donc, c’est vraiment ces animations au sens large des communautés qui permettent à chacun de s’intégrer, de trouver un rôle et un niveau de participation qui le satisfasse.

Donc pour moi, c’est la mise en place de ces bonnes pratiques, de choses qui puissent marcher, sachant qu’on est quand même une équipe assez réduite, et que, alors, j’ai pas le rêve que la communauté s’autosuffise, j’ai arrêté de rêver là-dessus, mais en tout cas que les actions qu’on puisse mettre en place soient suffisantes pour montrer effectivement que ce projet est viable, animé, dynamique, qu’il y a une équipe… des personnes qui bossent au quotidien dessus et que c’est suffisamment sécurisant pour les gens qui hésiteraient encore.

Le mot de la fin des invités


Walid: on a terminé, alors je vais vous laisser avant de partir, de faire chacun un mot de la fin. Si vous avez un message à faire passer aux auditrices et aux auditeurs de Projets Libres!.

Magali: venez nous voir, contribuez. Si vous avez une hésitation, ou en tout cas un intérêt pour Lutèce et Cité Libre surtout, je pense qu’on offre des solutions qui sont largement accessibles et facilement implémentables dans les associations, les collectivités, petites, grandes et moyennes. Et je pense que cette solution a vraiment un potentiel énorme et c’est vraiment dommage de passer à côté.

Philippe: moi, je vais répéter quelque chose qui a été dit un petit peu auparavant, que tu as dit et sur lequel on n’abonde pas suffisamment, c’est que lorsqu’on a un besoin, arrêter de nous focaliser sur ce qui nous sépare, sur ce qui nous rend unique, mais regardons plutôt ce qu’on a en commun avec d’autres personnes qui ont traité le sujet.

J’ai été souvent confronté à ce type de réponse : « Non, vous, Ville de Paris, vous êtes différent. Et moi, mon besoin est différent. » Non, en fait, on est des villes. On est des villes, on fournit un service public à nos citoyens. Notre but est le même. Il est fait de différentes façons, ça oui. L’outil peut effectivement parfois s’adapter, parfois avoir besoin de s’adapter, et parfois ne pas répondre, ça je l’entends tout à fait. Maintenant, au lieu de dire : « Parce que je suis unique, parce que je m’appelle machin, et que personne d’autre s’appelle machin, je suis suffisamment unique pour dépenser de l’argent et faire quelque chose que je commande parce que je sais faire. » En fait, non, prenons la peine – alors je m’inclus dedans, évidemment – de regarder ce qui existe autour, de regarder les communautés qui existent. Il y a des gens qui travaillent au quotidien sur des projets open source qui sont utilisés partout et que personne ne connaît, et il y a des projets qui sont refaits, refaits, refaits, parce que juste certains ne regardent pas le paysage et ce qui existe déjà.

Walid: tout à fait. Refaire et refaire dans le logiciel libre, ça semblait être un truc assez commun.

Philippe: oui.

Walid: non, mais ce n’était pas comme ça que je voulais le faire. Alors, j’ai fait mon projet. Ok, très bien. C’est le mot de la fin. Merci Magali, merci Philippe de votre temps

Philippe : merci à toi Walid

Walid : et d’être venus nous présenter un peu ce que vous faites. J’ai trouvé ça très intéressant. Et à titre personnel, ça me fait très plaisir. Je suis heureux. Donc, j’espère avoir l’occasion à un autre moment de vous avoir dans quelques temps pour reparler un peu de où vous en êtes. En tout cas, pour les auditrices et les auditeurs, n’hésitez pas à faire des commentaires sur Mastodon et surtout à partager cet épisode, comme tous les autres d’ailleurs. Ça me ferait très plaisir et puis c’est important aussi pour le podcast.

Écoutez, Magali, Philippe, merci et puis bonne soirée et puis à une prochaine.

Magali: merci beaucoup. Merci à toi.

Philippe: bonne soirée.

Cet épisode a été enregistré le 7 janvier 2025

Licence


Ce podcast est publié sous la licence CC BY-SA 4.0 ou ultérieure.


player.ausha.co/?showId=aKZYjT…

Sommaire

Description


Pour cet épisode Projets libres ! nous parlons de démocratie numérique et participative. Avec Valentin Chaput, co-fondateur d’Open Source Politics, nous explorons le logiciel libre Decidim, créé par la mairie de Barcelone, et utilisé dans bien des structures depuis !

Dans cet épisode nous abordons les sujets suivants :

  • Qu’est-ce que la Civic tech, ou technologies civiques ?
  • L’environnement politique et les outils au moment de la création de Decidim
  • La génèse de Décidim
  • La communauté autour de l’outil
  • La gouvernance de Decidim
  • Les modes de financements
  • Les utilisateurs de Decidim
  • Les défis à venir sur l’outil
  • Le modèle économique d’Open Source Politics
  • Le mode de développement autour de Decidim et la manière dont Open Source Politics s’y insère
  • Le rôle (ou pas) de l’état vis à vis de Decidim

Cet épisode est enregistré le 13 octobre 2023.

Lien pour en savoir plus sur Decidim et Open Source Politics



Liens supplémentaires



Licence


Ce podcast est publié sous la double licence Art Libre 1.3 ou ultérieure – CC BY-SA 2.0 ou ultérieure.

projets-libres.org/valentin-ch…

#Entretien


This entry was edited (3 months ago)

15 mars 2025, 10:30:00 CET - GMT+1 - ECE, Malijai, Alpes-de-Haute-Provence, France
Mar 15
Journée numérique Libre
Sat 2:30 AM - 9:00 AM
Lou Brusc


Dans le cadre de l'évènement national Libre en Fête, nous organisons une grande journée autour du numérique Libre à L'Espace Collaboratif Équitable de Malijai.

Une journée de présentations, ateliers, échanges autour des Logiciels Libres et des Communs.

Au programme :

  • 10h30-12h30 : atelier "dégooglisation" smartphones
  • 10h30-12h30 : atelier présentation de distributions GNU Linux à installer sur votre ordinateur
    • Ubuntu
    • Linux Mint
    • Debian
    • Primtux, à destination des enfants du cycle primaire


  • 12h30-14h : repas sorti du sac (apportez votre déjeuner à partager)
  • 14h-16h30 :
    • install-party GNU Linux
    • atelier "dégooglisation" smartphones


  • 14h-15h30 : atelier outils de communication libre
  • 16h-17h : projection du petit film d'animation "Ada & Zangemann" et présentation du projet.

Participation aux frais : prix libre

Organisateurs / partenaires


  • Lou Brusc, tiers-lieu itinérant
  • Linux Alpes (Groupe d'Utilisateurs Logiciels Libres)
  • ECE, tiers-lieu de Malijai
  • Collectif citoyen de l'atelier d'hygiène numérique de Thoard
This entry was edited (2 months ago)

14 mars 2025, 18:30:00 CET - GMT+1 - Mairie de quartier de Quatre-Moulins, 29200, Brest, France
Mar 14
Le Libre dans les ateliers vélo
Fri 10:30 AM - 12:00 PM
Infini


Dans le cadre de Libre en Fête 2025,

l'association Infini et le service Médiation numérique et participation citoyenne de la ville de Brest accueillent :

L'Heureux Cyclage et deux ateliers membres du réseau des ateliers vélos participatifs et solidaires, L'atelier Dynamo (Nancy) et Véloma (Bressuire) afin de parler du Libre, la philosophie et les outils informatiques en réseau et en associations.

Romain, membre du collège de L'Heureux Cyclage, nous expliquera ce qu'est le réseau, quelles sont ses valeurs, ses outils et ses pratiques libristes.

Axel, bénévole de l'association Dynamo, participe depuis quelques années, à la gestion des outils numériques au sein de celle-ci. Initialement technicien, il organise de temps en temps des petits événements et des animations qui ont pour but la promotion de la culture du Libre, principalement le logiciel libre, à destination des administrés de la collectivité pour laquelle il travaille.

Ils nous présenteront l'hébergement web et la mise à disposition ainsi que l’usage des logiciels libres comme des outils parvenant à viser la mission principale de l’auto-réparation du vélo, ainsi que quelques actions dérivées telles que le partage des ressources dont le contenu est sous licence libre via le wiklou, le wiki du biclou.

Adrien de Véloma, nous parlera de la mission principale de son association c'est-à-dire concevoir des solutions alternatives basse technologie, partager des plans libres référencés concernant quelques prototypes de vélos. Il évoquera une vision plus culturelle du libre avec leurs engagements et leurs pratiques libristes.

La conférence est ouverte à tout le monde et destinée au grand public. Elle sera suivie d'un moment convivial autour d'un apéritif partagé chez Infini.

L'Heureux Cyclage


Le réseau fédère en France plus de 180 associations qui animent sans but lucratif des ateliers vélo. Les premiers de ceux-ci sont apparus en France à Grenoble et à Lyon en 1994 et se définissent par leurs activités de promotion active du vélo basées sur le réemploi de vélos inutilisés et l’apprentissage de la mécanique.

Il est engagé dans le domaine de la philosophie du Libre et de l'informatique Libre pour les ateliers vélo participatifs et solidaires de France. Comme Infini, il est un hébergeur associatif et il propose des outils spécifiques pour les ateliers de France, les forme et les accompagne cf. heureux-cyclage.org/outils-mut…. De plus le site Internet du réseau est sous SPIP.

L'atelier Dynamo à Nancy


Un atelier vélo d'autoréparation participatif. La structure compte 1200 adhérents, 7 salariés, 2 volontaires en Service Civique et environ 45 bénévoles. Ils ont déployé des services en ligne reposant sur des logiciels libres et utilisent certains de ceux proposés par L’Heureux Cyclage. Depuis 2020, ils réutilisent des ordinateurs (avec des systèmes d’exploitation GNU/Linux) via une autre association locale. Le matériel provient principalement d’une collectivité territoriale.

L'atelier Veloma à Bressuire


Une association dont l’objectif est d’accompagner des alternatives concrètes dans les domaines de la vélo-logistique, des basses-technologies, de l’alimentation et de l’agroforesterie, en expérimentant des outils, en diffusant des savoirs-faire et objets dans l’optique de l’autonomie, de la transition imaginaire. Engagée dans une dynamique du Libre dans leur atelier hybride, ses membres travaillent sur du hardware et ont notamment développé une remorque à trois roues avec frein à inertie et des tutoriels de fabrication en creative commons : charrette.bike, avec Freecad et framagit.org/Veloma/Charrette. Ils animent aussi un atelier d'autoréparation à Bressuire dans les Deux Sèvres. De plus, l'association est adhérente de French Data Network - FDN, Fournisseur d'Accès à Internet associatif (membre de FFDN, la fédération nationale) pour la connexion de leur atelier.

Affiche en grand format

Au plaisir de vous rencontrer ou de vous retrouver à pieds ou à vélo !

--

Il y aura des arceaux à vélo à proximité

L'arrêt de bus le plus proche est : Cosmao Prétot

L'arrêt de tramway le plus proche est : Valy Hir

This entry was edited (3 months ago)

Lilbits: Fedora 41 for Apple Silicon, NVIDIA’s new $249 AI dev kit, and Android 16 DP2


NVIDIA’s latest Jetson platform for AI development is more powerful than its predecessor, but costs half as much. Radxa has launched a new motherboard for folks that want a powerful ARM-based processor in a mini ITX form-factor. There’s a new build of Fedora available for Macs with Apple Silicon. And Google has released another developer preview of the next version of Android.

Here’s a roundup of recent tech news from around the web.
NVIDIA Jetson Orin Nano Super Developer Kit

NVIDIA Unveils Its Most Affordable Generative AI Supercomputer [NVIDIA]


The NVIDIA Jetson Orin Nano Super is a $249 dev kit (module + carrier board) with up to 67 TOPS AI performance. It’s half the prices of the previous-gen model, while offering 70% more AI performance and 50% more memory bandwidth.

youtube.com/embed/S9L2WGf1KrM?…

Radxa Orion O6 mini-ITX motherboard is powered by Cix P1 12-core Armv9 SoC with a 30 TOPS AI accelerator [CNX Software]


This 170 x 170mm (6.7″ x 6.7″) board features a Qualcomm 8cs Gen 3 processor four 2.8 GHz ARM Cortex-A720 CPU cores, four more at 2.4 GHz, and four 1.8GHz Cortex-A520 cores. The Orion 06 board also has Immortalis-G720 graphics and a 30 TOPS AI accelerator, up to 64GB of RAM, two 5 Gb Ethernet ports, a PCIe 4.0 x4 connector for storage, a PCIe x16 slot, and an M.2 E-Key for a wireless card, among other things. The board is available from ARACE or AliExpress for about $200 and up.

The Second Developer Preview of Android 16 [Android Developers Blog]


Android 16 Developer Preview 2 is now available, with performance and battery life improvements as well as new developer APIs. It’s available for Google Pixel 6 and later devices.

Google picks a MediaTek modem for the Pixel 10 series [Android Authority]


Google’s recent smartphones ship with Tensor processors designed in-house by Google, but they use modems designed by Samsung. It looks like next year’s Pixel 10 could ship with a MediaTek T900 modem instead.

Fedora Asahi Remix 41 is now available [Fedora Magazine]


The latest release brings Fedora 41 to Macs with Apple Silicon. It includes support for x86-64 emulation and Vulkan 1.4 graphics, making it possible to play some games on Apple Silicon. Keep in mind that not all hardware is supported yet – microphone support is still a work in progress on all Macs with M series processors, a bunch of features aren’t working on systems with M3 chips yet, and M4 isn’t fully supporter yet either.

Keep up on the latest headlines by following Liliputing on Bluesky or @bradlinder@fosstodon.org on Mastodon. You can also follow Liliputing on Threads, Facebook, and X.

#ai #android #android16 #appleSilicon #asahi #fedoraAsahiRemix #jetson #jetsonOrinNano #lilbits #linux #mediatek #miniItx #nvidia #nvidiaJetsonOrinNanoSuperDeveloperKit #pixel10 #radxa #radxaOrion06

why do some YouTube videos on lemmy have a thumbnail, while some don't?


If you go to !videos@lemmy.world and scroll you'll see some of the posts have a youtube thumbnail image, but not all.

I wanna post YouTube videos, but no one seems to engage much without a thumbnail, which makes sense, but I'm not sure what would result in the post actually having a thumbnail

If anyone has advice or guidance I'd appreciate it :) Thanks!

EDIT: so far it seems like it's potentially a combination of what version of lemmy the posters account is running, and how that instance is configured...

This entry was edited (5 months ago)

Which reasonably sized instance to recommend newcomers?


Criteria: I'm looking for instances that are defed' with the Big 3 tankies (lemmygrad, lemmy.ml, and hexbear). I have no interest in trying to persuade my friends to create an acc and set up instance blocks before diving in, or dealing with the feedback when they run into the tankie brigade.

Edit: lemmy.cafe and infosec.pub seem to fit. I also find it really interesting just how many of the replies totally ignored my stated criteria.

This entry was edited (5 months ago)

Flipboard is making a new app for the fediverse


Looks like it’s for feeds and the fediverse
in reply to Kayday

I'm answering a different question than the one you're asking, but I switched to Linux (specifically Fedora) as my main computer not too long ago. I had been trying to improve at Linux because I work in scientific research, but I was anxious because games seemed far...messier and complex than the scientific stuff I was more familiar with, and I didn't want to kill my recreation. This worry was unnecessary, because I have been immensely impressed by how straightforward playing Steam games through Proton (the windows emulation thingy that Steam uses). There have been a couple of minor issues that were easy to troubleshoot, and it was the kind of problem that sometimes crops up on Windows too.

I still feel quite overwhelmed by Linux, because I still don't really understand why some things work on one operating system and not another. Like, I understand that .exe files don't natively work on Linux (they require something like WINE, or Proton (WINE is like Proton, but not specialised for games)), but I don't understand why. I think to properly understand it, I'd need to become a kernel developer or something silly, so I think I need to make my peace with not really understanding the difference. I think that's okay though, because I don't really need to know that. It's sufficient to just know that they are different, and know how to respond (i.e. Knowing that the .exe version of software isn't intended for my system, but that I can probably run it if I use WINE or Proton).

Most of my teething problems with Linux have been non game related, and although some of them were very stressful to troubleshoot, I found it refreshing how easy it was to learn how to fix problems. Especially given that a big thing that drove me away from Windows was constantly feeling like my computer wasn't my own. Often when Windows goes wrong, it makes fixing the problem harder via hiding away settings, or obscuring information in a way that perversely makes solving small things require a much higher level of expertise. It ends up feeling like the system isn't trusting me to be able to solve problems for myself, which makes me feel powerless. I suspect you may relate to much of what I have said in this paragraph.

Coming to Linux from Windows can be stressful because suddenly, you are trusted with a lot more power. You can delete your entire operating system with one command if you want (sudo rm -rf /*, if you're curious) and there's nothing stopping you. The lack of guardrails can be scary, but there are far more helpful and kind Linux nerds on the internet than assholes, in my experience, so I have found many guides that guide me through solving problems such that I'm not just blindly entering commands and praying to the computer god. You sound like a person with a mindset towards progression, so you will likely do well with this challenge. If you're like me, you may relish the learning. Certainly I enjoy the feeling of progression that I've had the last year or so.

People here may suggest dualbooting or using a virtual box to try it out. I would suggest diving in, if you can. Unless you have software that you know is strictly windows only, setting aside some time to fully switch is a good way to immerse yourself. I tried with virtual machines and dual booting, but I ended up getting lazy and just using the Windows because it was the path of least resistance. I had to fully switch to actually force myself to start becoming familiar with Linux.

Hardly any of this directly answers your question, so I apologise if this is unwelcome; I wrote so much because I am more enthusiastic about this than the tasks I am currently procrastinating. Best of luck to you


Edit: some games have anticheat software that can cause issues. I play some multiplayer games with anticheat stuff and I've not had any problems, but I think I am fortunate to not play any with the kind of anticheat that gets its hooks in deep — they may be the rare exceptions to gaming being refreshingly straightforward. I didn't consider them because they don't affect me, but others have mentioned them and may have more to say.

This entry was edited (5 months ago)

Upgraded the CPU and now have GPU problems... any help?


I went from a 2600x to a 5600 (yes, MoBo is compatible after BIOS update) and now for some reasons I get 1FPS in games and monitor is not really detected (resolution is fine, but I can't change refresh rate and in "color" settings it's shown as "None-1 Monitor").

I tried:

  • monitor factory reset;
  • updating GPU drivers (was already running latest);
  • removing and purging GPU drivers (sudo apt remove ~nnvidia and sudo apt-get purge nvidia*) and reinstalling (sudo apt install pop-desktop system76-driver-nvidia);
  • resetting RAM speed to factory (2400Mhz).

Still nothing.

As you can guess from the commands, I'm running PoP!_OS and a nVidia GPU.

What else can I try?

Thanks in advance!

Issue found: I disabled secure boot from BIOS and now I can change resolution and refresh rate

This entry was edited (5 months ago)

I distrohoped many times today


Hello,

first I installed Gentoo with glibc and it worked fine, I got sway up and running but after some time I got bored and wanted something new. so I decided to go with Arch with rEFInd bootloader but I couldn't make it work. Arch dropped me into a rescue shell. so I went back to Gentoo but this time with musl and this time I tried Hyprland on Gentoo. there were 133 packages to install for Hyprland, so I went for installing those packages but the build failed probably because using musl. now I thought I just pick that's easy to setup and I went with Debian and it got installed successfully. so yeah, right now I am using Debian after the back and forth between Arch and Gentoo.

sadly I pissed of some Gentoo devs on IRC #gentoo :(

maybe it was my fault I shouldn't have distrohopped when Gentoo was installed succesfully and working fine.

in reply to interdimensionalmeme

What operating system should I use with my laptop that isn't an awkward kludgy idiosyncratic mess?
I would say that Windows has plenty of kludges, like having problems with certain file names. Many versions of macOS are UNIX® Certified Products (for example, macOS version 15.0 Sequoia on Intel-based Mac computers and on Apple silicon-based Mac computers), so it's surely not any less kludgy than Linux.

I suppose that it's not bad to change documentation to be more specific, and change a program such that it matches the new documentation and wouldn't cause any harm if it replaced all the existing versions of the program, but makes it possible to use the program to solve more problems. That would be to "add functionality in a backward compatible manner".

You are also free to create new programs that are not an exact replacement for existing programs, but can enable some people to stop using one or more other programs. That would not be what I describe as stagnation.

"The cat utility shall read files in sequence and shall write their contents to the standard output in the same sequence.", so I would be very annoyed if it did something different with a certain file but not others. I wouldn't say that the contents of a file and the contents after the file is expanded are the same.
In fact, I expect that some people use cat to process compressed files, and changing how cat acts with compressed files would probably cause them a large amount of annoyance, and would needlessly make a lot of existing documentation incorrect.

Bluetooth headphones not detected


The situation is this:
- I use a bluetooth dongle ASUS UB400 on my PC, bluetooth version 4.0
- My Sony wh-1000xm5 (bluetooth version 5.3) is not detected by the PC when I scan for new bluetooth devices
- Another Anker Soundcore Q20 headphones are detected and working fine, like the mouse and a bluetooth speaker.
- The Sony is detected by my android smartphones and working fine
- I switched the dongle with another one with different brand, and all the devices were detected (and work fine) with the excepcion of the Sony.
- Using Debian 12.8 and tested with bluetoothctl

Any advice is welcome.

This entry was edited (5 months ago)
in reply to ProgrammingSocks

Good point. I was confused because my other headphones when they are in pairing mode a blue light flashes repeatedly, but after reading the manual of the XM5 this means that is not connected not that they are in pairing mode, and as you said for pairing mode you have the press the power button for 5 seconds, the problem is that when I do that the headphones shutdown, May be there is an option to change that, I will check it out.
This entry was edited (5 months ago)

AMD Preps Many Graphics Driver Updates For Linux 6.14, DRM Panic Support


Ibis release 0.2.0 - Federated Wiki with Shiny Redesign


in reply to Nutomic

This is a cute idea but I've generally been satisfied with the idea of using Gitit. That's a wiki backed by a git repo, so you can use normal git commands to propagate updates between servers. github.com/jgm/gitit or "apt install gitit".

How decentralized is Bluesky really? -- Dustycloud Brainstorms


Differences between Lemmy and Mastodon


I'm trying to understand the way Mastodon works. Back in the day I started with IRC and then the many php-based forums and then reddit which led to lemmy. I never used twitter or similar platforms.
My understanding (and this is where I need help) is that all of the above are topic-based, whereas Mastodon is person-based? What I mean is that on lemmy I subscribe to things based on topic and I don't really care about usernames or user profiles, I only care about discussing a topic. It seems to me like Mastodon is the opposite? You follow persons and what they might say about any topic?
Is there something I'm missing here? Are hashtags close enough to sorting it by topic that it works just like a topic based platform? Is this difference inherent or just in my head because I don't understand Mastodon?
in reply to pmk

Mastodon is microblogging. As others have said, it's similar to Twitter. Lemmy is a link aggregator with a comments/conversation section per link, like Slashdot, Digg or Reddit.

I think the thing that people forget to do with Mastodon is to follow hashtags. The feature wasn't there early on but it's been there for probably a year or more now. Then you block or mute the accounts you don't want to see that post under those tags.

It's a useful substitute for following accounts when you have no idea which accounts to follow. You can then curate and actually follow accounts whose content outside those hashtags also catches your eye.

On the link aggregators there are the groups which don't exist on Mastodon, but that's what hashtags are for, right? Marking the topic.

The only hard part about it for me is feeling bad about blocking innocent accounts.

Also worth mentioning is that Mbin instances exist, and that software is basically both Lemmy and Mastodon rolled into one site. The posts aren't fully integrated though. You have to click something to view the microblog side of things and click something to go back.

in reply to pmk

I can only speak to the topics I followed on another account, but it provided plenty of reading for those topics. Whether it covered all possible posts and whether it works well for all topics, I couldn't say.

It does kind of rely on people tagging things properly, which people might not do if they're on a Mastodon instance specific to that topic. But then, they ought to know that those posts wouldn't Federate well, and indeed, might not want them to.

Casual Fediverse Resources, or a Traveler's Guide to the Fediverse


If you're reading this, you may be new or interested in seeing what's up.

What the Fed?
So putting it overly simply and from the start, the whole federation thing is basically like you following/subscribing to people/channels to make your timeline or for you page, but it's a whole community activity and some of the people/channels are from a variety of places rather than a single platform.

From there, you then curate what the community's found to suit your interests as you would in other places, following/subscribing and blocking, muting, or keyword filtering, depending on where you're participating from. For what your place and community's found, you'll look through either the "All" or "Other Servers" feeds. "Other Servers" just means only from other places and their communities, meanwhile the "All" feed is a blend of both original stuff from your place and from other places.

If you want to see only what your place's posting, sharing, and discussing, you'd look to either the "Local" or "This Server" feed. If you're from a small place, chances are this may be quieter than bigger places, like a village compared to a city. This may also extend to the aforementioned "All" feeds, but that depends on your place's community and whether they're avid lurkers following and subscribing to many without saying much, or the opposite, highly chatty with each other while not looking much beyond their little place.

Gettin' Messy
But what if your community hasn't found what you'd like to follow yet?

Here's where things get messy and either fun, or frustrating, depending on your mindset and time of day. You gotta roam the web, be curious. See the weird thing after someone's name? Like "DingoDazzle\@doughnut.delish?" That "doughnut.delish" is another place with who knows what there. Take a chance and see what else may be found on "doughnut.delish", then copy a username or profile/channel/community link you find there with a different place name like, "MadSodaScientist\@chemical.soup" into the search for your place and try to follow it.

Okay, so that's a whole thing, and it's more involved than corporate social media where it's often just a click, but that's how the raw discovery tends to work around here because it's connecting different places. It's clunky and manual, but once you've done it, you've helped your place out by making sure others don't have to do that. It's often a thankless task, but so is much of finding things for strangers.

Also it's worth mentioning, sometimes it won't work in your place, because technology is complicated and hard and everyone's using it a little differently. It's always a little wonder any of this works even a quarter as well as it does, all things considering.

Some Discovery Resources
However, there's more to finding other stuff than that, because the point of all this is community, and that means you're not alone. There's a number of resources to help.

For link aggregators using Lemmy or similar, there's Lemmyverse, for finding communities to subscribe to. Not to mention there's a few communities in these places for announcing and promoting new ones, such as !newcommunities@lemmy.world and !community_promo@lemmy.ca.

For microblogging sites using Mastodon or similar, there's Trunk, Fediverse.info, and Fedi.directory. Also for trying to connect to groups across said sites, there's A.Gup.pe.

It's also commonly recommended to follow hashtags related to your interests, e.g. #SillyTech, but also it doesn't hurt to keep an eye on #FollowFriday. There's also FediFollows that posts regular lists of people and accounts they think may be worth following.

For video sites using Peertube, there's SepiaSearch, and streaming sites using Owncast, there's Owncast Directory.

And if you want to zoom out further, there's Fediverse.observer, where you can see a range of different places using different software to host their communities. It's a great way to explore even further afield.

Think that's all I have for now. Be kindweird, , share with others, and embrace confusion.


Toss in whatever else you think may be helpful that I'm forgetting/unaware of, keepin' with the attempt to stay on the lighter, non-technical side.

in reply to ElectroVagrant

just a suggestion; for the first header I don't think you need to shorten Fediverse to Fed

What's the Fed


Doing so might confuse new arrivals and Fediverse is a commonly accepted term afaik👍


Another suggestion:

From there, you then curate what the community's found to suit your interests as you would in other places, following/subscribing and blocking, muting, or keyword filtering, depending on where you're participating from.


From there, you can:
- opt-in and curate your personalized feed by following/subscribing to communities that's available.
- opt-out and [block, mute, filter] by [users, communities, instances.

This entry was edited (5 months ago)
in reply to caseyweederman

I'd say pixz is considerably more interesting to improve tar.

github.com/vasi/pixz

Used as a compressor with tar, it adds:

  • Parallel compression/decompression, increasingly important with many-core processors.
  • Indexed access. Tarballs, unlike, say, zip or 7zip, don't normally support jumping right to the point in an archive where a file lives.

It's LZMA-based, like xz, lzip, or 7zip. Good-but-slow compression, faster decompression than bzip.

This entry was edited (5 months ago)

Valve's plan to bring SteamOS to more devices is a promising sign if you want to stop gaming on Windows


in reply to cm0002

Very excited for the super new inductees that just want to build a Steam home console.

Buuuuut I really have not had issues with anything except Anti-Cheat (which Steam Deck has issues with anyway) using Pop!_OS on my PC.

It did take some learning, but most of that was done through just using the OS.

The only time I had issues doing something I wanted to was when I initially tried to install Mod Organizer 2 for Fallout: New Vegas. That took some reading up. Ended up being an easy fix and then all I had to do was learn how to install Windows components to my F:NV prefix in Protontricks to get almost any mod running.

So for anyone who wants to plug in and play their games, Linux is basically there. And for anyone more technical, it's not a crazy amount more work to do the stuff you're already doing.

Minds.com


Am honest review pls...

Question about Linux culture.


Part of what's making learning Linux so difficult for me, is the idea of how fragmented it is. You can install programs with sudo apt get (program). You can get programs with snaps. You can get programs with flatpaks. You can install with tar.gz files. You can install with .deb files. You can get programs with .sh files. There's probably more I don't know about.

I don't even know where all these programs are being installed. I haven't learned how to uninstall them yet. And I'm sure that each way has a different way to uninstall too.

So that brings me to my main question. Why not consolidate all this? Sure, files CAN be installed anywhere if you want, but why not make a folder like /home/programs/ where it's assumed that programs would be installed?

On windows the programs can be installed anywhere, but the default is C:/windows/Program Files x86/ or something like that. Now, you can change it all you want when you install the programs. I could install it to C:/Fuckfuckfuck/ if I wanted to. I don't want to, so I leave it alone because C:/Windows/Program Files x86/ is where it's assumed all the files are.

Furthermore, I see no benefit to installing 15 different programs in 7 different folders. I begrudgingly understand why there's so many different installation methods, but I do NOT understand why as a collective community we can't have something like a standardized setting in each distro that you can set 1 place for all your installation files.

Because of the fragmentation of distros, I can understand why we can't have a standardized location across all distros like Windows has. However I DON'T see why we can't have a setting that gets set upon each first boot after installation that tells each future installation which folder to install to.

I would personally pick /Home/Programs/, but maybe you want /root/Jamies Files/ because you're Jamie, and those are your files.

In either case, as we boot up during the install, it would ask us where we want our program files installed. And from then on, no matter what method of install you chose, it would default to whatever your chosen folder was.

Now, you could still install other places too, but you would need to direct that on a per install basis.

So what's the benefit of having programs each installed in seperate locations that are wildly different?

in reply to Lost_My_Mind

Windows certainly doesnt have uniformity.

Where are my game saves located?

Are they in my hidden AppData folder? If so, which of the three subdirectories does it live?

If not there, then surly it's in the Saved Games folder.

Nope. It must be in My Documents.

Shit... Maybe in the Program Files?

For fuck sake, where is it?!

Web browser > search > pcgamingwiki (great resource BTW), save game location. AH-HA! IT'S IN... My Documents?

I just checked there! (Half an hour passes)

Found it! Now why the FUCK does Windows partition the local user directory from the OneDrive user directory?!

Windows is a FUCKING mess. Once you get used to Linux, you'll understand the worst thing is Mozilla thinks it's okay to put its config file one directory up from where it should be.

This entry was edited (5 months ago)
in reply to Zozano

seriously, I have been gaming for more than 30 years and if you want me to swear I'll swear, for 25 years I have been gaming pirated games, on the V1.0.0 of a random game, the save file is located on My Documents\My Saved Files, then after installing the update 1.1.0 the saved progress is gone, after much research, I find it under my docs\the game name, then after 1.2.0, I find it under App Data\local... and so on and every time the pseudo changes+ the path
in reply to Lost_My_Mind

You can install programs with sudo apt get (program). You can get programs with snaps. You can get programs with flatpaks. You can install with tar.gz files. You can install with .deb files. You can get programs with .sh files.


APT, the Advanced Packaging Tool, uses .deb files. Speaking technically, APT is the app store part of the system, the part that actually installs packages is called dpkg. If you have a .deb file and you want to install it, you can directly invoke dpkg. I have encountered things like printer drivers where the vendor will provide in .deb format. For one reason or another they're doing it the way the Debian/Ubuntu standard package manager does it, but not publishing the files to the repositories.

Snaps, flatpaks and appimages are intended to solve the problem of fragmentation. See, APT with it's .deb files are the Debian system used by most if not all Debian/Ubuntu forks. DNF with .rpm files are Red Hat/Fedora's system. Arch uses Pacman with .pkg.tar files. SuSe, Nix, and a couple others have their own systems, and none of them interoperate.

One thing these do have in common is where they put the files they install; they are sorted by type and function into several directories in the root directory. Most of them you'll find in the /usr directory, such as /usr/bin, /usr/sbin, /usr/lib or /usr/share. bin for binary files, this is where executables like sh or bash or cat or grep. sbin is for binary files that are only for those with super user privileges; you have to switch users to root or use something like sudo to execute those. Non-executable files like libraries, data, assets etc. will be variously stored in lib, local, share and so forth. You may find there are duplicate folders, like /bin and /usr/bin. In the olden days of minicomputers these were often located on separate drives, but nowadays /bin is a symlink (basically a shortcut) of /usr/bin. Some of that is maintained for backward compatibility or in case you still need to use the differences. It gets a lot more nuanced than I'm talking about here.

They aren't installed in /home/$USER because if you have multiple users on the machine you probably want them all to have access to the software. Say you've got a husband, wife and two kids, would you want to have to install four copies of LibreOffice?

If you do want to install software in the user's home directory, the place to do that is probably /home/$USER/.local/bin

=====

This does indeed make it a pain in the ass to publish software for Linux. So they wanted one system that would work on most if not all distros. Of course three competitors arrived.

Snap is Canonical/Ubuntu's attempt which IIRC started with their embedded systems but they've been pushing as their whole deal. It's the closest thing to an Apple App Store there is; it's owned by Canonical, the back end is proprietary so no one else can host the Snap repository, etc. A lot of folks don't like that they kept some of it proprietary, plus there are performance issues with how it's implemented; it mounts virtual disks for each app installed from Snap (or something similar to that) so it gets messy.

Flatpak I think sprung up in or around the Fedora side of the world but has always had the goal of being omnicompatible. It is totally open, you can host your own flatpak repo if you want, though the de facto standard repository is Flathub. At this point, I think Flathub has achieved the goal of being the one place where, if you have a commercial app you want to also publish a Linux version of, publishing it as a Flatpak will reach most of the Linux audience in one shot. There are a couple downsides to it; for example Flatpak isn't a great way to distribute command line tools, but for GUI-based applications it works fine. Flatpaks are weird; they tend to install in /var somewhere, I think for reasons surrounding permissions.

Appimage is also around; the technique here is it's basically a .iso file that has everything the app will need to run in it, so you mount the .iso and run the executable file inside. No infrastructure or installer needed. There are package managers for it, but they aren't required. I find appimage to be the one to use if you're making some small niche software that 200 people in the world will ever want and you don't want to bother with the repositories, but I don't like using them for main distribution.

=====

Let's change gears and talk about .tar.gz or .run or .sh files. These are non-standard ways of installing software on Linux and I would avoid them unless it's a last resort type of situation.

A .tar.gz file is functionally similar to a .zip file on Windows; it's a TAR file (Tape ARchive. A bunch of files packaged into one continuous file, initially designed to be written to magnetic tape) which has been compressed with GZip. When software is distributed this way, it is up to the user to extract and store it...somewhere. Probably the best place to do this is in /opt, which is the standard location for pre-compiled software manually added to the machine by the administrator.

.run files have basically no standard and can do damn near anything and are a bad idea. It could be written in any language and do anything. You just don't know. The one I encountered the most was Simplify3D's installer; what they did was directly translate their Windows installer to Linux, the way Windows install wizards work, rather than do things in a Linux way. Hopefully you don't have to deal with that.

a .sh file is a shell script. Once again these can do anything but it'll be a text file full of shell commands that you can read and understand. It'll probably consist of a series of commands like wget or curl which download files from the internet and then commands to put them where they need to go in the file system. Once again this tends to be the approach for the "I'm usually a Windows guy but here's my Linux version" folks. This is going to choose where to put software for you, hopefully in /usr/local.

=====

You may also find yourself compiling software from source code, which is what's happening when you're told to go to Github and then run a series of instructions like git clone, make, make install. Make is basically a scripting system specifically for compiling software, it will figure out what to do. I believe locally compiled software ends up in /usr/local/bin.

===

Summary: There are a lot of directories where software ends up, and it's done the way it is so you can tell by where it is stored what it is, what it does, who has access to it, who manages it and how it arrived on the system. It also keeps automatic processes like the package manager from interfering with software manually installed or compiled by the users or system administrators.

Threads Has Blocked Minds From Federating With Them


...an't say I'm surprised, but it does expose their federation push to be a charade. Same old facebook, censoring free speech!

#activitypub #federation #censorship #minds. Subscribe to @mark on Minds



⚠️Threads.net has blocked us from federating with them. Can't say I'm surprised, but it does expose their federation push to be a charade. Same old facebook, censoring free speech!

#activitypub #federation #censorship #minds


in reply to realcaseyrollins

Given how much fediverse users have actively campaigned for instances to defederate from Threads, this martyr posturing tells me a lot about Minds.

Besides, they're still free to talk, doesn't mean others have to listen.

realcaseyrollins doesn't like this.

Linux/Windows advice (long post warning)


Let me start by explaining where I'm coming from. I'm pretty much a standard Windows user. I liked XP, I was ok with 7 and ok with 10. But overall I don't like a lot of things about Windows I think we can all agree on; business practices, spying, lack of customization, cost, etc.

In the past, I have tried to move to Linux more than once including a failed dual boot situation. There are things I really, really like about Linux that I can't believe aren't part of Windows. Despite that I really hate Linux. I'll explain that opinion so you can trash me with facts. Just understand that this is the way I see it.

First, being primarily a Windows user means I am uncomfortable with using all of the little squiggles around the outside of the keyboard to get things done. At one point I was using the most Windows-like version where I could click and download a package which was fine, but eventually I found one that had to be done manually, so this feels like inconsistency. In the dual boot situation I found myself using Windows constantly because I could not get online with Linux for some reason, which meant I had to boot in Windows to research the problem only in the end to have people tell me that the components of the computer I built were too new and I would have to wait for someone to write drivers. There are a lot of equivalent programs in Linux to Windows and I use some of them now, like Open Office, Audacity(which I love), Firefox( which I hate) and probably more I can't think of at the moment. I currently have a computer attached to my TV that I made really cheap from parts I had laying around and I'm running Mint on it. The only thing it is used for is watching YouTube videos on the big screen, usually exercise videos. It IS a problem. It loads up ridiculously slow.

So my experience has been bad overall every time I try and yes I realize I'm not doing it right. I'm not a typical Linux user.

But here's the thing, I WANT to be a Linux user mostly because I hate Microsoft so much. And now especially because according to Lemmy Windows 11 is a shit show of advertising and other crap and apparently my roughly 2 year old and still fairly powerful desktop does not meet their requirements due to that stupid chip it needs to have. I do not wish to buy a new computer and I do not wish to be a Windows slave again.

So the question is, is there hope for me giving this another try? I'm not a power user but I do use my computer for a lot of things. I will get specific here.

  1. Surfing the net. It needs to NOT lag or fail to connect.
  2. I play games with my friend online every Monday. Most of the games are on Steam. So far we have played:
    Borderlands
    Borderlands 2
    Borderlands 3
    Borderlands the pre sequel
    Tiny Tina's Wonderland
    Diablo 4
    Grimm Dawn
    Aliens fire team elite
  3. I edit videos. I use Sony Vegas pro 13. It was expensive and I'm used to it. It is important to me.
  4. I do some word processing and spreadsheet stuff. Currently I use Open Office as I mentioned.
  5. Audio conversion and manipulation with Audacity.
  6. Drawing and photo manipulation. I use a variety of programs. The most important ones in order are CorelCad. It is basically AutoCad and was expensive to buy and I'm used to it. Fusion 360, also important for 3D printing. Prusa slicer for 3D printing and one called Photofiltre. It's a simple free program I believe does have a Linux version. These are important to me.
  7. Programming microcontrollers for projects using the Arduino IDE.
  8. I use a program called Vetric which programs the tool path for my CNC router.
  9. A number of smaller more rarely used programs like one to convert a font into hexadecimal, one that normalizes mp3 files, one that captures what I do on the screen, etc.

If I had it my way, I would just continue using Windows 10. I more or less know how it works and it really doesn't give me any problems. However with this end of life thing approaching I will eventually need to migrate somehow for security's sake, right? I mean I don't even know if half of these programs will be compatible with Windows 11.

I should also mention that I'm a goal oriented person. I just want to use it, I don't want to tinker with it. That goes for pretty much any tool. I consider the OS a tool.

So given that encyclopedia of information, do you think I could/should give Linux another try? If so, which distro should I go with that will be the most compatible with my hardware and usage?

Regarding hardware, I'm not home now so just genetically I have an AMD Rhyzen 7 processor, a Radeon video card, sort of upper mid tier, 32 GB of RAM, decent motherboard and a boatload of storage.

Feel free to ask questions and I will now don my flameproof jacket for the absolute shit storm of criticism in guessing that's heading my way. Thank you in advance.

in reply to Professorozone

Windows 10 and 11 LTSC are slimmed down, official versions of Windows that can be downloaded from links found here. An activator with instructions can be found from the same source.

If you really can't switch to Linux, then use what works. There are multiple ways of cutting down on telemetry as well. O&O Shutup 10++ is a very good starting point.

This entry was edited (5 months ago)

Introducing SystemD Pilot, GUI app for managing systemd services


SystemD Pilot is a desktop application for managing systemd services on GNU/linux machines.
The app is very lightweight and supports common tasks such as starting and stopping systemd services.

It can also show detailed status for each service.

Features:
List services

Filter by running state

Start, Stop, Restart, Enable and Disable services + show status for each service

Create override configuration for any unit file using the edit button

Option for reloading systemd manager configuration (systemctl daemon-reload)

Easy search. Just start typing and the app will find relevant services

Lightweight

Available for download as deb, rpm and AppImage

Integration into GNOME desktop (libadwaita)

Made with love for the FOSS community. Please give it a try and share your thoughts.

Loops Unwrapped 2024


in reply to m_f

Honestly? I don't think it's ready for the migration that's going to take place in January (supposedly, January). The USA will ban TikTok and people still debate in the comments what should be the new short videos platform. I really want to spread the message about Loops, but I was unable to create an account just a few days ago. It won't work for thousands and thousands of people that want something efficient and do not appreciate the Fediverse effort as we do.

Mastodon itself couldn't compete against BlueSky. I think Loops has a month to be a real TikTok alternative or it faces the same destiny as Mastodon (or Lemmy).

Loops is joining the fediverse


in reply to m_f

By posting your Contributions to any part of the Services or making Contributions accessible to the Services by linking your account from the Services to any of your social networking accounts, you automatically grant, and you represent and warrant that you have the right to grant, to us an unrestricted, unlimited, irrevocable, perpetual, non-exclusive, transferable, royalty-free, fully-paid, worldwide right, and license to host, use, copy, reproduce, disclose, sell, resell, publish, broadcast, retitle, archive, store, cache, publicly perform, publicly display, reformat, translate, transmit, excerpt (in whole or in part), and distribute such Contributions (including, without limitation, your image and voice) for any purpose, commercial, advertising, or otherwise, and to prepare derivative works of, or incorporate into other works, such Contributions, and grant and authorize sublicenses of the foregoing. The use and distribution may occur in any media formats and through any media channels.

Instance owners, how did you get your server online?


I created my community using Sharkey, and I didn’t want to bother the service maintainers any more than I already have, so I’m reaching out here for help. 😂

How did you get your servers online? I manage my domain through Cloudflare, and I tried setting up a tunnel to access my instance. The server is online, and I can access the admin panel via an IP address, but I get an error when I type in the domain via my browser (Firefox). Cloudflare users, I could really use your help!

Corporate Social Media is Junk Food


SocialMedia is part of your daily diet - so why not make it healthy?

Corporate platforms feed you ads, algorithms, and infinite scroll designed to keep you hooked on junk food. The #Fediverse is different:

✅ No ads, no algorithms
✅ Real communities run by real people
✅ Diverse cultures and positive content

Stop feeding on junk. Switch to something organic!

Source

in reply to Fediverse Champion

i mean... a lot of the content on the fediverse is literally just lifted straight from the other "junk food" social media websites that were just named.

its just a federated experience. not a "healthy" one. I'm all for moving more people over to the fediverse but let's maybe take it down a couple notches with the weird propaganda-esque ads?

GRUB is confusing


hello,

I don't know if this is the right place to ask this question but could someone explain me how a UEFI system boots, I couldn't find a guide online. I want to know because I don't understand certain GRUB commands and how it get installed.

I just copy paste commands from Arch wiki and it just magically works without me knowing anything about it.

all the different distros use different grub command parameter and it's so confusing. eg, Arch and Gentoo.

Arch command: grub-install --target=x86_64-efi --efi-directory=esp --bootloader-id=GRUB
Gentoo command: grub-install --efi-directory=/efi

why both command is different? exactly where does grub gets installed?

sorry if this is a naive question but i really don't understnad GRUB.

in reply to whoareu

When I'm confused about commands, I find checking the man page for the command a good start to understand what the flags do. Once you've got man-pages installed on your Linux system, you can do "man grub-install" (or any other command) from a terminal to see information about that command and it's flags.

I'm not sure if it says it in the Arch wiki, I think it might, but "esp" is often shorthand for whatever directory you're using as an EFI boot directory, I don't think it's a literal directory. On my Arch system, my esp is "/boot/EFI" I'm pretty sure.

As for why Gentoo doesn't include the --target flag, it could be that "x86_64-efi" is either the default on gentoo's version of grub, or just the default for every version of grub, meaning if the latter is the case, that flag could be safely omitted for your arch installation.

I'm pretty sure the --bootloader-id flag is just a friendly name for the bootloader that you can see from the terminal when booted into a Linux system and probably also from the bios menu. I'm not 100% though, a check through the man page would tell you more about that specific flag. Gentoo may omit it, leaving it either blank, or as some sort of default.

To answer your original question, the system boots up, does some basic checking of hardware to make sure everything can run okay and that there are no obvious faults or incompatibilities, then tries to load a program called a "bootloader" (such as grub), which will then hand off execution to whichever operating system you select. If you're not fond of grub, good news! There are plenty of other good bootloaders available. I'm a big fan of rEFInd (UEFI only) or systemd-boot.

I don't know grub SUPER well, but I'm pretty sure it gets installed in that --efi-directory location that you provide when you run the command. It might be nested a few directories down though, not sure.

in reply to [TK] Trainzkid

Remember that the system documentation can be different for different operating systems. For example, it's notorious that the documentation for sed differs between GNU and macOS, particularly regarding the -i option: stackoverflow.com/questions/42…

In order to avoid surprises related to this, "POSIX.1-2024 defines a standard operating system interface and environment, including a command interpreter (or "shell"), and common utility programs to support applications portability at the source code level." pubs.opengroup.org/onlinepubs/… pubs.opengroup.org/onlinepubs/…

in reply to whoareu

I agree, Grub is horrendous and one of the most complex systems in linux. Grub2 is even worse, and searching the web for help is difficult as the two are named interchangeably, despite being hugely different in design.

Random files spread over the filesystem. Some you edit, some are done automatically, some are done by kernel upgrades, some you need to run yet more commands for them to work - and it all differs from distro to distro.
The sooner more distros move away from this, the better.

Introducing SystemD Pilot, GUI app for managing systemd services


SystemD Pilot is a desktop application for managing systemd services on GNU/linux machines.
The app is very lightweight and supports common tasks such as starting and stopping systemd services.

It can also show detailed status for each service.

Features:
List services

Filter by running state

Start, Stop, Restart, Enable and Disable services + show status for each service

Create override configuration for any unit file using the edit button

Option for reloading systemd manager configuration (systemctl daemon-reload)

Easy search. Just start typing and the app will find relevant services

Lightweight

Available for download as deb, rpm and AppImage

Integration into GNOME desktop (libadwaita)

Made with love for the FOSS community. Please give it a try and share your thoughts.

This entry was edited (5 months ago)
in reply to mfat

Looks neat, does its job.

If you're a power-user looking at this, you can also look at github.com/rgwood/systemctl-tu… which is somewhat similar but seems to be more useful (for now), also showing the service logs and being easily navigable with a keyboard.

Kali Linux 2024.4 released


Kali Linux is an open-source, Debian-based Linux distribution geared towards various information security tasks, such as Penetration Testing, Security Research, Computer Forensics and Reverse Engineering.
This entry was edited (5 months ago)

Hyprland v0.46.0 released


A dynamic tiling Wayland compositor

Breaking changes

  • window/layer rule regexes now require a full match (not any match) to trigger.
  • cursor:dumb_copy is gone in favor of cursor:use_cpu_buffer. This should allow no-downsides Nvidia hardware cursors. Please note it's experimental.

Notes for packagers

  • New deps: hyprgraphics, re2

New features:

  • binds: add option to allow fullscreening a pinned window (#8526)
  • config: add 'force' option for 'cursor:warp_on_change_workspace' (#8681)
    • core: Add support for hyprqtutils' update screen (#8651)
    • core: add a few festive splashes
    • core: move colorspace handling to oklab (#8635)
    • dispatchers: Add an option to prioritize focus change within groups with movefocus (#8601)
    • hooks: add pre connected/disconnected monitor events (#8503)
    • hyprctl: add an inhibitingIdle field to windows
    • hyprctl: add directScanout to hyprctl monitors
    • hyprctl: add json output on hyprctl -j plugins list (#8480)
    • input: add warp_back_after_non_mouse_input
    • logging: Add some context to config error logs (#8326)
    • makefile: add stub to discourage direct make
    • pointer: add drm dumb buffers for cursors (#8399)
    • renderer: add lockdead_screen_delay (#8467)
    • renderer: add option to blur IME popups (#8521)
    • version: add link versions for other utils (#8619)
    • windowrules: add rules for mouse and touchpad scroll factors (#8655)


  • xwayland: Support cross DnD from Wayland (#8708)

How do people on ActivityPub instances initially find remote instances' stuff to vary their feeds?


Original clunky title: How do ActivityPub instances' people initially find remote instances' people/communities/channels/etc. to vary their feeds?

Given that an instance won't see remote instance's people and stuff to follow/subscribe to until someone there has found them and followed/subscribed...That's generally how ActivityPub works, isn't it?

This entry was edited (5 months ago)

Wondering if installation transfers is possible.


So on android in 2010 I used to be into the idea of rooting my phone, and installing custom roms.

Distros are essentially custom roms for your pc. Same concept.

There was a program called TWRP that I could use. Back then it would make a full backup of EVERYTHING on your internal drive. It was mostly used after you already had a custom rom.

But it backedup EVERYTHING. If you wrote a txt message as a draft, and didn't sent it, then backed up with TWRP, whenever you restored on a new phone, that txt draft was there too. It was literally like your phone took an all encompassing picture of everything on your phones internal drive, every single file and setting, and made a backup. Saving it to your sd card.

So I'm thinking, linux should theoretically be able to do this. Maybe it does.

What if my current install is on a 250gb drive, and I buy a completely different 4TB drive? What if I want to do this total backup, save the backup to a usb hard drive, then put in a NEW hard drive, and have it restore the backup so now my entire old hard drive is now on my new hard drive? And every setting, every file, every last detail is an exact replica.

Could I do that?

ForgeFed


Repository: codeberg.org/ForgeFed/ForgeFed

ForgeFed is a federation protocol for software forges and code collaboration tools for the software development lifecycle and ecosystem.

ForgeFed is an ActivityPub extension. ActivityPub is an actor-model based protocol for federation of web services and applications.


See also:

forgejo.org/2023-01-10-answeri…

forgejo.org/docs/latest/contri…

in reply to hono4kami

Of all the nerdy things I'm excited about, the prospekt of making bug reports to FOSS git projects through my Mbin or Mastodon accounts is certainly on the list. I have so many accounts I made just for a single bug report. This will be great if/when it takes off.
in reply to aasatru

I'm personally really excited about being able to effectively move control away from central hubs such as GitHub ensure a different model of governance.

GitHub is currently okay, it's a bit slow, the UI ain't that great but it works. However, it is a prime target for enshittification. It's a large platform (and besides that also owned by a large public company) with an extremely large userbase, with a non-trivial cost to leave. People are simply much more likely to contribute to a project if they 1. can easily find it 2. can access it without having to create an additional account 3. have a functional, familiar user interface. Federation solves 2 of those issues and perhaps also point 3 since Forgejo is afaik still one of the only ones to support it.

This entry was edited (5 months ago)

Tool to check ssd health?


So I bought a ssd off of ebay. $5.40 shipped. Kingston 120gb.

I've yet to connect it to my pc. I'll be first disconnecting my hard drive, and then connecting this hard drive. Unclear it's contents. I'll be booting off a ZorinOS livecd.

Is there any tool I can install on the livecd to check the overall health of my ssd? I know literally nothing about it's past, and I realize theres a significant chance I just bought junk.

I'm new to linux. Like brand new. So don't just say 'Yeah, install SSDChecker V.5.035 from the repo". Assume I'm an idiot, and have zero clue how to do the thing you're asking. Not that I won't do it, but maybe link to a newbie guide on how to do the thing.

Call for feedback on plan & proposed questions for Instance Census 2024


Hi everyone!

Last year lemmy.ca ran a census for our instance, and this year we wanted to solicit feedback ahead of time. Since other instances expressed interest in running similar censuses, having some agreed upon questions would make it easier to do comparisons. (previous: lemmy.ca results, lemmy.nz results).

Timeline wise, for our instance, we are thinking of gathering feedback for the rest of the month and then running the census early in the new year. We are open to adjusting when we run it, to align with other instances.

General areas of feedback:

Self Identification / Categorization


With some questions, it is difficult to have a predetermined list of options. Last year we included a free form entry option, and then created word clouds with the full list. However, that is not as insightful, and it takes a lot of time to process. For this year, do you prefer:
- A set of options + a free form option (same as last year)
- A set of options only

Please share if you know of a resource that has a good/inclusive set of options for the question types. Even if a free form option is included, a better set of options as a base will lead to better data.

For context, these were the questions where this happened:

  • What is your ethnicity?
  • How do you identify? (sexual orientation)
  • What is your occupation / field of Work?


Data collection & Results


Last year we used Google forms for collection, and a spreadsheet for calculations and analysis. Visualization was done with google sheets, an open source word cloud generator (github link), and DataWrapper (link) for an interactive display on our website.

This year the plan is similar, although we’re interested to try chart.js for the visualizations. We had some issues with DataWrapper displays, and having the code be open source would make it easier for others to replicate. One consideration is data privacy (do we commit anonymized data to the repo, host it elsewhere and import it, etc.).

Sometime in the future, it might be nice to have a template and/or pipeline that everyone can use, for consistency and to minimize work. In the meantime, do you have any thoughts or recommendations?

Fun Question


Last year we asked about people's favourite dessert. It would be cool to do something similar this year. Do you have any suggestions for a fun question? Some ideas:

  • Favourite comfort food
  • Favourite fruit
  • Favourite color (with a hex code input)


Proposed Questions


Where applicable, I’ve included changes from last year. Depending on the type of instance you run (ex. regional or not), you may want to skip, add, or modify questions.

Section 1: Where is everyone from?


Where are you from?

  • Canada? (yes / no)
    • If in Canada, which province or territory?
    • If not, which continent?


What is the size of your community? (rural / urban / suburban / other)
- suburban and other are new options

In your opinion, what is the quality of your internet connection? (poor, reasonable, excellent)

What is your internet speed?
- new question inspired by lemmy.nz
- we may include a link to a speed test site for convenience, and have a free form entry

Section 2: Who are you?


What age range do you fall into? (0-9, 10-19, etc.)

Ethnicity? (options uncertain, see above)

Gender Identity? (Man, Woman, Non-binary person, Genderfluid)

  • Optionally, we could include a free form entry 'other' option, and list the input in a separate list.

Are you someone with trans experience (yes / no)

How do you identify? (options uncertain, see above)

Disability Status (yes / no)

  • New separate question inspired by lemmy.nz

Disability Status (free form entry)

  • Last year we manually processed the text inputs and displayed them in a list. We're open to hearing suggestions on better ways to run this question!

Educational Background

  • Last year we had multi-select, which didn't make sense. This year we can split it into a few questions:
    • Are you currently in school? (yes / no)
    • What are you studying? (single selection, see list below)
    • Highest level of education completed (single selection, see list below)
    • All past education (multi-select, see list below)
    • List of options:
    • No formal education
    • Some secondary school (high school)
    • Secondary school (high school) diploma
    • GED
    • Trade / technical / vocational training
    • Some Post-secondary (college, university, CÉGEP)
    • College diploma
    • Associate degree
    • Bachelor's degree
    • Master's degree
    • Professional degree (MD, JD, MBA, etc.)
    • Doctorate (PhD, etc.)
    • Other


Employment Status (full-time, part-time, self-employed, student, retired, unemployed, other)

  • Last year we also got responses for 'homemaker', 'disabled', 'active duty military'. We could add these as options, or include a free form 'other' entry for them.

Field of Work (options uncertain, see above)

  • This question was a free form entry last year, and it was very difficult to process. Having a solid list of options would be ideal in this case.
  • We could include an 'other' option with a free form entry, with a note that any response will not be included in the main results and will be displayed as-is in a separate list.


Section 3: Instance Usage


How many {instance name} communities do you participate in? (0, 1-9, 10-19, 20+)

If you moderate any communities, how many? (number input)

  • Last year this was a multi-select, but a number input would be more straightforward

What community do you want to see on {instance name}? (free form entry)

What existing community do you want to see more people using? (free form entry)

  • This is a new question.

On average, how much time do you spend on Lemmy each day? (<1 hour, 1-2 hours, 2-3, 3-5, 5-8, 8-13, 13-21, 21+)

How often do you visit {instance name}? (multiple times a day, daily, weekly, monthly, rarely)

  • This is a new question.

How do you access Lemmy most often? (desktop, mobile (including tablet), both about equally)

  • (including tablet) is a new addition
  • both about equally is a new option

If you use desktop, what operating system do you use? (Windows, MacOS, Linux, I don't use desktop, other)

  • New question

On desktop, which interfaces do you use? (default, Mlymym, Photon, Voyager, Alexandrite, I don't use desktop)

  • I don't use desktop is a new option, and will be separate from the 'skip this question' option

Is there another interface you would like us to add? (free form entry)

  • New question

If you use mobile, what operating system do you use? (Android, iOS, I don't use mobile, other)

  • I don't use mobile and other are new options

On mobile, how do you access Lemmy?

  • We will include an updated list of apps, and a free form entry for any new ones
  • We will include an option for I don't use mobile, web browser, and other, in addition to the skip this question option

If you primarily access lemmy.ca through different Lemmy/Kbin instance, please list it below (optional) (free form entry)

What other decentralized / federated platforms do you use?

  • Some potential options: none, Mbin, Kbin, PieFed, Mastodon, Bluesky, Pixelfed, Peertube, Loop, Bookwyrm, WriteFreely, Pleroma, Friendica, Misskey, Writefreely, + free form entry

Fun Question (yet to be determined)

Feedback (free form entry)

General Changes:

  • All questions will have a 'skip this question' option
  • Fewer random comments from me when reporting the results. I looked back at them afterwards and thought they might be a bit much.

activitypub in minecraft, because i had nothing better to do with my life


[Resolved] Follow / Browse Lemmy Community from Friendica?


I read in many places that this should be supported, but either I'm doing it wrong or it is not working.

I just signed up in my-place.social which seems to proclaim federation with over 1000 instances including Lemmy ones.

I put !fediverse in the search bar, but this community does not come up.

What am I doing wrong? Is there a friendica account I can tag to ask about this, or a group I can post in for support?

This entry was edited (5 months ago)
in reply to matcha_addict

Friendica doesn't use the "!" notation. This is only a notation that a Lemmy, Piefed, or MBIN instance understands.

Friendica instead uses the familiar account notation used by Mastodon, Sharkey, Misskey, etc. It sees the Lemmy community as a user that is also a group.

If you want to follow, for example, the "asklemmy" community at lemmy.world, in the "Add New Contact" box, just enter : asklemmy@lemmy.world, and then click the "Connect" button, and it will find it, and you can follow it like any other account. Friendica will recognize it as a "Group", as opposed to an individual account, and it should show up in your Groups section.

Let me know if this works.