Article super intéressant. J’ai presqu’envie d’en remonter un, 10 ans après ma dernière tentative.
Merci !
J’ai trouvé cet article via X, visiblement une traduction récente d’un article plus vieux. OpenSMTPD semble être une brique intéressante pour cela, et avec https://mxtoolbox.com/ pour checker qu’on n’est pas blacklisté ça semble jouable.
C’est vrai qu’il est de 2019. Un autre site c’est mail-tester.com, ça donne 3 tentatives pour faire un test d’envoi de mail, ça donne une note pour voir si on est bien configuré sur l’envoi
L’Internet Society regroupe plus de 100 000 membres individuels et environ 90 organisations réparties dans le monde entier. On se doute que Google est une multinationale influente mais… il y a aussi des spécialistes du monde entier.
Hmmm quelques remarques qui me viennent :
QUIC n’est pas spécifique au web. C’est un protocole de transport qui peut bouger n’importe quoi à vrai dire même si ça a été en grande partie pensé pour le web. Donc non cette histoire de brouillon qui a été renouvellé plusieurs fois pour se transformer en http3 c’est juste faux. la RFC de QUIC est indépendante de la RFC de HTTP3.
Concernant DoH : là aussi tu vois une manœuvre de Google mais derrière c’est l’ICANN et Mozilla donc là pour le coup ils n’y sont pour rien. Par contre ils l’ont vite adopter sur Chrome et Android c’est vrai. Comme tu dis, pour eux c’est un moyen d’éviter le blocage des pubs par DNS traditionnel.
Pas besoin d’être pote avec quelqu’un à l’IETF pour publier une RFC. C’est absolument ouvert à tous. Là encore il n’y a pas conspiration de la part de Google pour publier une RFC.
Si un brouillon de l’IETF expire rien n’empêche d’en reposter un autre quasi identique.
1- ça montre quoi ? Dans la RFC HTTP n’y est quasiment pas abordé. QUIC est à peu près indépendant de ce qu’il transporte. C’est utilisé pour du HTTP mais on commence à voir également des softs qui l’utilise pour autre chose notamment SSH, DNS et même des jeux vidéo. Tu peux utiliser QUIC sans HTTP3.
2- Donc tu reproches à Google d’implémenter une RFC ? Ça marche pour 100% de l’Internet ce reproche.
3- Mouai. J’ai pas spécialement d’avis là-dessus cela dit, en survolant vite fait le datatracker de la 9000, on voit que le nombre de révision est assez régulier dans le temps et que sans trop de surprise, plus ça avance moins les modifs sont importantes donc je suis pas vraiment convaincu de l’argument.
4- Alors non Google n’a pas pris possession du W3C par contre c’est le WHATWG qui a pris le dessus sur le W3C. Et à sa fondation, bha … Google n’en faisait pas parti.
(c’est fou on va croire que je défend Google mais c’est clairement pas une boîte que j’affectionne hein, mais faut pas non plus déformer l’histoire).
Ça montre l’historique du dépôt du brouillon initial en 2015, sa filiation avec le brouillon de HTTP/3, et la ratification en 2021. Comme je le dis dans mon article, je présente des faits vérifiables (comme cet historique), mais c’est moi qui fait les liens. Libre à chacun d’en penser ce qu’il veut, pour ma part je trouve qu’il y a matière à soupçonner Google (entreprise privée) d’avoir forcer les choses concernant un outil public en copinant avec une organisation à but non lucratif.
Non, je reproche à Google d’avoir insisté pour que son propre outil devienne un standard du web, jusqu’à trouver quelqu’un à l’IETF qui accepte de le ratifier, comme ils l’ont fait avec le W3C (voir point 4 ci-dessous).
Justement, c’est la régularité de MàJ qui me pose problème parce qu’elle correspond plus ou moins avec le délais au-delà duquel l’IETF considère un draft comme étant obsolète.
Google a rejoint le WHATWG en 2017. Deux ans après une soi-disant collaboration entre le W3C et le WHATWG, le W3C abandonne la spec de HTML et de DOM au WHATWG. Chrome a le monopole des navigateurs web. Certes, juridiquement parlant, Google n’a pas pris le contrôle du W3C, mais l’entreprise fait désormais partie de ceux qui décident de l’avenir de deux des technologies les plus importantes du monde informatique à l’heure actuelle. Et qu’on ne vienne pas me faire croire qu’ils font ça par charité ou pour faire un meilleur web, l’intention initiale de Tim Berners Lee et du W3C. Le WHATWG est un regroupement d’acteurs privés, les décisions sont entre leurs mains (comme précisé dans ce document). Je doute que la communauté (les développeurs, les utilisateurs, bref les petites gens) ait véritablement leur mot à dire. Sinon ça fait depuis longtemps qu’on n’aurait plus de vendor-specific.
2- Google ne pousse personne à l’utiliser. Ils ont créé une spec, diverses personnes se sont penchées sur la RFC ça a évolué et pouf ça a été normalisé. Google pousse son implémentation dans son logiciel. Après, ils ne forcent la main sur personne pour l’implémenter dans les autres logiciels (clients ou serveurs). Si des devs voient l’intéret de l’implémenter dans leur logiciel, libre à eux de le faire. Si c’est effectivement le cas, c’est que les devs y ont vu un intéret. Personne n’a été forcé/menacé dans l’histoire.
3- Les RFC ne sont pas jetés s’il n’y a pas de majs régulières. Certaines mettent des années avant d’être validées, d’autres le sont bien plus rapidement mais elles ne sont pas jetées s’il n’y a pas de maj. C’est même plutôt l’inverse. Quand il n’y a pas de maj pendant un moment et quelle a été discutée, la RFC aura plutôt tendance à sortir de brouillon et d’être officialisée. Donc pousser des majs régulières a plutôt tendance à retarder le processus.
Ok, admettons que ça se soit fait dans les règles de l’art. Et pour le reste ? TOUT le reste de ce que Google a imposé au monde ? Il n’y a que deux possibilités : soit les utilisateurs/développeurs/pseudo-geeks sont très cons d’avoir laissé faire, voire encouragé à l’adoption de tous les produits et services de Google, malgré les avertissements répétés et soutenus de tout “informaticien” qui se respecte de ces 20 dernières années, soit Google a forcé, pas en mettant un flingue sur la tempe mais politiquement, sémantiquement, linguistiquement. Je préfère croire cette hypothèse plutôt qu’en la stupidité des gens.
Je suis d’accord sur le principe. Appelle ça une intuition, de la paranoïa, ce que tu veux, mais moi j’y vois une insistance de Google pour légitimer l’imposition massive de leurs propres technologies. À l’époque, AMP c’était trop gros, trop évident. L’approche employée pour QUIC, plus subtile, est passée plus inaperçu. Et ils ont réussi. Encore une fois, moi je n’y vois rien de bon, ni de normal, j’y vois quelque chose d’inquiétant. Et tant qu’il y aura des gens pour s’inquiéter, il ne sera pas trop tard.
2- Mouai je suis plus pessimiste que toi. Google n’a pas imposé grand-chose. Les gens sont venus manger dans sa main. Ils “offrent” des produits compétitifs gratuitement. Les geeks se ruent dessus (gmail, google reader, google maps…). Ça fini par déborder ensuite dans le grand public et hop c’est bon. Mais personne n’a été forcé, ils ont juste proposé un truc qui répond à une demande sans avoir besoin de débourser un centime. Les gens y trouvent leur intéret. Les rares personnes qui s’y opposent ne sont que très rarement écoutés et sont d’ailleurs assez souvent ridiculisés.
3- J’ai tendance à penser que ce n’est pas parceque c’est une techno issue de chez eux que c’est intrinsèquement néfaste. D’autant plus quand ce n’est pas un produit fini mais une techno d’infrastructure comme l’est QUIC. Dans ce cas, ça apporte de réels avantages par rapport à TCP et UDP. Si nginx (par exemple) pense que HTTP3 et QUIC peuvent être un atout pour leur serveur web et qu’ils l’implémentent, c’est leur choix, ce n’est pas Google qui leur impose quoi que ce soit.
Google a poussé le truc car ils y voient un intéret pour eux, mais cet intéret ne leur est pas exclusif. C’est d’ailleurs une bonne chose qu’ils aient poussé ça en temps que standard ouvert plutôt que de garder la techno rien que pour eux dans leur coin ou alors soumis à licence.
Pourquoi faut-il toujours que, quand j’ai un sursaut d’espérance pour l’humanité, on finisse par me dire qu’elle l’a bien cherché… ;-)
Google, c’est avant tout un moteur de recherche. Leurs incursions dans la publication de contenu ne sont pas innocentes. Ils sont à tous les étages du modèle OSI, et c’est dangereux. Le jour où Google fera des propositions pour la protection de la vie privée, la confidentialité des contenus, et plus généralement aura un discours éthique (et pas seulement en surface avec des yeux de biches plein de promesses), je considèrerai peut-être que leurs propositions ne sont pas intrinsèquement néfastes.
Peut-être que je me trompe, peut-être qu’il n’y a pas de grand dessein de contrôler le monde, ou peut-être que c’est déjà le cas et qu’on ergote sur des platitudes. Dans le fond, je ne suis pas en total désaccord avec toi quand tu dis : “C’est d’ailleurs une bonne chose qu’ils aient poussé ça en temps que standard ouvert”, mais je réponds : “Il faut toujours se méfier du monsieur qui t’attire avec des bonbons dans son van sans fenêtres”. Le passif de Google ne joue pas en sa faveur pour une acceptation aveugle de ses technos, aussi cools soient-elles.
3- Le but de l’IETF et des RFC c’est que ça ne soit justement pas une technologie “Made in Google” mais une technologie de l’Internet. C’est une norme ouverte publiée par l’IETF avant tout.
Par contre, non Google n’est pas une moteur de recherche avant tout. Pour savoir ce que c’est faut voir ce qui leur génère du pognon : la pub. C’est une boite de pub. Tous les services autour ont pour but ultime de vendre des utilisateurs pour de la pub. ;-)
“Google n’est pas une moteur de recherche avant tout” dans l’esprit des gens “lambda”, bien sûr que si. Pour nous autres geeks non, évidemment. Et d’ailleurs ça abonde en ce que je voulais dire : “Tous les services autour ont pour but ultime de vendre des utilisateurs pour de la pub” alors justement, qu’ils fassent de la pub et pas des nouveaux protocoles qui vont servir à faciliter la diffusion de la pub !
Salut Richard, merci pour cet article très instructif. Par contre je n’ai pas suivi pour Drone depuis leur rachat, pourquoi ne plus l’utiliser ?
Comme dit dans mon article, c’est simplement parce qu’il n’y a pas de paquet NixOS pour Drone, ce qui fait que sa maintenance est plus encombrante.
Après, j’aime bien utiliser des applications qui ne sont pas #1 dans leur niche respective : d’expérience, les #1 finissent toujours par tomber dans les travers de la publicité, de la télémétrie sauvage, des changements de licence, etc.
C’est schématique, Drone n’est pas forcément la CI/CD #1 associée avec Gitea, mais j’imagine que s’ils se sont fait racheter, c’est soit qu’ils ont mal géré leur business model, soit qu’ils ont acquis une certaine notoriété.
Y a-t-il une raison à préférer utiliser le Web pour envoyer une notification plutôt que le réseau mobile ?
J’ai cru comprendre qu’en France une API existait pour envoyer des textos sur sa puce, gratuitement, avec Free Mobile, cela vous dit-il quelque chose ?
Je n’ai pas pu m’empêcher d’aller voir la sortie HTML de cette page.
C’est du WordPress, donc de base ça ne respecte pas un certain nombre des bonnes pratiques citées. Pas de concaténation des CSS ou du JS, code de tracking, Google Tag, etc. Donc je trouve que c’est un peu hypocrite de publier ce genre de contenu sur ce genre de plateforme.
Néanmoins, le message convoyé est important, donc je laisse mon upvote.
On a hésité à les stocker pour voir vos perles mais on a trouvé que ça gâcherait la blague. Du coup on a opté pour que le formulaire n’envoie même pas l’info (le champ input n’a pas d’attribut name).
Richard: merci pour ce bon moment de partage. Bien que moi aussi neuroatp, mais pour d’autres raisons, je comprends tes sentiments exprimés ; et j’apprécie beaucoup. Toujours aussi agréable à te lire…
“s’il est sous-traitant, il n’est pas vraiment tenu par des impératifs de productivité.”
Haha quelle blague. J’aurai plutôt tendance à dire que c’est le contraire :-)
S’il veut faire 4 clients dans la journée au lieu de 8, il peut. Ce sont ses propres mots, après je ne connais pas TOUS les techniciens sous-traitants…
Les outils de télémétrie ne sont pas forcément le mal incarné et contre les utilisateurs.
S’ils restent anonymes et a usage de l’entreprise qui développent le logiciel, ils peuvent être utilisés pour comprendre le comportement des utilisateurs en
Le problème des outils de télémétrie et d’analytics, sont souvent qu’ils ne sont pas anonyme, ou fournis par des tiers qui en profite pour eux même.
Pour le reste je trouve l’idée intéressante.
Tu as tout à fait raison et c’est pour ça que j’inclue la télémétrie : parce qu’on ne peut pas se porter garant des hypothétiques bonnes intentions des tiers.
Merci pour ton commentaire !
Ça se sent tant que ça ?
Je t’assure que quand tu as vécu comment on a pollué ton métier avec des tas de conneries et des méthodes de travail novatrices et, au final, destructrices (pour les humains qui sont derrière), tu finis par devenir un peu méprisant.
C’est que tu n’as pas assez écouté ce clip : https://www.youtube.com/watch?v=gb4yPEMh24E :-)
On a le même âge, j’en ai croisé d’autre. N’oublie pas que ce que tu développes n’est que du code d’appli web (il me semble), normalement, il n’y a pas d’enjeux vitaux. Et puis, il y a de la place pour tout le monde, laisse les gens qui codent uniquement pour de l’argent faire des choses que les passionnés ne veulent pas faire.
J’en ai parlé il y a six mois dans l’article d’origine :D
Je suis heureux et épaté du travail réalisé sur cette série sur la recherche du clavier parfait, malgré mes connaissances j’ai pu en apprendre encore plus tout en lisant la verve de @richarddern Un must have a lire dans son ensemble, pour une premiére entré en matière approfondit.
C’est une belle critique du capitalisme, et je partage certains des points de vue abordés.
Une chose intéressante à faire pour sortir des gafam (ou plus localement pour sortir de la mainmise des réseaux sociaux les plus gros sur notre manière d’aborder l’information) est aussi de partager des alternatives (que ce soient des outils, des articles ou des réseaux), et le journal du hacker y contribue grandement. Grâce à lui (et à hacker news aussi), j’ai pu trouver des tas d’articles intéressants écrits par des personnes intéressantes, dont les sites web contiennent des liens vers d’autres articles et personnes intéressants.
Un autre exemple récent est spacehey, ce clone de myspace où il n’y a pas d’algorithmes qui proposent du contenu (Orel en avait parlé il y a quelques mois).
Merci pour ce commentaire ! Tu as totalement raison sur le partage des alternatives. C’est une piste suivie depuis un moment, mais c’est manifestement insuffisant. On a trop compté sur la capacité des gens à s’auto-réguler, maintenant ils sont trop assistés par les entreprises commerciales pour se débrouiller “seuls” avec des alternatives :(
Je me demande s’il n’y aurait pas aussi un biais de l’âge ? Est-ce que le sommet de la courbe n’intervient pas vers la vingtaine ?
C’est la période où l’on découvre tout un tas de trucs en début de vie d’adulte puis le prisme du boulot fait qu’on remarque bien plus tout l’aspect commercial/business de l’informatique est au final bien puant. Tout ce qu’il y avait avant n’est pas trop entâché par ce point de vue, combiné avec un biais du survivant qui fait que l’on ne connait pas tout un tas de choses pas top qui on depuis disparue…
Le biais peut être perçu dans l’autre sens : la nouvelle génération n’ayant pas connu le passé peut le rejeter par méconnaissance. C’est d’ailleurs valable dans n’importe quel domaine, pas seulement l’informatique, mais aussi dans les sciences sociales.
J’assume être un vieux con dès le début de l’article, donc quelque part j’assume le biais dont tu parles :D
Le matériel le plus récent tend vers une efficacité énergétique accrue : un processeur moderne, comparé à un processeur plus ancien doté du même nombre de coeurs et d’une même fréquence, exécutera les instructions qu’on lui donne plus rapidement, mais aussi de façon plus efficiente, en consommant moins d’énergie.
C’est vrai, par contre quand tu dis
Quand on achète du matériel moderne, on fait un geste éco-responsable
C’est en général l’inverse. Quand on achète du matériel moderne c’est généralement du neuf et donc au lieu de faire un geste éco-responsable on participe au problème. Il ne faut pas oublier que toute l’efficience gagné par un processeur moderne est généralement «bouffée» par le paradoxe de jevon.
L’éco-conception d’application, selon moi, doit s’envisager comme le fait de pouvoir s’exécuter sur du matériel d’occasion pas forcément dernier cri. Tout en sachant parfaitement que ce discours est pour l’instant peu entendable dans l’industrie logiciel droguée à Docker, NodeJS, AWS et autres S3…
Merci pour ce commentaire pertinent !
Je ne connaissais pas le paradoxe de Jevons.
De ce que j’en comprends, il prend naissance dans l’idée que si on peut faire la même chose en consommant moins d’énergie, on essayera de faire plus qu’avant jusqu’à atteindre, voire dépasser la consommation énergétique initiale. Une remarque valable aussi dans la finance d’ailleurs, en remplaçant “énergie” par “argent”…
Quant à ma remarque sur le geste éco-responsable, je pensais “à charge équivalente”, évidemment. Je vais modifier mon article pour prendre en compte ton commentaire. Merci !
Ouai enfin les BATX ont bien moins d’emprises dans mon quotidien que les GAFAM. Facebook a bien plus d’impact (négatif) sur moi que Orange ou Samsung ou Baidu…
Pour l’instant.
Quand on mêle “big data” et santé ou politique, ça ne présage rien de bon.
Je pense pas que le problème vienne particulièrement des gafam américains. Je fais aussi peu confiance aux gafam qu’aux batx que n’importe quel site qui récolte en masse de la donnée personnelle. Et bien sûr qu’Orange doit faire partie des entreprises dont on se méfie. La popularité des GAFAM (en France en tout cas) vient surtout des médias (qui ont d’ailleurs tendance à n’utiliser que “GAFA”). Si ça permet aux gens d’avoir un premier pied à l’étrier et se sire “ ok les gafam faut faire gaffe” c’est cool. Mais si ça se limite qu’à ces entreprises c’est effectivement dommage. Long is the road
C’est bien le problème: les entrainer à écouter et dire “GAFA(M)”, c’est les entraîner à ne détester que Google, Amazon, Facebook, Apple et Microsoft, qui ne sont que des entreprises américaines. Si les geeks disent GAFAM tout en pensant BAFAM + OCAS + BATX, ce n’est pas le cas du commun des mortels.
Oui c’est vrai, je suis d’accord avec toi. Du coup il faudrait sensibiliser les enfants dès l’école ?
C’est bizarre. Explorer des modèles sous-jacents dont l’ensemble des possibles n’apparaît pas. Cet ensemble qui finit par occulter les modèles sous-jacents. En automatisant, on peut perdre les choses. C’est une grande crainte que de tout perdre ou de perdre sans crainte de ne rien perdre. Trouver le sens de la vie avec l’IA.
Je ne cherche pas le sens de la vie avec l’IA, j’ai juste trouvé nos échanges intéressants, dans la mesure où je sais que l’IA ne fait que recracher ce qu’on lui a appris : elle n’est que notre propre reflet. J’en avais déjà parlé dans un autre article (où je testais Stable Diffusion).
Et je ne cherche pas à tout automatiser, mais au moins les trucs basiques. Par exemple, ChatGPT peut me fournir la liste des acteurs et leur rôle dans un film dont je veux écrire la critique, formatée en yaml. Je pourrais le faire à la main (c’est ce que je fais actuellement) mais c’est assez pénible de faire des copier-coller depuis la Wikipédia pour ça.
La tentation de croire que je vais abandonner tout travail d’écriture en laissant l’IA se débrouiller est grande, mais elle n’est pas fondée, je te rassure :)