“s’il est sous-traitant, il n’est pas vraiment tenu par des impératifs de productivité.”
Haha quelle blague. J’aurai plutôt tendance à dire que c’est le contraire :-)
S’il veut faire 4 clients dans la journée au lieu de 8, il peut. Ce sont ses propres mots, après je ne connais pas TOUS les techniciens sous-traitants…
Les outils de télémétrie ne sont pas forcément le mal incarné et contre les utilisateurs.
S’ils restent anonymes et a usage de l’entreprise qui développent le logiciel, ils peuvent être utilisés pour comprendre le comportement des utilisateurs en
Le problème des outils de télémétrie et d’analytics, sont souvent qu’ils ne sont pas anonyme, ou fournis par des tiers qui en profite pour eux même.
Pour le reste je trouve l’idée intéressante.
Tu as tout à fait raison et c’est pour ça que j’inclue la télémétrie : parce qu’on ne peut pas se porter garant des hypothétiques bonnes intentions des tiers.
Merci pour ton commentaire !
Ça se sent tant que ça ?
Je t’assure que quand tu as vécu comment on a pollué ton métier avec des tas de conneries et des méthodes de travail novatrices et, au final, destructrices (pour les humains qui sont derrière), tu finis par devenir un peu méprisant.
C’est que tu n’as pas assez écouté ce clip : https://www.youtube.com/watch?v=gb4yPEMh24E :-)
On a le même âge, j’en ai croisé d’autre. N’oublie pas que ce que tu développes n’est que du code d’appli web (il me semble), normalement, il n’y a pas d’enjeux vitaux. Et puis, il y a de la place pour tout le monde, laisse les gens qui codent uniquement pour de l’argent faire des choses que les passionnés ne veulent pas faire.
J’en ai parlé il y a six mois dans l’article d’origine :D
Je suis heureux et épaté du travail réalisé sur cette série sur la recherche du clavier parfait, malgré mes connaissances j’ai pu en apprendre encore plus tout en lisant la verve de @richarddern Un must have a lire dans son ensemble, pour une premiére entré en matière approfondit.
C’est une belle critique du capitalisme, et je partage certains des points de vue abordés.
Une chose intéressante à faire pour sortir des gafam (ou plus localement pour sortir de la mainmise des réseaux sociaux les plus gros sur notre manière d’aborder l’information) est aussi de partager des alternatives (que ce soient des outils, des articles ou des réseaux), et le journal du hacker y contribue grandement. Grâce à lui (et à hacker news aussi), j’ai pu trouver des tas d’articles intéressants écrits par des personnes intéressantes, dont les sites web contiennent des liens vers d’autres articles et personnes intéressants.
Un autre exemple récent est spacehey, ce clone de myspace où il n’y a pas d’algorithmes qui proposent du contenu (Orel en avait parlé il y a quelques mois).
Merci pour ce commentaire ! Tu as totalement raison sur le partage des alternatives. C’est une piste suivie depuis un moment, mais c’est manifestement insuffisant. On a trop compté sur la capacité des gens à s’auto-réguler, maintenant ils sont trop assistés par les entreprises commerciales pour se débrouiller “seuls” avec des alternatives :(
Je me demande s’il n’y aurait pas aussi un biais de l’âge ? Est-ce que le sommet de la courbe n’intervient pas vers la vingtaine ?
C’est la période où l’on découvre tout un tas de trucs en début de vie d’adulte puis le prisme du boulot fait qu’on remarque bien plus tout l’aspect commercial/business de l’informatique est au final bien puant. Tout ce qu’il y avait avant n’est pas trop entâché par ce point de vue, combiné avec un biais du survivant qui fait que l’on ne connait pas tout un tas de choses pas top qui on depuis disparue…
Le biais peut être perçu dans l’autre sens : la nouvelle génération n’ayant pas connu le passé peut le rejeter par méconnaissance. C’est d’ailleurs valable dans n’importe quel domaine, pas seulement l’informatique, mais aussi dans les sciences sociales.
J’assume être un vieux con dès le début de l’article, donc quelque part j’assume le biais dont tu parles :D
Le matériel le plus récent tend vers une efficacité énergétique accrue : un processeur moderne, comparé à un processeur plus ancien doté du même nombre de coeurs et d’une même fréquence, exécutera les instructions qu’on lui donne plus rapidement, mais aussi de façon plus efficiente, en consommant moins d’énergie.
C’est vrai, par contre quand tu dis
Quand on achète du matériel moderne, on fait un geste éco-responsable
C’est en général l’inverse. Quand on achète du matériel moderne c’est généralement du neuf et donc au lieu de faire un geste éco-responsable on participe au problème. Il ne faut pas oublier que toute l’efficience gagné par un processeur moderne est généralement «bouffée» par le paradoxe de jevon.
L’éco-conception d’application, selon moi, doit s’envisager comme le fait de pouvoir s’exécuter sur du matériel d’occasion pas forcément dernier cri. Tout en sachant parfaitement que ce discours est pour l’instant peu entendable dans l’industrie logiciel droguée à Docker, NodeJS, AWS et autres S3…
Merci pour ce commentaire pertinent !
Je ne connaissais pas le paradoxe de Jevons.
De ce que j’en comprends, il prend naissance dans l’idée que si on peut faire la même chose en consommant moins d’énergie, on essayera de faire plus qu’avant jusqu’à atteindre, voire dépasser la consommation énergétique initiale. Une remarque valable aussi dans la finance d’ailleurs, en remplaçant “énergie” par “argent”…
Quant à ma remarque sur le geste éco-responsable, je pensais “à charge équivalente”, évidemment. Je vais modifier mon article pour prendre en compte ton commentaire. Merci !
Ouai enfin les BATX ont bien moins d’emprises dans mon quotidien que les GAFAM. Facebook a bien plus d’impact (négatif) sur moi que Orange ou Samsung ou Baidu…
Pour l’instant.
Quand on mêle “big data” et santé ou politique, ça ne présage rien de bon.
Je pense pas que le problème vienne particulièrement des gafam américains. Je fais aussi peu confiance aux gafam qu’aux batx que n’importe quel site qui récolte en masse de la donnée personnelle. Et bien sûr qu’Orange doit faire partie des entreprises dont on se méfie. La popularité des GAFAM (en France en tout cas) vient surtout des médias (qui ont d’ailleurs tendance à n’utiliser que “GAFA”). Si ça permet aux gens d’avoir un premier pied à l’étrier et se sire “ ok les gafam faut faire gaffe” c’est cool. Mais si ça se limite qu’à ces entreprises c’est effectivement dommage. Long is the road
C’est bien le problème: les entrainer à écouter et dire “GAFA(M)”, c’est les entraîner à ne détester que Google, Amazon, Facebook, Apple et Microsoft, qui ne sont que des entreprises américaines. Si les geeks disent GAFAM tout en pensant BAFAM + OCAS + BATX, ce n’est pas le cas du commun des mortels.
Oui c’est vrai, je suis d’accord avec toi. Du coup il faudrait sensibiliser les enfants dès l’école ?
À noter que la dernière version est disponible dans les backports.
apt install debian-keyring
echo "deb http://deb.debian.org/debian/ buster-backports main contrib non-free" > /etc/apt/sources.list.d/backports.list
apt update
apt -t buster-backports install cockpit
Sympa ! Tu n’as pas de soucis de latence avec pihole ? Les requêtes DNS via pihole sont parfois vraiment lentes. 47W en tout cas c’est correct. As-tu penser pour économiser de faire du docker ou de la virtu, et de n’avoir qu’une seule machine ? Avec un peu de VLAN, tu pourrais séparer tes serveurs sur une seule machine ;)
Concernant pi-hole, j’avais testé plein de configs : sur du x86, sur du Pi, sur une carte SD, un SSD, etc. J’ai aussi testé AdGuard Home dans les mêmes conditions, et en fait, peu importe. En moyenne, une résolution d’un domaine pas encore en cache prend entre 20 et 400ms (et c’est unbound qui fait la résolution).
Docker + virtu, c’est ce que je faisais avant sur un Alienware m17x-R4 (bonne grosse machine). Mais au final, je préfère le bare-metal. Je suis contre l’idée de mettre tous mes oeufs dans le même panier :)
Je vois. J’avais la même latence sur les résolutions.. Après avec la virtu et deux machines à la rigueur tu peux déplacer les VM d’un côté ou l’autre :p Et pour me rassurer dans mon cas toutes mes machines sont déployées vers ansible comme ça pas de réinstallation d’une nuit complète si ça pète xD
J'ai lancé Cyca :D
Sérieux ? Franchement, si t'as déjà un serveur web avec PHP, c'est vraiment pas la mer à boire comme install…
Salute,
Oui bien-sûr je suis capable d'installer ce dont il y a besoin ce sont les Requirements qui font fuir : To install Cyca, you will need: - a webserver - cURL - PHP > 5.6.4 with the following extensions: (Cyca is built and tested against PHP 7) OpenSSL, PDO, Mbstring, Tokenizer, XML, GD/Imagick, cURL, intl, zip - composer - node - a database server, which can be either: MySQL/MariaDB, Postgres, SQLite, SQL Server - redis - ImageMagick - wkhtmltopdf (Cyca ships with a composer dependency but you are free to install your own version) - xvfb (under GNU-Linux)
Tcho !
Sans les pré-requis de Laravel et composer, reste plus qu'un serveur web, la base de données de ton choix parmi celles suggérées, redis, imagemagick et xvfb (et je ne suis pas certain qu'il soit encore nécessaire avec les dernières versions de wkhtmltopdf).
J'aurai dû mettre que les pré-requis “directs” de Cyca selon toi ?
J'ai tout mis par soucis d'exhaustivité :)
Ce n'est que mon avis, j'ai pas la science infuse mais je suis sysadmin et ça m'a refroidit direct. J'ai également vu ton commentaire sur Docker. Au final il manque un moyen “direct” de tester l'application. Docker est cool pour ça peu importe les pré-requis, on peut tester sans que ça coûte grand-chose.
Tcho !
Je comprends. Ce que je comprends moins, c'est pourquoi ça refroidirait dans ce cas précis et pas pour mastodon par exemple.
D'un autre côté, je n'ai pas les prétentions de mastodon.
Je procède aux derniers tests de mon application de gestion de favoris et de flux, la première version qui sera publiquement disponible: https://www.athaliasoft.com/posts/38
déplore le manque de standards et ne parle ni de movim, ni de xmpp en général, ni de redmatrix, ni de certainement un tas d'autres essais.
il suffirait que toutes les implémentations parlent le même language.
y'a qu'a faut qu'on : /
déplore le manque de standards et ne parle ni de movim, ni de xmpp en général, ni de redmatrix, ni de certainement un tas d'autres essais.
Redmatrix est issu de friendica, que je cite dans mon article. J'avais envie de parler d'autre chose que lister tous les projets restés confidentiels.
Par contre, parler de XMPP est une bonne chose, j'avais, en effet, oublié de le mentionner. Ce qui me permet de rebondir sur ça:
il suffirait que toutes les implémentations parlent le même language.
y'a qu'a faut qu'on : /
Ben oui, on l'a bien fait avec XMPP, précisément.
Salute,
C'est dommage l'absence de commentaires sur ton site. Pour ma part je parie que rien ne bougera, tu as tendance à oublier que Apple coûte un bras et que tu parles en tant que geek.
La majorité des gens veut un pc qui permet de réaliser les tâches classiques : Office, net, impression. Pour ça personne ne paiera deux fois le prix chez Apple. Même chose pour Androïd pour l'utilisateur lambda ça marche, il a les applications importantes. Sauf le geek quel intérêt de payer deux fois le prix ? Aucun.
Je précise que ce sont des échanges à rallonge et que le but n'est pas de prouver que tu as tort mais d'échanger. Je trouve qu'Apple fait de très très bonnes choses mais de là à dire que ça deviendra grand public (acheté par tout le monde), aucune chance.
Tcho !
Un produit Apple est un investissement sur le moyen/long terme. C'est rentable, d'autant que ce sont des produits de qualité.
Au lieu de payer 200€ par an pour un nouveau téléphone d'entrée de gamme, les gens payent 600€ ou 800€ pour un téléphone qu'ils vont garder 5-6 ans.
C'est une stratégie d'autant plus valable qu'Apple offre des facilités de paiement, sans compter les offres des fournisseurs de téléphonie mobile. Je crois que l'argument financier ne tient pas, surtout quand on voit que le leader sur le marché mobile est Samsung, et qu'ils vendent les Galaxy S comme des petits pains.
Et puis, ça ralenti, mais fin 2014/2015, on a vu les ventes de Samsung descendre de façon proportionnelles aux ventes d'Apple (http://www.idc.com/prodserv/smartphone-market-share.jsp). Il y a de l'argent pour les flagships.
Mais comme tu dis:
Je précise que ce sont des échanges à rallonge et que le but n'est pas de prouver que tu as tort mais d'échanger
Pareil :)
L'argument financier est celui qui revient le plus souvent, je suis étonné que tu l'écartes. Je n'ai jamais vu quelqu'un garder un iPhone 5/6 ans, déjà 4 ans ça devient la grosse misère. Je n'ai jamais vu non plus des personnes changeant de téléphone à 200 euros tous les ans, c'est en général les personnes aisées qui se mettent à jour régulièrement sur leur téléphone très cher.
Le débat dévie un peu mais niveau budget j'en ai parlé récemment avec Madame, je n'ai pas eu du tout le même calcul. Elle est en iPhone 5, il commence à déconner, elle en a marre de galérer avec le manque de place (photos/musique). Elle veut passer sur Android car elle en a marre de Apple principalement à cause de iTunes et du manque de place.
Voici comment je lui ai présenté les choses. Acheter un smartphone tous les deux ans à 350 euros plutôt qu'un smartphone tous les trois ans à 650 euros : - Ça te coûte moins cher - Tu es sur le milieu de gamme et tu le changes tous les deux ans - Accessoirement si tu le perds/casses/voles, c'est moins cher pour le remplacer
Ton avis m'intéresse (et celui des autres utilisateurs). Évidemment le budget dépend des moyens qu'on a. Je précise que le téléphone de deux ans est soit revendu soit redonné à quelqu'un de la famille.
Tcho !
Ce que je vois de ta réponse, c'est que tu feras partie des irréductibles qui resteront sur Android quand iOS prendra la première place des parts de marché :)
Plus sérieusement, je ne prends pas en compte l'argument financier tout simplement parce que:
Par contre, Ok, 200€ tous les ans, j'ai exagéré. Tu as raison: on est plus sur 200€ tous les deux ans. Mais pour moi, ça ne change rien: en mettant 600€ ou 700€ dans un téléphone Apple, j'ai l'assurance d'avoir un produit de qualité. Après avoir utilisé sans les apprécier de nombreux téléphones d'entrée ou de moyenne gamme, ça fait du bien d'avoir dans les mains un produit que tu n'as pas honte de sortir. Et même sans parler de l'apparence, les qualités physiques du téléphone sont appréciables (poids, solidité, finitions). Après quelques années, ce sont ces choses là qui deviennent plus importantes que le prix.
iOS ne prendra jamais la première place ;p
Je ne suis pas un irréductible, je suis au contraire très pragmatique dans la vie. J'ai eu un 3GS, je l'ai quitté avec soulagement. Je pense que niveau Mac c'est du très bon matos en revanche téléphone et tablette, je ne peux plus.
Enfin bon c'est pas moi qui dirait que Apple c'est mauvais, il y a de très bonnes choses chez eux par contre pas du tout d'accord sur le fait qu'ils deviendront les premiers mais tu l'as bien compris lol.
Tcho !
iOS ne prendra jamais la première place ;p
Il semblerait que ce soit fait maintenant en bonne voie :) (edit: je voulais dire que si c'est bien Apple qui vend, à l'heure actuelle, le plus de téléphones, c'est que l'argument financier n'en est pas un)
http://www.macrumors.com/2016/09/06/iphone-6s-top-selling-smartphone-ahead-of-iphone-7/
Je t'avoue que quand je vois “l'argument financier n'en est pas un”, je commence à m'énerver. Tout le monde ne peut pas se payer un smartphone à plus de 600 euros même rattaché à un forfait. On frôle la mauvaise foi là. Le monde ne se résume pas à l'occident.
Les chiffres parlant c'est 75,6% d'Android et 18,8% iOS en France : http://www.lesnumeriques.com/mobilite/parts-marche-os-mobiles-ios-stabilise-en-attendant-iphone-7-n55411.html
Bonne chance à iOS pour quadrupler sa part de marché (en France). Chacun utilise l'outil qu'il veut, je n'ai aucun problème avec ça mais de là à dire que iOS est en bonne voie juste non.
Tcho !
Le monde ne se résume pas à l'occident
Personne n'a dit ça. Le “marché” veut bien dire le marché mondial, incluant les pays “hors occident”. Qu'on le veuille ou non, mathématiquement, x millions de smartphones sous iOS pèsent plus lourd sur le marché que 10 000 smartphones sous Android.
Bonne chance à iOS pour quadrupler sa part de marché
C'est probablement ce qu'on a dit de Chrome avant qu'il pulvérise Firefox et IE.
https://en.wikipedia.org/wiki/Usage_share_of_web_browsers
Je tiens juste à préciser, à toute fin utile, que je ne suis pas un fanboy Apple. Je ne fais que défendre une théorie en usant autant que possible des moyens à ma disposition.
Hello,
Non mais on discute et je ne pense pas qu'on en viendra à se balancer des claviers dans la tronche lol.
C'est juste que certains de tes arguments sont faux et je ne vois pas comment utiliser un autre mot. Je parle de parts de marché iOS vs Android et tu me parles de téléphone. Forcément les iPhone vont beaucoup se vendre puisque chaque année il n'y a que deux modèles d'iPhone qui sortent en général quand il y en a XXX sur Android. Pour comparer les choses il faut regarder les parts de marché et là on a le droit d'y croire mais je ne vois rien qui puisse laisser penser que iOS va bientôt tout écraser. Il y a encore beaucoup, beaucoup de boulot.
Tcho !
J'ai codé le site moi-même, je n'ai pas pris le temps de coder une section commentaires, et en plus, pour être honnête, je n'ai pas envie de me prendre la tête avec du spam ou des haters :)
je pense qu'il faut quand même savoir faire la part des choses. Mais si je suis d'accord avec une bonne part, critiquer tout ce que fait Google simplement parce que c'est Google, c'est un peu limite. Dans le cas des apports de la firme à l'open source, comme SPDY, c'est très bénéfique et je ne vois pas ou réside le problème de l'intégration de spdy dans l'HTTP2…
Dans SPDY il y a SPY :)
Plus sérieusement, le problème avec SPDY est que Google a créé ce protocole expérimental pour accélérer l'affichage des sites web sur plateformes mobiles en supprimant tout le contenu jugé indésirable par Google.
Partant de là, il y a deux problèmes:
Certes, ces problèmes sont amoindris par la possibilité pour chacun d'installer le module open source qui va bien sur son propre serveur. Mais compte tenu de la comparaison entre le volume de données desservies par Google et le volume de données desservies par ceux qui s'auto-hébergent, je maintiens ma position sur les deux points que je viens d'évoquer.
Ah oui, c'est sur que si tu héberges ton blog sur blogger, c'est pas bon. Et bien sur, Google n'a pas créé SPDY dans un élan d'humanisme, mais bien parce que ça dessert ses propres intérêts. Cela dit, à partir du moment où ça devient open source et où je peux en profiter, ça me va.
Pour en revenir à ça “Google a créé ce protocole expérimental pour accélérer l'affichage des sites web sur plateformes mobiles en supprimant tout le contenu jugé indésirable par Google” - l'accélération tout le monde en profite, contenus hébergés Google ou pas, - supprimer le contenu, c'est pas inhérent à SPDY il me semble. Oui google fait ce qu'il veut sur ces terres…
Oui google fait ce qu'il veut sur ces terres
Y'a que moi que ça choque ?
Google créé sa propre autoroute pour accéder à ton serveur, et quand tu vas dessus, il te repeint ta voiture aux couleur de AdSense (et du coup en profite pour te fourger des autostoppeurs peu scrupuleux) sans te demander ton avis.
Mais c'est Google, ils font ce qu'ils veulent hein :)
Comment peux-tu ne pas le voir. Comment peux-tu ne pas voir le mal inhérent à cela. Comment peux-tu juste dire “ils font ce qu'ils veulent sur leurs terres”… Ils ont créé un protocole expérimental, et certains en ont fait une implémentation. Ce n'est pas leur terre, leur terre c'est les moteurs de recherche et la publicité, rien d'autre. Comment peux tu ne pas voir le mal qu'il y a pour une entreprise commerciale à fourrer son nez dans les infrastructures techniques, dont ce n'est pas le coeur de métier ?
En les laissant faire, avec ce genre de remarques, Internet fonctionnera juste comme la télévision, et avant elle, la radio. Google ne fait rien pour l'avenir d'Internet, ils font pour l'avenir de leur pognon, et ils sont très doués pour ça. Google fait tout pour qu'on en arrive là.
Et “ça te va” ?
Je suis pas certain qu'on se comprenne bien :
Google créé sa propre autoroute pour accéder à ton serveur, et quand tu vas dessus, il te repeint ta voiture aux couleur de AdSense (et du coup en profite pour te fourger des autostoppeurs peu scrupuleux) sans te demander ton avis. Par exemple, là ça ne me ravit pas forcement, cela dit, leur moteur de recherche est performant et comme c'est sa propriété, dans les limites de la lois, G peut faire ce qui lui chante dessus.
Quand je dis “leurs terres”, c'est les produits de G, pas le web hein !
Si sur certains aspects (vie privée par exemple), si on veut leur imposer plus de restriction, c'est nos députés qu'il faut aller voir. Dans la mesure où en effet, le tracking sert ses intérêts, on ne peut pas raisonnablement s'attendre à ce qu'ils lâche du lest là dessus juste pour ça.
La main invisible de Smith a ses limites. Que ça m'aille ou pas, c'est comme ça. Si je ne veux pas utiliser leur moteur de recherche, libre à moi, je peux utiliser des alternatives ou encore entrer directement mes url dans le barre d'url.
Là où je te suis vraiment pas, c'est sur le HTTP2… Tu préférais rester en 1.1 ? Si ça avait été juste l'IETF qui avait pondu le protocole sans l'input de Google ça t'aurait mieux convenu ? Décries-tu certaines techno juste parce que elles sont issues du travail de Google ou te posent-elles un problème de fond ?
Pour illustrer mon propos par une métaphore, si Total créé une nouvelle autoroute pour acheminer plus efficacement ses camions d'une raffinerie à une ville x. Elle le fait pour ses propres intérêts. Maintenant, si je peux également utiliser cette autoroute gratuitement, pourquoi ne pas en profiter ? Elle n'est pas empoisonnée…
Le HTTP2, en tant que protocole, est plus performant que le 1.1 et il est neutre. Contrairement aux nouvelles moutures du HTML qui incorporent du DRM, je ne vois pas vraiment ce qu'il y a à critiquer ce H2 ? Où alors j'ai loupé quelque chose !
Quand je dis “leurs terres”, c'est les produits de G, pas le web hein !
Quand on laisse une techno de Google (SPDY) intégrer des standards (HTTP2), on laisse Google devenir le web. Et là c'est au niveau applicatif, imagine quand ils vont commencer à descendre dans les couches du modèle OSI…
c'est nos députés qu'il faut aller voir
Tu veux demander à nos politiciens de gérer un problème avec Google ? Tu vis dans un monde de licornes et d'arcs-en-ciel :)
Que ça m'aille ou pas, c'est comme ça
Précisément non: le web a été fait de façon à ce que ce ne soit pas “comme ça”. Si ça ne te va pas, vas voir ailleurs, l'herbe est forcément plus verte. Personne ne t'oblige à utiliser Google.
Tu préférais rester en 1.1 ?
Le HTTP2 permet de charger plusieurs assets simultanément, depuis le même serveur ou pas. Il facilite donc le chargement des publicités et des traqueurs.
Le protocole a aussi évolué parce que les devs web sont incapables de pondre du code propre, ou parce que leurs supérieurs veulent qu'ils fassent de la merde.
Le HTTP2 est une évolution faite pour de mauvaises raison. Le 1.1 ne me pose aucun problème en l'état actuel, pas plus qu'à mes clients. Je rajouterai que le proto est trop jeune pour être mature, et on en voit déjà les conséquences (http://www.nextinpact.com/news/100887-http2-quatre-failles-decouvertes-correctifs-disponibles.htm)
Si ça avait été juste l'IETF qui avait pondu le protocole sans l'input de Google ça t'aurait mieux convenu ?
Franchement, oui
Décries-tu certaines techno juste parce que elles sont issues du travail de Google ou te posent-elles un problème de fond ?
Les deux questions ne sont pas mutuellement exclusives.
Ne défends pas Google pour de mauvaises raisons. Gardes à l'esprit qu'ils sont partout (comprendre: ils font de tout, de l'IA, de l'OS mobile, du matériel, mais aussi de la recherche sanitaires, des assurances, etc.) et que leur principale source de revenu est la publicité.
Pour illustrer mon propos par une métaphore […]
Une métaphore juste :)
Non, elle n'est pas empoisonnée. Mais aux abords de cette autoroute, tu peux trouver des stations services autres que Total ? En quelle proportions ? Et combien doivent-elles payer à Total pour avoir le droit de s'installer près de LEUR autoroute ? Est-ce qu'elles sont tenus d'informer Total de la quantité de personnes qui prennent de l'essence chez eux ? Leur portrait ? Leur carte de crédit ? Leurs habitudes ? Et est-ce que Total va se servir de ces données pour afficher plus de pubs dans leurs propres stations ?
Pas empoisonnée, hein ? :)
Le HTTP2, en tant que protocole, est plus performant que le 1.1 et il est neutre. Contrairement aux nouvelles moutures du HTML qui incorporent du DRM, je ne vois pas vraiment ce qu'il y a à critiquer ce H2 ? Où alors j'ai loupé quelque chose !
T'en fais pas, je critique HTML et ses DRM aussi :)
Mais plus sérieusement, tu parle de performance et de neutralité du protocole, or ce sont des caractéristiques des implémentations, pas des protocoles, et justement, quand Google implémente son propre protocole, on perd la neutralité. Et quand tu sais la quantité d'informations que Google draine chaque seconde, et qu'ils sont en train de créer leur propre FAI, ça commence à faire vraiment froid dans le dos.
Je suis d'accord sur tout… sauf sur l'h2. Oui Google est tentaculaire et ça fait peur. Il n'empêche que s'ils contribuent au libre, même si l'intention n'est pas philantrope, dans la mesure où ça contribue à l'intérêt général, je trouve bien. De la même manière que je trouve bien quand Facebook open source une techno qu'ils ont développé à la base pour leurs besoins en interne. Si HHVM a participé à certaines amélioration de PHP7, je trouve ça bien.
Et ça, même c'est là notre désaccord fondamental je crois, c'est l'aspect positif de la main invisible. Chacun oeuvrant dans son intérêt oeuvre aussi à l'intérêt général.
Pour revenir sur le H2 - déjà merci pour l'article que j'ai trouvé très intéressant - forcement il permet à G de balancer plus de pubs mais G n'a pas de contrôle sur H2. Si je l'utilise, je n'ai aucun compte à lui rendre et il ne peut pas plus s'immiscer dans le trafic de mes sites qu'avec h1. (contrairement au complément d'exemple que tu fournis sur l'autoroute de total =P)
J'ai quand même constaté de meilleurs perfs avec h2 sur des sites assez simples. Rien que le fait de pouvoir multiplexer est un gros gain. Sans juger la qualité de la programmation, si tu as de nombreux assets à charger, en 1.1, il fallait faire une requête à chaque fois, donc une nouvelle connexion TCP avec la lenteur qu'on connaît… Les sprites et la concaténation c'est bien, mais y'a quand même des limites.
Je pense honnêtement qu'aujourd'hui, de nombreux sites sont de réelles applications web et que les besoins ne sont plus les mêmes que ceux pour lesquels avaient été pensé le 1.1 en 96.
Je ne suis pas sur qu'on trouve un terrain d'entente là dessus, mais voilà mon opinion. Je te rejoins sur les autres points.
En terme de projets de G, je trouve que d'autres, je pense notamment aux pages AMP, ont autrement plus de points négatifs, en l’occurrence celui ci ne sert que les intérêts de Google, enlève la souveraineté du contenu aux éditeurs et j'espère donc qu'il ne percera pas.
Si HHVM a participé à certaines amélioration de PHP7, je trouve ça bien
La différence étant que HHVM n'a pas été intégré à PHP7, contrairement à SPDY qui a été intégré à HTTP2, un standard du web. À côté, HHVM c'est “juste un hack” :)
Et ça, même c'est là notre désaccord fondamental je crois, c'est l'aspect positif de la main invisible. Chacun oeuvrant dans son intérêt oeuvre aussi à l'intérêt général.
En fait, en lisant cette phrase, je crois que notre désaccord tient plus au fait que je ne suis pas partisan de l'idée que “chacun oeuvrant dans son intérêt oeuvre aussi à l'intérêt général”, en particulier en ce qui concerne Google et facebook :)
Pour revenir sur le H2 - déjà merci pour l'article que j'ai trouvé très intéressant - forcement il permet à G de balancer plus de pubs mais G n'a pas de contrôle sur H2. Si je l'utilise, je n'ai aucun compte à lui rendre et il ne peut pas plus s'immiscer dans le trafic de mes sites qu'avec h1.
Justement, c'est le problème que je soulève: toi, de ton côté, tu ne “risque” rien à implémenter HTTP2 sur ton propre serveur avec une techno open source même fournie par Google.
Par contre, Google qui implémente ça sur ses propres serveurs, avec tout le trafic généré sur GMail, AdSense/AdWords, via les terminaux Android (y compris TV, voitures, etc.), là ça devient grave. Parce que Google ne va pas “balancer plus de pubs”, il va virer les pubs de la concurrence et mettre les siennes à sa place.
L'objectif de SPDY était à la base de rendre plus rapide la navigation sur terminaux mobiles et connexions lentes. Le principe étant de stocker un cache des pages demandées mais réécrites. Or, si Google remplace les pubs de la concurrence par les siennes lors de la réécriture des pages, la navigation reste fluide (puisque les pubs ET les pages SPDY viendraient des mêmes serveurs, ou en tout cas, de la même ferme de mise en cache). L'utilisateur est content. Mais au passage, Google viole la neutralité du web, y compris sur des sites qui ne lui appartiennent pas.
En utilisant HTTP2, tu contribue à la violation de la neutralité du web :)
Rien que le fait de pouvoir multiplexer est un gros gain. Sans juger la qualité de la programmation, si tu as de nombreux assets à charger, en 1.1, il fallait faire une requête à chaque fois, donc une nouvelle connexion TCP avec la lenteur qu'on connaît… Les sprites et la concaténation c'est bien, mais y'a quand même des limites
Pardon, mais rien que cette phrase me fait grincer des dents :)
Sans juger de la qualité de la programmation, si tu as de nombreux assets à charger, c'est que le boulot d'optimisation est mal fait. Je suis dev senior, je sais de quoi je parle. Le seul cas que j'ai rencontré où il était nécessaire d'avoir “de nombreuses assets” à charger est une map de géolocalisation, où effectivement, chaque tuile est chargées indépendamment. Mais je n'ai toujours qu'un seul JS et qu'un seul CSS par page. C'est pour arriver à ce résultat qu'on a créé des outils de concaténation et de compilation d'assets :)
Je pense honnêtement qu'aujourd'hui, de nombreux sites sont de réelles applications web et que les besoins ne sont plus les mêmes que ceux pour lesquels avaient été pensé le 1.1 en 96
Pourtant la tendance est à la simplification :)
Plus sérieusement, tu as raison, les besoins ne sont plus les mêmes. On a besoin de plus de bande passante, de multiplexage, et de connexions chiffrées forcées pour pouvoir diffuser un max de pub tout en passant sous les radars des bloqueurs de pubs :)
En terme de projets de G, je trouve que d'autres, je pense notamment aux pages AMP, ont autrement plus de points négatifs
En effet. Alors quand tu sais que 90% de Google est servi via HTTP2 (https://groups.google.com/d/msg/spdy-dev/TCOW7Lw2scQ/T2kM5aPDydwJ - note: Mike Belshe est le co-auteur de SPDY), et quand tu connais la popularité de Google News, il y a de quoi être inquiet…
Je suis dev senior, je sais de quoi je parle. Le seul cas que j'ai rencontré où il était nécessaire d'avoir “de nombreuses assets” à charger est une map de géolocalisation
Et les images de contenu sur un site éditorial tu en fais quoi ??
Par contre, Google qui implémente ça sur ses propres serveurs, avec tout le trafic généré sur GMail, AdSense/AdWords, via les terminaux Android (y compris TV, voitures, etc.), là ça devient grave. Parce que Google ne va pas “balancer plus de pubs”, il va virer les pubs de la concurrence et mettre les siennes à sa place.
Attends j'ai pas suivi là, remplacer quelle pub ? parce que sur gmail et autres produits google, la pub vient déjà ad adsense/adwords. Tu voudrais dire que via chrome et terminaux android, ils remplaceraient les encarts pubs tierces par les leurs ?
Et les images de contenu sur un site éditorial tu en fais quoi ??
Y'a des techniques pour ça: http://stackoverflow.com/questions/5117421/how-to-load-images-dynamically-or-lazily-when-users-scrolls-them-into-view#5117707
Tu voudrais dire que via chrome et terminaux android, ils remplaceraient les encarts pubs tierces par les leurs ?
C'est précisément ce que je dis :) C'est, en tout cas, le pouvoir que leur confère SPDY + AMP
Richard: merci pour ce bon moment de partage. Bien que moi aussi neuroatp, mais pour d’autres raisons, je comprends tes sentiments exprimés ; et j’apprécie beaucoup. Toujours aussi agréable à te lire…
Merci, ça me fait très plaisir !