Je préfère apprendre en autodidacte. Et apprendre à utiliser efficacement un Shell Unix, je trouve cela difficile. J’aime bien le projet GNU pour les valeurs du projet et la documentation au format Info pour transmettre des connaissances (un savoir-faire). Mais la documentation de Bash est difficile à assimiler. On découvre souvent une multitude de manières, pour faire la même chose, lorsqu’on fait des recherches sur le Web sur l’invocation de commandes Shell. En fait, j’en suis venu à penser qu’il fallait bien connaître le fonctionnement du système d’exploitation pour savoir comment procéder. On ne peut pas deviner. Les gens qui concevaient les utilitaires Unix participaient aussi au développement du système Unix. Idem pour le projet GNU. Dans son livre Scripts Shell Linux et Unix, Christophe Blaess recommande d’ailleurs d’apprendre la programmation Shell par la pratique. J’ai l’impression que, à mon niveau débutant, programmer avec un Shell de type Unix peut entraîner une perte de temps. Cela nécessite de déployer trop d’énergie, de façon générale. Après, quand on maîtrise, aucun problème rédhibitoire : cela vient, ou pas (on perçoit intuitivement).
Depuis des décennies, le conseil a toujours été d’éviter d’utiliser les shells pour traiter des entrées de données non fiables, pour des raisons de sécurité. Tout le monde vous dira qu’utiliser des scripts shell pour des pages web CGI – c’est-à-dire générées dynamiquement par des programmes – est une très mauvaise idée. La principale raison est que la syntaxe des shells est complexe. Il est difficile d’écrire des scripts correctement.
Source : Stéphane Chazelas (article 01net.com, à propos de la faille Shellshock)
On peut dire que je ne suis pas vraiment un utilisateur confirmé du Shell Unix. Néanmoins, ZSH et Fish, ils me donnent l’impression que c’est trop sophistiqué comme outils (voire surfait), pour l’usage qu’on peut en faire. Quand j’aurais plus de temps, j’essayerais d’expérimenter avec Rash (The Reckless Racket Shell, implémenté en Racket Scheme). Je pense que c’est plus en phase dans ma ligne de conduite.
La personne ayant écrit l’article ne comprend pas la philosophie du logiciel libre. En principe, ce n’est pas de savoir qui en retire le plus (contributions, rétributions…) mais plutôt de savoir comment se baser sur l’existant. Les gens qui savent programmer peuvent créer des programmes et parvenir à faire fonctionner un ordinateur. Néanmoins, faire fonctionner des systèmes sophistiqués et complexes est loin d’être simple, voire possible.
Cela devient évident lorsqu’on devient incapable de faire des choses qu’on aurait pu faire autrement.
Pourquoi Linus Torvalds a t’il élaboré son noyau Linux ? Parce que les systèmes Unix étaient devenus inabordables.
Pourquoi Richard Stallman a t’il créé la fondation du logiciel libre ? Parce que les gens ne partageaient plus leurs codes sources.
Salut Cascador,
Moi aussi je vous remercie pour le service que vous rendez à la commu tech francophone. J’utilise JdH via glance https://github.com/glanceapp/glance grâce à la compatibilité lobste.rs.
J’aime le côté sobre, fiable et performant du JdH.
Je regrette que la communauté soit très silencieuse. Je constate la popularité du JdH par les pics de visite, pas par les commentaires ni les up. N’est-ce pas aussi ce qui facilite la modération ! C’est le principe de lobste.rs par rapport à un HN.
Pour l’avenir, je dirais de ne pas changer ce qui marche. J’ai du mal à évaluer dans quelle mesure l’impasse technique est difficile à gérer.
En tout cas, oui, il faut un deuxième compère pour répartir ça.
Je te propose d’accepter les dons pour aider au financement. Certaines entreprises seraient disposée à te soutenir, j’en suis certain ;-)
Tu mets le doigt sur un truc important : le principe le lobste.rs est de rendre l’accès difficile. Ne sont actifs que des gens motivés et cooptés. L’objectif étant de repousser les trolls et les membres cherchant la facilité. On pourrait rapprocher ce mode de fonctionnement avec la franc-maçonnerie.
Un éventuel passage à Lemmy impliquerait donc un changement profond de paradigme.
Mais cela peut être une bonne chose. Je crois que si la communauté JDH semble si “silencieuse”, c’est parce que l’immense majorité des utilisateurs qui ont la motivation et les capacités d’utiliser le JDH parlent également anglais et sont donc à l’aise pour lire/poster sur lobste.rs (ou hacker news).
Il y a une réflexion de fond à avoir:
Je n’ai pas de réponse, personnellement.
Les informations disponibles en anglais sur le logiciel libre sont plus variées et plus proches des contributeurs (dans l’idée de diffusion). J’ai régulièrement l’impression d’avoir affaire a un esprit corporatiste lorsque je lis le contenu de sites français. En ce qui concerne l’aspect élitiste, je ne suis impressionné que par les gens qui ont des idées et qui parviennent à les réaliser (indépendamment de leur faculté). Les gens ayant du goût pour raconter les choses le font éventuellement par plaisir ou facilité. En ce sens, je préfère nettement loste.rs au JdH et je ne m’aime pas tellement linuxfr.org (contenu riche et bien étayé mais assez fermé : le système de vote là-bas est une véritable calamité, on vous fait bien sentir les choses en cas de désaccord (entretien d’une réputation négative qui se prolonge dans le temps, peu importe ce que l’on dit)).
Nous avons de gros biais. Nous sommes tellement habitué au tout à l’anglais que nous ne réalisons pas que la langue ne change pas plus que ça l’esprit corporatiste.
Nous avons besoin d’un endroit pour partager les contenus francophones. Ils existent et méritent d’être partagés. Quel que soit leur différence qualitative avec les contenus anglais.
D’ailleurs, existe-t-il un jdh allemand ? russe ?
Je parcours le JdH pour trouver des sujets qui m’intéressent en toute simplicité. Le site est transparent, et c’est formidable d’avoir des gens pleinement investis dans leur activité et qui le font librement (avec un sens de la liberté).
Note : J’ai relevé un usage à contre-emploi. Cela paraît intuitif de combiner la commande grep avec xargs car l’utilisateur peut vouloir afficher la liste des fichiers correspondant puis ensuite vouloir éditer automatiquement ces fichiers. Néanmoins, on recherche un motif deux fois successivement en lançant deux processus : grep et sed.
grep -rl "srobert@example.com" . | xargs sed -i 's/srobert@example.com/MY_EMAIL_ADDRESS/g'
Les lignes de commande suivantes me paraissent plus justes.
find . -type f -exec sed -i 's/srobert@example.com/MY_EMAIL_ADDRESS/g' {} +
find . -type f -print0 | parallel -m -0 sed -i 's/srobert@example.com/MY_EMAIL_ADDRESS/g' {}
En fait, ces commandes ne donnent pas les résultats attendus en terme de performance.
L’invocation de commande avec find, parallel et sed :
$ time -p find -L OpenWrt -type f -print0 2>/dev/null | parallel -m -0 sed -nE 's/mail@danrl.com/MY_EMAIL_ADDRESS/gp' {}
real 16,46
user 32,48
sys 12,96
L’invocation de commande avec grep et sed :
real 11,13
user 6,40
sys 4,72
L’invocation de commande avec find, xargs (-P15) et sed :
real 3,11
user 30,29
sys 8,20
Votre documentation m’apparaît comme un condensé d’expériences et de techniques. C’est très bien car cela a pour but d’éclairer les choses. Néanmoins, je suis moins convaincu par la méthode en général. J’ai un livre sur le langage Python qui est élaboré suivant le même principe, et au final, je n’y ai pas compris grand chose. Ce qui me chagrine un peu c’est la mise en perspective, avec des contradictions apparentes.
C’est l’outil idéal dans telle ou telle situation mais … l’élaboration d’un motif peut devenir complexe et peut aboutir malencontreusement à des erreurs. C’est l’outil idéal pour manipuler du texte mais … il existe aussi divers autres outils.
Efficacité : Les regex permettent de réaliser des opérations complexes sur des chaînes de texte avec un minimum de code. Ce qui pourrait prendre des dizaines de lignes de code en logique conditionnelle peut souvent être accompli en une seule ligne avec une expression régulière bien construite.
Laisser penser que le concept apporte de la performance est maladroit.
Unlike several other scripting languages, Lua uses neither POSIX regex nor Perl regular expressions for pattern matching. The main reason for this decision is size: a typical implementation of POSIX regular expressions takes more than 4000 lines of code, which is more than half the size of all Lua standard libraries together. In comparison, the implementation of pattern matching in Lua has less than 600 lines. Of course, pattern matching in Lua cannot do all that a full POSIX implementation does. Nevertheless, pattern matching in Lua is a powerful tool, and includes some features that are difficult to match with standard POSIX implementations.
Extrait du livre : Programming in Lua, 4th edition.
On imagine notre future et d’autres le font aussi, voire même à notre place. Quand je pense qu’on veut nous implanter des puces électroniques dans le cerveau pour ne pas être mis au rebut de l’évolution (humain augmenté), ou fabriquer des robots humanoïdes à partir d’organismes vivants. Tant qu’il nous reste de la liberté.
Ce serait le comble que les hébergeurs de contenu freinent l’utilisation de l’IPv6. D’un autre côté, les réseaux des opérateurs ne leur appartiennent pas. Il suffit de leur couper l’accès à l’Internet en IPv4 s’ils se refusent à migrer vers IPv6. Du coup, leur connectivité IPv4 en serait dégradée. Cela vaut pour les organisations voulant faire profit de la situation ou ceux faisant preuve de mauvaise foi (aucun effort). Pénaliser cela pour défendre l’intérêt général.
QUELS SONT LES « SCÉNARIOS DE SORTIE » D’IPv4 PLAUSIBLES ?
Le scénario de sortie d’IPv4 n’est pas connu et est très difficile à prévoir à ce jour. Si l’on essaie malgré tout d’imaginer les différentes étapes d’un tel scénario, on arrive par exemple à une séquence telle que celle-ci :
La quasi-totalité des offres d’accès internet grand public commercialisées proposent de l’IPv6 activé par défaut en plus de l’IPv4.
La quasi-totalité des offres d’accès internet grand public, pro et entreprise proposent de l’IPv6 activé par défaut. Une connectivité IPv4 est toujours proposée.
Une part non négligeable des sites web sont hébergés en IPv6 uniquement, malgré des poches de résistances à l’IPv6 pour l’accès proposés par quelques entreprises à ses salariés. Ces sites ne sont plus accessibles depuis une entreprise qui bloque l’IPv6.
Une part non négligeable des offres des fournisseurs d’accès à internet ne proposent plus de connectivité IPv4. Il n’est plus possible de consulter des sites web hébergés en IPv4 uniquement.
La majorité des sites web abandonnent IPv4, devenu inutile. IPv4 n’est plus utilisé sur internet, mais peut continuer à être utilisé pour des réseaux privés.
Source : arcep.fr
IPv4 nuit à la compétitivité ou à l’esprit d’innovation. Avec la croissance mondiale de l’accès à l’Internet, on a plus assez d’adresses. Cela remet en question le modèle de l’Internet. Raison pour laquelle on a inventé IPv6 dans les années 90 et dont l’usage est encore à appréhender. On a eu le Web, l’union de l’informatique et des télécommunications, l’apparition des objets connectés (informatique embarquée dans des systèmes électroniques reliés à un réseau informatique), les réseaux sociaux (les espaces d’échanges virtuels ou le phénomène accru de dématérialisation). Ce n’est pas tant le partage de contenu ou la version 6 du protocole IP qui change quoi que ce soit par rapport à l’usage de l’IPv4. Conceptuellement, on échange des données. Mais la version 4 du protocole IP a indubitablement des problèmes inhérents comme celui de l’épuisement de l’espace d’adressage. Ce n’est probablement pas une question de perspective mais de passage à l’échelle.
Que pensez-vous des Shell « Unix » embarqués dans un langage de programmation ? Je n’ai pas un niveau suffisant pour tester mais je trouve que Rash (Reckless Racket Shell) présente un certain attrait. On inverse le raisonnement en maîtrisant d’abord un langage de programmation puis en y intégrant ensuite un langage de commandes. Je serais plus orienté vers Rash que vers Xonsh parce que Racket (variante Scheme) intègre la métaprogrammation.
Un problème, avec la programmation Shell, et non des moindres, est que chacun doit faire sa propre tambouille. J’appréciais beaucoup l’aspect graphique de l’installateur Feliz pour Arch Linux. L’auteur de l’application a arrêté de le maintenir pour problème de santé et dans la dernière version s’était rabattue sur Dialog. Whiptail est une alternative à Dialog. Je trouve qu’il faut contraster les choses par rapport à l’usage du Shell car c’est ardu.
Le problème fondamental de Gemini n’est pas tant le facteur minimaliste que le gel des fonctionnalités. Ce n’est pas je le pense dans cet espace que l’on va intégrer de nouvelles idées ou de différentes manières, on les échange tout au plus. C’est également important de pouvoir réaliser des choses et d’expérimenter, et pas seulement les exprimer ou les retranscrire à travers un texte. Chacun pourrait se réapproprier le Web mais c’est difficile et l’évolution a passé avec son lot de nouveaux défis. Rien que créer un site c’est complexe. Ensuite, il y a le partage d’information qui devient une véritable diffusion ou publication. Pour finir, c’est un peu bateau, mais il faut avoir un sens général ou tracer son chemin.
Ironiquement, certains veulent admettre (ou faire admettre) que IPv6 est une régression de IPv4 : (en substance) IPv4 serait une valeur sûre, la durée du déploiement de IPv6 au fil du temps serait un signe évident de l’échec de l’IPv6, le passage à l’IPv6 serait forcé à cause de motifs politiques, ou encore, que l’IPv6 est moins sécurisé que l’IPv4. Arguments ayant été réfuté par des personnes qui maîtrisent leur sujet.
C’est bizarre. Explorer des modèles sous-jacents dont l’ensemble des possibles n’apparaît pas. Cet ensemble qui finit par occulter les modèles sous-jacents. En automatisant, on peut perdre les choses. C’est une grande crainte que de tout perdre ou de perdre sans crainte de ne rien perdre. Trouver le sens de la vie avec l’IA.
Je ne cherche pas le sens de la vie avec l’IA, j’ai juste trouvé nos échanges intéressants, dans la mesure où je sais que l’IA ne fait que recracher ce qu’on lui a appris : elle n’est que notre propre reflet. J’en avais déjà parlé dans un autre article (où je testais Stable Diffusion).
Et je ne cherche pas à tout automatiser, mais au moins les trucs basiques. Par exemple, ChatGPT peut me fournir la liste des acteurs et leur rôle dans un film dont je veux écrire la critique, formatée en yaml. Je pourrais le faire à la main (c’est ce que je fais actuellement) mais c’est assez pénible de faire des copier-coller depuis la Wikipédia pour ça.
La tentation de croire que je vais abandonner tout travail d’écriture en laissant l’IA se débrouiller est grande, mais elle n’est pas fondée, je te rassure :)
Titre putaclic… Vous devriez vous interroger sur la pertinence d’avoir un pare-feu IPv6 sur un réseau domestique. Pour que ce soit utile il faut que les machines du réseau utilisent effectivement IPv6 et qu’elles hébergent un ou plusieurs services en écoute sur leur interface IPv6. Quand bien même ce serait le cas il faudrait pour identifier ces services scanner l’ensemble des IPv6 possibles soit 2^64 avec le préfixe fourni par Free. Cela risque de prendre un certain temps…
Comment faites-vous pour vous protéger d’attaques locales ? Pourquoi les réseaux d’entreprise sont-ils segmentés ? Savez-vous comment fonctionne votre réseau ?
Certains considéraient que le réseau local était sécurisé ou exempt de menaces. Les réseaux d’ordinateurs contrôlés à distance par milliers (million) aux mains de cybercriminels, ce n’est pas tellement de la science-fiction.
Mais il vaut mieux être bête, méchant et naïf (en tout état de cause). La réalité c’est qu’on n’arrête pas le progrès, et qu’il vaut mieux prendre les autres pour des cons. Ça c’est sûrement ce que pensent les cybercriminels (nul et moins « mauvais »).
RéférencesRemarque : je n’ai pas eu le temps de lire le RFC. Mais diverses sources font état de mauvais indicateurs.
Alors non, ce n’est pas putaclic, le nombres d’appareils qui supporte ipv6 est de plus en plus grand, perso, je laisserait pas exposer une cam de surveillance. Et sur ces dites cam, j’ai de l’ipv6 … Mais je vois pas ou est le firewall
Tous les systèmes n’activent pas non plus leur pare-feu par défaut. Cela est le cas de plusieurs distributions GNU/Linux. Encore fallait-il le savoir !
Si untel se fait pirater par untel et que untel installe son application malveillante sur l’ordinateur d’untel alors les ports du système d’untel s’ouvriront sans broncher.
Forum Manjaro : Does Manjaro has disabled firewall by default?
No, there is no firewall enabled by default. Decisions like that are left up to the user. Users at home with a router NAT firewall do not necessarily need a software firewall.
Ah non, c’est meme sur, le nombre d IOTs compatible ipv6 est de plus en plus important, mais la plupart non pas de fw et laisse passer tout le traffic et pas seulement le local.
Les responses dans le ticket sont lunaires.
Je commence à comprendre pourquoi les sites de scammer favorisent plutôt l’IPV6 que l’IPV4. Tu peux facilement récupérer des IP de périphériques en IPV6 sur le Web et scanner tous leurs ports à leur arrivée. Si tu hack un concentrateur d’IoT et que ces IoT possèdent des vulnérabilités, tu peux te créer facilement un Botnet. https://www.lebigdata.fr/machine-a-laver-lg-consommation-de-donnees J’ai été étonné à vrai dire que mon PC était directement joignable d’Internet sans en être informé. J’étais persuadé que ma Box me protégeait d’Internet, c’est ce que je croyais jusqu’à ce que je découvre cette option décochée.
Ce principe de sécurité qui consiste à additionner les points de contrôle pour compliquer la tâche d’un attaquant est nommé dans deux de mes livres : la sécurité en profondeur. À mon avis, Free pratique ce qu’on nomme la sécurité par l’obscurité « Passez votre chemin, il n’y a rien à voir !»
J’ai été ciblé à deux reprises par une tentative de hameçonnage par SMS à quelques mois d’intervalle et pointant sur le même nom de domaine. Le site Web se faisait passer pour le service Chronopost. L’URL était vraiment trompeuse. J’avais signalé plusieurs fois ce site en utilisant la fonctionnalité intégrée à Firefox (le Google Safe Browsing). Des mois plus tard, on pouvait malheureusement constater que le même site était toujours accessible sans aucun changement. Il y aurait de quoi s’énerver. Manifestement, les gens malveillants ont une longueur d’avance sur les autres.
Ce qui est intéressant de voir c’est que le serveur en question héberge des centaines d’autres domaines de scam. L’attaque est industrielle.
Il me semble qu’on ne peut pas répliquer à ces attaques. C’est du domaine de la cyberdéfense. Pourtant, certains vidéastes, comme Sandoz, simulent des contre-attaques contre des brouteurs Ivoiriens sur YouTube (c.f. défense active ou « hack back »).
Certains chercheurs en sécurité font même tomber des réseaux d’ordinateurs zombies.
Je précise que le site Web continuait de s’afficher normalement dans le navigateur sans le moindre avertissement.
En lisant, cela donne l’impression d’aborder des sujets en profondeur tout en les survolant. Hum !
J’adore prendre des remarques de gens qui ne contribuent en rien. Passez votre chemin
Je ne contribue pas car je n’ai pas un niveau suffisant, malgré mes efforts. Néanmoins, je me forme un avis en la matière. Je le publie par des critiques ou remarques sur le JdH. J’avais un blogue sur lequel j’avais publié un ou deux articles hétéroclites peu intéressant. Je l’ai fermé par manque de compétences dans les domaines suivants : administration système, développement système, administration réseau. Ou dit plus simplement, par manque de compétences en développement Web (full-stack) et ce qui constitue ce que l’on nomme communément l’auto-hébergement de services. Je ne suis pas un pro. mais un amateur confirmé. Cela dit, vous me reprochez de ne pas contribuer par delà mes commentaires. Et ceux-ci ne sont visiblement pas pris en considération : aucune réponse ou prise en compte. Je conçois que mes commentaires ne soient pas forcément bien pris, voire des plus utiles. En conséquence, je ne laisse qu’un aperçu de ce que je pense. Il se pourrait qu’il y ait un problème de fond dans vos articles, comme l’a aussi relevé @bruno666, mais vous faites ce que vous voulez. Après tout, qui suis-je pour juger un travail que je ne fais pas ?
Par exemple, j’aurais pu ajouter qu’il ne faut pas systématiquement spécifier le nom de chemin absolu des commandes invoquées dans le script, en terme de sécurité. Normalement, on peut définir la valeur de la variable d’environnement PATH dans le script Shell. Et encore, c’est quelque chose de relativement simple à savoir. Je pense qu’au peut faire pire et élever le risque, lorsqu’on traite du niveau de sécurité informatique.