Nouvelles du Libre

Des statistiques en temps réel sur le cyberespace

Toolinux - mar, 26/08/2014 - 23:10

Désormais, le Kaspersky Lab collectera, en temps réel, des données sur le cyberespace et ses habitants. Il est possible de consulter, sur le portail interactif « Kaspersky CyberStats », des informations issues du monde entier, relatives aux activités des internautes, aux équipements qu'ils utilisent et aux dangers qui les menacent.

- Revue de presse
Catégories: Nouvelles du Libre

Comment l'Internet des Objets affecte l'administration des réseaux

Toolinux - mar, 26/08/2014 - 23:00

Vous l'avez très certainement remarqué, le concept de l'Internet des Objets (Internet of Things) fait couler beaucoup d'encre et influence des domaines extrêmement variés : il révolutionne la fabrication, l'agriculture, la médecine et notre vie quotidienne ; prendra en charge de nouvelles fonctionnalités ; et annonce le début d'une nouvelle ère.

- Revue de presse
Catégories: Nouvelles du Libre

Espace Libre et Richard Stallman en conférence à la Fête de l’Humanité 2014

Linuxfr - mar, 26/08/2014 - 20:27

Je reprends une information donnée dans la dernière revue de presse de l’April, pour signaler que Richard Stallman sera présent à la Fête de l’Humanité. La Fête de l’Huma est une fête organisée par le journal L’Humanité.

Bien que ce soit initialement un rendez‐vous politique du Parti communiste français, cette rencontre rassemble beaucoup plus largement. La fête aura lieu, cette année, du 12 au 14 septembre au  parc de La Courneuve.

Richard Stallman sera présent lors de cette édition où il donnera une conférence intitulée Logiciel libre : les Droits de l’Homme dans votre ordinateur. Elle se tiendra le vendredi 12 septembre à 17 h 30 au Village de l’économie sociale et solidaire.

Cette édition est également l’occasion de voir réapparaître un espace du logiciel libre, qui était présent il y a quelques années, mais qui avait disparu depuis. Cet espace se veut être un lieu d’éducation populaire aux enjeux du Libre.

Plus de détails dans la suite de la dépêche.

À cette occasion, des démonstrations d’imprimantes 3D, des installations de distributions GNU/Linux (entre autres) devraient avoir lieu tout le week‐end. Les fab labs des « Fabriques du Ponant » et Carrefour Numérique, le fab lab de la Cité des sciences seront présents, avec du matériel, pour effectuer des démonstrations. Bien que géré par des bénévoles, un soutien financier de 2 000 € est recherché pour l’organisation de l’espace. Un financement participatif a été lancé pour l’occasion : ça se passe sur ulule.

N. D. M. : Seront aussi présents l’April, Ars Industrialis, Creative Commons France, Emmabuntüs, FacLab, FDN, Open Edge, Framasoft, Jerry Do It Together, La Quadrature du Net, Les petits débrouillards d’IDF, Mageia, Parinux, Ubuntu-fr. Ou encore Bernard Stiegler et Sébastien Broca (et R. M. S.) qui participeront à des débats sur l’espace.

Source Wikimedia - Pierre‐Yves Beaudouin - GFDL / CC-by-sa.

Télécharger ce contenu au format Epub

Lire les commentaires

Catégories: Nouvelles du Libre

HAProxy 1.5

Linuxfr - mar, 26/08/2014 - 16:01

Après quatre ans et trois mois, et pas moins de 26 versions de développement, la version réputée stable de HAProxy devient la 1.5. Même si HAProxy est avant tout un répartiteur de charge HTTP et TCP, les possibilités offertes par la version 1.5 en font le véritable couteau suisse du Web à haute charge.

Il est utilisé, entre autres, par de nombreux sites d’audience mondiale, tels que Twitter, Instagram, GitHub, Reddit… Cette version apporte de nombreuses nouveautés, dont la très attendue prise en charge de l’offloading SSL.

La version 1.5.0 a été rapidement suivie de quelques versions correctives. Nous en sommes à la 1.5.3, disponible depuis le 25 juillet dernier.

Sommaire Listes des nouveautés Inspection du contenu

HAProxy 1.5 sait désormais capturer n’importe quelle partie d’une requête ou d’une réponse, y compris le contenu (payload) et les arguments passés dans l’URL (url_param). Cette fonctionnalité est essentielle car elle est à la base de beaucoup d’autres nouveautés.

Pour l’administrateur système, le bénéfice est énorme : il peut désormais intervenir à n’importe quel moment de la transaction.

Prise en charge du chiffrement (SSL)

Jusqu’à présent, pour utiliser du chiffrement TLS avec HAProxy, il fallait soit utiliser le mode TCP, soit utiliser une version modifiée de STunnel. Désormais, HAProxy prend en charge le chiffrement SSL côté client comme côté serveur.

listen https_proxy bind :443 ssl crt /etc/haproxy/site.pem mode http server web1 10.0.0.1:443 ssl verify check server web2 10.0.0.2:443 ssl verify check

Il gère de nombreuses extensions au protocole TLS, telles que SNI, NPN/ALPN et OCSP, la validation des certificats côté serveur, les certificats clients.

bind 192.168.10.1:443 ssl crt ./server.pem ca-file ./ca.crt verify required Gestion étendue de l’IPv6 et des sockets UNIX

Il est désormais possible d’utiliser indifféremment l’IPv4, l’IPv6 ou encore les sockets UNIX, côté client comme côté serveur.

listen mysql_proxy bind /var/tmp/mysql.sock user mysql mode 666 mode tcp option mysql-check user haproxy post-41 server mysql 192.168.10.100:3306 check maxconn 200 server mysql_slave fe80:482:cafe::a200:e8ff:fe65:a:3306 check backup HTTP keep‐alive de bout en bout

Le keep‐alive consiste à faire passer successivement plusieurs requêtes HTTP dans la même requête TCP. En général, dans une architecture Web un peu complète, on dispose de plusieurs services ayant des rôles particuliers. Par exemple, un service d’authentification, un service pour les contenus dynamiques, un autre pour les ressources statiques, etc. HAProxy doit alors inspecter chaque requête pour déterminer vers quel service l’envoyer. Jusqu’à présent, le keep‐alive de bout en bout n’autorisait que l’inspection de la première requête. Et l’administrateur passait des heures à se demander pourquoi telle requête n’arrivait pas au bon endroit.

C’est pourquoi l’option http-server-close, permettant du keep‐alive côté client uniquement, était souvent utilisée.

Ce problème est désormais résolu.

Outre l’overhead réseau, le keep‐alive côté serveur est important car certains serveurs Web n’utilisent pas de chunk si celui‐ci est désactivé (ce problème est toutefois géré par l’option http-pretend-keepalive).

Compression des réponses HTTP

Il est désormais possible d’utiliser HAProxy pour la compression des réponses HTTP. Les algorithmes gzip et deflate sont pris en charge. Elle peut être activée globalement ou localement.

compression gzip compression type text/html text/plain

HAProxy gère toute une série de cas pour lesquels la compression n’est pas pertinente, notamment les réponses déjà compressées. Toutefois, il est possible, via l’option compression offload, de demander aux serveurs de ne jamais compresser. Dans ce cas, l’entête Accept-Encoding est réécrit à la volée.

Amélioration des ACL

Une conséquence directe de l’amélioration des possibilités de capture est qu’il est désormais possible de créer des listes de contrôle d’accès (ACL) sur l’ensemble des données capturables.

acl hello payload(0,6) -m bin 48656c6c6f0a

Il est également possible d’utiliser des variables :

http-request redirect code 301 location www.%[hdr(host)]%[req.uri] \ unless { hdr_beg(host) -i www } Les maps

On pouvait déjà passer à HAProxy un fichier contenant une série de valeurs (par exemple une liste d’IP à autoriser). Il est désormais possible d’utiliser des fichiers clés‐valeurs avec les mots clés map_*.

Par exemple, pour faire de la géolocalisation, il fallait jusqu’à présent écrire une série d’ACL :

acl src A1 -f A1.subnets acl src A2 -f A2.subnets acl src AD -f AD.subnets acl src AE -f AE.subnets acl src AF -f AF.subnets acl src AG -f AG.subnets acl src AI -f AI.subnets acl src AL -f AL.subnets acl src AM -f AM.subnets acl src AN -f AN.subnets

ACL pour lesquelles chaque fichier contenait l’ensemble des sous‐réseaux d’un pays. Désormais, il est possible de faire un seul fichier sous la forme range pays :

223.228.0.0/14 IN 223.232.0.0/13 IN 223.240.0.0/13 CN 223.248.0.0/14 CN 223.252.0.0/17 AU 223.252.128.0/19 CN 223.252.160.0/24 CN 223.252.161.0/26 CN 223.252.161.64/26 HK 223.252.161.128/25 CN 223.252.162.0/23 CN 223.252.164.0/22 CN 223.252.168.0/21 CN 223.252.176.0/20 CN 223.252.192.0/18 CN

Puis, il suffit d’écrire :

http-request set-header X-Country %[src,map_ip(geoip.lst)] Compteurs d’activité et tables

Il est désormais possible d’utiliser des tables pour comptabiliser l’activité d’un client pour des besoins aussi divers que de se souvenir d’une décision de routage ou bannir les indélicats.

Par exemple, pour éviter qu’un serveur se fasse bombarder de requêtes toujours identiques (brute force, spam) :

# Si on a une requête POST, on stocke dans la table un hash créé à partir de l'IP source et de l'url stick-table type binary len 20 size 5m expire 1h store http_req_rate(10s) tcp-request content track-sc1 base32+src if METH_POST # Si on a un ratio supérieur à 10 requêtes en 10 secondes alors on bannit le client acl bruteforce_detection sc1_http_req_rate gt 10 http-request deny if bruteforce_detection

Ces tables peuvent être contrôlées et vidées par le socket de contrôle :

echo show table |nc -U /tmp/haproxy.sock # table: monserveur, type: binary, size:5242880, used:468 echo show table monserveur |nc -U /tmp/haproxy.sock |tail 0x8019d9f4c: key=FD0D68C950F7E432000000000000000000000000 use=0 exp=2956851 http_req_rate(10000)=0 0x8017f8e0c: key=FD19C86D50F7E432000000000000000000000000 use=0 exp=2206531 http_req_rate(10000)=0 0x8019d970c: key=FE3651B30209AF8C000000000000000000000000 use=0 exp=820386 http_req_rate(10000)=0 0x801bcbccc: key=FE3651B356D4F7D1000000000000000000000000 use=0 exp=2985182 http_req_rate(10000)=0 0x8017fed4c: key=FE3651B35A08E3FA000000000000000000000000 use=0 exp=1701016 http_req_rate(10000)=0 0x801be15cc: key=FE3651B36DDCDC20000000000000000000000000 use=0 exp=363622 http_req_rate(10000)=0 0x801bfba8c: key=FE3651B3973CC657000000000000000000000000 use=0 exp=1302278 http_req_rate(10000)=0 0x8017f8ecc: key=FEE742DC8D6942B3000000000000000000000000 use=0 exp=693453 http_req_rate(10000)=0 0x801bdff4c: key=FEE742DC9200499B000000000000000000000000 use=0 exp=3415931 http_req_rate(10000)=0 echo clear table monserveur |nc -U /tmp/haproxy.sock echo show table |nc -U /tmp/haproxy.sock sock # table: monserveur, type: binary, size:5242880, used:1 Vérification de la santé des serveurs améliorée

Pour prendre des décisions de routage des requêtes, il est important de savoir quels serveurs sont en bonne santé. Outre les checks HTTP, largement paramétrables, HAProxy dispose en natif de tests de vie pour les protocoles mysql, pgsql, redis, ssl et smtp. Il est toutefois désormais possible d’écrire des tests de vie personnalisés. Voici un exemple utilisant php-fpm :

option tcp-check # FCGI_BEGIN_REQUEST tcp-check send-binary 01 # version tcp-check send-binary 01 # FCGI_BEGIN_REQUEST tcp-check send-binary 0001 # request id tcp-check send-binary 0008 # content length tcp-check send-binary 00 # padding length tcp-check send-binary 00 # tcp-check send-binary 0001 # FCGI responder tcp-check send-binary 0000 # flags tcp-check send-binary 0000 # tcp-check send-binary 0000 # # FCGI_PARAMS tcp-check send-binary 01 # version tcp-check send-binary 04 # FCGI_PARAMS tcp-check send-binary 0001 # request id tcp-check send-binary 0045 # content length tcp-check send-binary 03 # padding length: padding for content % 8 = 0 tcp-check send-binary 00 # tcp-check send-binary 0e03524551554553545f4d4554484f44474554 # REQUEST_METHOD = GET tcp-check send-binary 0b055343524950545f4e414d452f70696e67 # SCRIPT_NAME = /ping tcp-check send-binary 0f055343524950545f46494c454e414d452f70696e67 # SCRIPT_FILENAME = /ping tcp-check send-binary 040455534552524F4F54 # USER = ROOT tcp-check send-binary 000000 # padding # FCGI_PARAMS tcp-check send-binary 01 # version tcp-check send-binary 04 # FCGI_PARAMS tcp-check send-binary 0001 # request id tcp-check send-binary 0000 # content length tcp-check send-binary 00 # padding length: padding for content % 8 = 0 tcp-check send-binary 00 # tcp-check expect binary 706f6e67 # pong

Par ailleurs, les vérifications peuvent être déléguées à un agent externe. Cela permet de configurer dynamiquement le poids du serveur dans le pool.

L’agent doit retourner soit une valeur entre 0 % et 100 % représentant le poids relatif au poids initialement donné au serveur, soit un mot clé ready (prêt), drain (n’accepte plus de nouvelles connexions mais traite celles en cours), maint (passe en maintenance), down, up… Pour mettre cela en place, il faut utiliser le mot clé agent-check.

Typiquement, cela peut être un script lancé par inetd. Par exemple, pour adapter le poids du serveur en fonction de la charge :

#!/bin/sh SYSCTL="/sbin/sysctl -n" NCPU=$(${SYSCTL} hw.ncpu) LOAD=$(${SYSCTL} vm.loadavg | awk '{print $2}') LOAD=${LOAD%.*} if [ ${LOAD} -ge ${NCPU} ]; then PERCENT="100" else PERCENT=$((${LOAD}*100/${NCPU})) fi echo "$PERCENT%"

On paramètre ensuite inetd.conf de la façon suivante :

dec-notes stream tcp nowait nobody /usr/local/bin/agent-check

Enfin, la configuration pour HAProxy est :

server server1 192.168.64.50:3389 weight 100 check agent-check agent-port 3333 Version 2 du proxy protocol

Le proxy protocol est un protocole simple qui permet à l’adresse IP d’un client d’être conservée lorsqu’une requête passe de serveurs en serveurs. Si en HTTP, l’en‐tête X-Forwarded-For est largement utilisée à cette fin, il fallait un mécanisme plus universel, utilisable notamment en mode TCP. Initialement, ce protocole a été conçu pour utiliser HAProxy conjointement avec STunnel. Il est désormais pris en charge par Elastic Load Balancing, ExaProxy, Exim, Gunicorn, HAProxy, NGINX, Postfix, stud et stunnel.

La version 2 modifie profondément la nature du protocole, puisqu’on passe d’une version humainement lisible à une version binaire.

Par exemple, avec Postfix, il faudra dans HAProxy utiliser la configuration ci‐après :

mode tcp option smtpchk server postfix 127.0.0.1:10024 send-proxy check

Une configuration Postfix (master.cf) sera aussi nécessaire :

postscreen_upstream_proxy_protocol = haproxy Prise en charge de systemd

HAProxy ne peut pas recharger sa configuration. Pour le redémarrer, on doit tuer l’ancien processus et en lancer un nouveau. Toutefois, afin de ne pas fermer les sessions brutalement, il existe l’option -st qui permet au nouveau processus de remplacer l’ancien proprement.

Ce comportement ne convenant pas à systemd, qui ne sait pas remplacer un processus par un autre, l’option -Ds et le démon haproxy-systemd-wrapper permettent désormais de fonctionner avec ce système d’initialisation.

Nouveau cycle de développement

Willy Tarreau explique dans un long courriel ses plans pour les prochaines versions de HAProxy, ainsi que les leçons à tirer de la version 1.5, dont le développement a été particulièrement long.

Selon lui, il faut arrêter de promettre telle ou telle fonctionnalité pour telle version, et fonctionner en périodes, à la mode Linux. Ainsi le développement de la version 1.6 s’arrêtera en mars 2015, pour une sortie en mai ou juin de la même année.

Il indique toutefois les directions qu’il souhaite prendre :

  • multi‐processus : meilleure synchronisation des états et des vérifications. Vue l’arrivée de ces monstres de latence que sont SSL et la compression, une architecture gérant la concurrence serait sans doute bénéfique. Il est toutefois exclu d’ajouter des mutex partout dans le code.

    • reconfiguration à chaud : dans les environnements dynamiques, on est souvent contraint de relancer HAProxy. Même si de nombreuses possibilités sont désormais offertes par le socket de contrôle, il serait intéressant d’aller plus loin dans ce sens.
    • DNS : actuellement HAProxy ne résout les noms d’hôte qu’au démarrage. Il serait intéressant, en particulier pour les utilisateurs de EC2, que cela puisse être fait dynamiquement.
    • cache d’objets en mémoire : il ne s’agit pas de concurrencer Varnish, mais d’implémenter un petit cache afin de réduire le trafic entre HAProxy et les serveurs d’origine des objets. Plutôt un cache avec un ratio de hits de 50 % sans maintenance, qu’un cache efficace à 90 % mais demandant beaucoup d’attention.
    • amélioration de la réutilisation des connexions : dans certains cas, il est particulièrement intéressant de conserver les connexions réseau en vie, même si cela ouvre de nouvelles problématiques comme la supervision des connexions.
    • HTTP/2 : Willy Tarreau étant particulièrement investi dans le groupe de travail http-bis qui spécifie entre autres HTTP/2, c’est donc sans surprise qu’il place l’implémentation de cette nouvelle version du protocole en tête de ses priorités.
Exemple d’utilisation

Imaginons un site Web servi par un parc de serveurs sur lesquels nous voulons mettre en place de l’équilibrage de charge (load balancing) et de la tolérance de panne. Une bonne idée est alors de créer un cluster de HAProxy actif/actif avec au moins deux machines en utilisant le round‐robin DNS et un mécanisme de failover tel que CARP ou keepalived.

Nous allons commencer par une configuration basique à laquelle nous ajouterons peu à peu des fonctionnalités.

Paramètres globaux

On commence par définir quelques généralités comme les journaux (logs), le maximum de connexions, le comportement du démon.

global log /var/run/log local0 notice maxconn 4096 uid 99 gid 99 daemon chroot /var/empty Paramètres par défaut

On ajoute ensuite, une section par défaut qui contiendra l’ensemble des paramètres qui, s’ils ne sont pas surchargés, s’appliqueront à nos proxys/mandataires.

defaults # par défaut on logue avec ce qui est défini # dans la section globale log global # on peut définir très finement les différents timeout # le temps qu'une connexion client peut rester idle timeout client 40s # le temps entre une réponse et le début de la requête # suivante dans une connexion keepalive timeout http-keep-alive 30s # Le temps entre le début d'une requête et la fin des entêtes timeout http-request 10s # Workaround pour certains navigateurs # bogués avec le timeout http-request errorfile 408 /dev/null # Le temps durant lequel on attend une réponse du serveur timeout server 60s # Le temps qu'une connexion peut rester en attente # d'un slot disponible # timeout queue 1500 # le temps que met un client a établir une connexion tcp timeout connect 5s # Combien de fois on réessaye de se connecter à un serveur retries 3 # On redistribue les sessions en cas d'échec de # connexion avec un serveur option redispatch # Par défaut on fait du http mode http # Par défaut le mot check signifie check http option httpchk # On ajoute l'entête X-Forwarded-Forr option forwardfor # On utilise l'algorithme roundrobin balance roundrobin # On logue des sessions http option httplog # On ne logue pas les connexions sur lesquelles # il ne se passe rien option dontlognull # Aucun proxy ne pourra avoir plus de 2048 connexions ouvertes # Soit la moitié des connexions acceptables maxconn 2048 Le proxy/mandataire

On déclare ensuite notre proxy de la façon la plus simple possible, on ajoutera les fioritures après :

listen http_proxy bind :80 server web1 192.168.42.11:80 server web2 192.168.42.12:80 server web3 192.168.42.13:80

Il est nommé http_proxy, écoute sur le port 80. Il équilibre les connexions suivant l’algorithme round‐robin vers trois serveurs nommés web1, web2 et web3. D’autres algorithmes de répartition sont bien évidement disponibles :

  • static-rr est une variante de round‐robin sans limitation du nombre de serveurs (4 095 pour round‐robin), mais sans prise en compte du poids ;
  • leastconn, adapté aux sessions longues (LDAP, TSE…), c’est le serveur qui a le moins de connexions actives (pondéré par son poids) qui est choisi ;
  • first, le premier serveur est utilisé jusqu’à maxconn, puis on passe au suivant, ce qui est idéal pour pouvoir éteindre des serveurs aux heures creuses ;
  • d’autres algorithmes basés sur un hash de l’IP, l’URL, un paramètre de la requête, un en‐tête HTTP, ou le cookie RDP.

Le paramètre balance défini dans la section globale, pourrait être surchargé ici.

Savoir ce qu’il se passe

Il y a plusieurs défauts sur notre configuration :

  • les logs ne fonctionnent pas car HAProxy étant « chrooté », il ne peut pas accéder au socket UNIX ;
  • si un serveur Web tombe, HAProxy n’est pas au courant et nous non plus.

Concernant les logs, il suffit de modifier la section globale :

log localhost local0 notice

Il faudra ensuite configurer son serveur de log préféré pour pouvoir récupérer les logs en UDP sur l’interface loopback.

Pour vérifier l’état de santé des serveurs il suffit d’ajouter le mot clé check à la fin de la déclaration des serveurs :

server web1 192.168.42.11:80 check

Dans ce cas, HAProxy lancera une requête OPTIONS / sur le serveur toutes les 2 secondes. On peut chercher à faire plus fin, comme, par exemple, une requête vers une URL applicative se connectant à une base de données. En bref, ne pas vérifier simplement l’état de santé du serveur mais également celui de l’application. Dans ce cas, il faut compléter l’option httpchk :

listen http_proxy bind :80 option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com http-check expect string pong server web1 192.168.42.11:80 check inter 30s server web2 192.168.42.12:80 check inter 30s server web3 192.168.42.13:80 check inter 30s

Du coup, on va aller chercher sur chaque serveur l’URL /ping de l’hôte www.example.com toutes les 30 secondes et l’on attendra que le serveur nous réponde avec une page contenant le mot « pong ».

Nos serveurs sont donc bien surveillés par HAProxy, mais pour notre part — exception faite des logs — nous sommes aveugles. Pour remédier à cela, nous allons activer le socket de contrôle ainsi que l’interface d’administration. La première s’active dans la section globale :

stats socket /tmp/haproxy_prod_admin.sock user root group nagios mode 660 level admin

On peut ensuite l’utiliser avec un programme comme socat par exemple. Elle est également utilisée par des utilitaires comme HAtop ou l’excellente sonde Nagios de Polymorf :

socat /tmp/haproxy.sock readline prompt > help Unknown command. Please enter one of the following commands only : clear counters : clear max statistics counters (add 'all' for all counters) clear table : remove an entry from a table help : this message prompt : toggle interactive mode with prompt quit : disconnect show info : report information about the running process show stat : report counters for each proxy and server show errors : report last request and response errors for each proxy show sess [id] : report the list of current sessions or dump this session show table [id]: report table usage stats or dump this table's contents get weight : report a server's current weight set weight : change a server's weight set table [id] : update or create a table entry's data set timeout : change a timeout setting set maxconn : change a maxconn setting set rate-limit : change a rate limiting value disable : put a server or frontend in maintenance mode enable : re-enable a server or frontend which is in maintenance mode shutdown : kill a session or a frontend (eg:to release listening ports)

Quant à la seconde, elle s’active soit dans un proxy à part, soit dans un proxy existant. Celle‐ci donne l’état actuel des proxies, ainsi qu’un certain nombre de statistiques.

listen http_proxy bind :80 option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com http-check expect string pong server web1 192.168.42.11:80 check inter 30s server web2 192.168.42.12:80 check inter 30s server web3 192.168.42.13:80 check inter 30s stats enable stats uri /admin?stats stats realm Haproxy\ Statistics stats auth admin:s3cR3T

Routage plus complexe

Pour l’instant notre schéma de fonctionnement est très simple. S’il doit se complexifier, il deviendra utile de séparer les blocs listen en frontend et backend.

Cela nous donne :

frontend http_proxy bind :80 stats enable stats uri /haproxy stats realm Haproxy\ Statistics stats auth admin:s3cR3T default_backend web_servers backend web_servers option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com http-check expect string pong server web1 192.168.42.11:80 check inter 30s server web2 192.168.42.12:80 check inter 30s server web3 192.168.42.13:80 check inter 30s

Ainsi, si nous souhaitons offrir la possibilité d’utiliser le site en version HTTPS, il nous suffit d’ajouter un second frontal :

frontend https_proxy bind :443 ssl crt /etc/certificates/website.pem reqadd X-Forwarded-proto:\ https default_backend web_servers

Si derrière on utilise Apache, ajoutons dans sa configuration la ligne suivante :

SetEnvIfNoCase X-Forwarded-Proto HTTPS HTTPS=on

Cela permettra à nos utilisateurs de retrouver les bonnes variables d’environnement (en PHP par exemple : $_SERVER["HTTPS"]).

Si l’on veut reconnaître un utilisateur authentifié grâce au cookie MYSSO, il est alors facile de le rediriger systématiquement vers la version chiffrée du site :

frontend http_proxy bind :80 stats enable stats uri /haproxy stats realm Haproxy\ Statistics stats auth admin:s3cR3T acl is_logged cook MYSSO -m found redirect scheme https if is_logged default_backend web_servers

Bien évidemment, on peut souhaiter qu’ils s’identifient sur une page chiffrée, voire sur des serveurs séparés :

frontend http_proxy bind :80 stats enable stats uri /haproxy stats realm Haproxy\ Statistics stats auth admin:s3cR3T acl is_logged cook MYSSO -m found acl to_login url_beg /login redirect scheme https if is_logged or to_login default_backend web_servers

À noter que pour former la condition, le or doit être spécifié alors qu’un and aurait été implicite.

Enfin, nous voulons que l’accès aux statistiques et au backoffice du site soit sécurisé par une vérification du certificat client. Nous allons commencer par créer un back‐end particulier donnant accès au serveur de back office. Il contiendra en plus l’accès aux statistiques que nous supprimons du coup du front‐end public :

backend very_secure stats enable stats uri /haproxy stats realm Haproxy\ Statistics stats auth admin:s3cR3T server admin 192.168.9.42:80

Le front‐end public devient :

frontend http_proxy bind :80 acl is_logged cook MYSSO -m found acl to_login url_beg /login redirect scheme https if is_logged or to_login default_backend web_servers

Sur la partie HTTPS, nous allons donc vérifier la présence d’un certificat client et, s’il est présent et valable, donner l’accès au back office et aux statistiques HAProxy. Pour cela, il faut fournir à HAProxy l’autorité de certification (ca-file) et éventuellement une liste de révocation (crl-file) :

frontend https_proxy bind :443 ssl crt /etc/certificates/website.pem ca-file /etc/certificates/website.ca verify optional crl-file /etc/certificates/website.crl reqadd X-Forwarded-proto:\ https acl client_ok ssl_fc_has_crt acl want_admin if url_beg /admin acl want_admin if url_beg /haproxy use_backend very_secure if want_admin and client_ok default_backend web_servers

La négociation SSL échouera si le certificat présenté est invalide ou révoqué, mais pas s’il est absent (mot‐clé optional).

Coller au serveur et gérer les pannes

Pour diverses raisons, on peut vouloir que le client ne change pas de serveur durant la durée de sa session. La plus mauvaise de ces raisons est que les sessions applicatives ne sont pas partagées, la meilleure étant que cela permet d’effectuer des trucs sympathiques, comme des mises à jour applicatives sans interruption de service ou encore de faciliter le débogage.

La façon la plus simple de faire est d’insérer un cookie. Si celui‐ci est présent, HAProxy essayera d’utiliser le serveur visé :

backend web_servers option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com http-check expect string pong cookie SRV insert server web1 192.168.42.11:80 check inter 30s cookie web1 server web2 192.168.42.12:80 check inter 30s cookie web2 server web3 192.168.42.13:80 check inter 30s cookie web3

Ainsi, pour savoir sur quel serveur vous êtes, il suffit de regarder la valeur du cookie SRV.

C’est aussi le moment d’introduire la notion de poids. On peut en effet moduler l’importance de chaque serveur au sein du répartiteur de charge (load‐balancer) :

backend web_servers option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com http-check expect string pong cookie SRV insert server web1 192.168.42.11:80 check inter 30s cookie web1 weight 10 server web2 192.168.42.12:80 check inter 30s cookie web2 weight 10 server web3 192.168.42.13:80 check inter 30s cookie web3 weight 20

Le poids peut être piloté par le socket de contrôle. Par exemple, pour passer le poids du serveur web2 à zéro :

echo "set weight web_servers/web2 0" | nc -U /tmp/haproxy_prod_admin.sock

Un poids de 0 ne signifie pas que le serveur est tombé, mais qu’il n’accepte plus de nouvelle session (laissant ainsi finir tranquillement celles en cours).

On peut également spécifier un serveur de secours (backup) :

backend web_servers option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com option allbackup http-check expect string pong cookie SRV insert server web1 192.168.42.11:80 check inter 30s cookie web1 weight 10 server web2 192.168.42.12:80 check inter 30s cookie web2 weight 10 server web3 192.168.42.13:80 check inter 30s cookie web3 weight 20 server maintenance1 192.168.42.21:80 backup check inter 30s server maintenance2 192.168.42.22:80 backup check inter 30s

L’option allbackup spécifie que lorsque tous les serveurs sont tombés, tous les serveurs de secours (et pas seulement le premier disponible) doivent être utilisés.

Bien sûr, le backup est utile pour servir les pages de maintenance, mais également pour se replier en cas de problème logiciel. Ainsi, par exemple, si nous souhaitons utiliser Varnish pour servir les fichiers statiques, nous pouvons faire quelque chose comme :

acl url_static url_reg -i ^\/(.*)\.(js|jpg|JPG|jpeg|gif|png|ico|txt|css|pdf)(\?.*)? use_backend varnish if url_static

dans les front‐ends, puis :

backend varnish option httpchk GET /ping HTTP/1.1\r\nHost:\ www.example.com option allbackup http-check expect string pong server varnish 127.0.0.1:8080 check inter 30s server web1 192.168.42.11:80 check inter 30s backup server web2 192.168.42.12:80 check inter 30s backup server web3 192.168.42.13:80 check inter 30s backup

Ainsi, en cas d’indisponibilité du serveur Varnish, les fichiers sont servis par les serveurs principaux.

Et ainsi de suite

Lorsqu’on en prend l’habitude, HAProxy devient vite un outil indispensable. Il offre une telle souplesse, que ce soit en mode TCP ou HTTP, qu’il est difficile de rencontrer des situations pour lesquelles on ne puisse pas imaginer de solutions l’utilisant. D’autant plus qu’il excelle en termes de performance. Autrement dit : c’est bon, mangez‐en !

Télécharger ce contenu au format Epub

Lire les commentaires

Catégories: Nouvelles du Libre

Revue de presse de l'April pour la semaine 34 de l'année 2014

Linuxfr - lun, 25/08/2014 - 23:50

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

Sommaire

[Next INpact] Lois et numérique: une rentrée parlementaire 2014 encore chargée

Par Marc Rees, le jeudi 21 août 2014. Extrait:

La rentrée parlementaire concernant les textes liés aux nouvelles technologies sera aussi riche cette année qu’en 2013. Tour d’horizon des textes bientôt débattus dans l’hémicycle et ceux dont le sort reste encore bien vague.

Lien vers l'article original: http://www.nextinpact.com/news/89346-lois-et-numerique-rentree-parlementaire-2014-chargee.htm

[Numerama] HACIENDA: pourquoi votre ordinateur a peut-être été scanné par la NSA

Par Guillaume Champeau, le jeudi 21 août 2014. Extrait:

Appliquant à grande échelle les méthodes et outils de groupes de hackers criminels, la NSA et d'autres agences de renseignement alliées réalisent dans des dizaines de pays une cartographie complète des ordinateurs connectés à Internet, et de leurs vulnérabilités potentielles. Mais un remède a été mis au point.

Lien vers l'article original: http://www.numerama.com/magazine/30309-hacienda-pourquoi-votre-ordinateur-a-peut-etre-ete-scanne-par-la-nsa.html

Voir aussi:

[Silicon.fr] Desktop: Linus Torvalds espère toujours que Linux supplantera Windows

Par David Feugey, le jeudi 21 août 2014. Extrait:

«Je pense que nous y arriverons un jour», explique Linus Torvalds au sujet de Linux dans le monde desktop. Il lui faudra toutefois vaincre les réticences des constructeurs et des utilisateurs, accrochés à Windows ou OS X.

Lien vers l'article original: http://www.silicon.fr/linus-torvalds-linux-supplantera-windows-96210.html

[L'Humanité] La révolution numérique se fait aussi à la Fête de l‘Humanité

Par la rédaction, le mercredi 20 Août 2014. Extrait:

La Fête de l’Humanité va accueillir cette année un espace dédié au monde du Libre, aux Hackers et au Fablabs. Au programme, des débats, des démonstrations, et une conférence exceptionnelle de Richard Stallman, le père du logiciel libre.

Lien vers l'article original: http://www.humanite.fr/la-revolution-numerique-se-fait-aussi-la-fete-de-lhumanite-549497

[ActuaLitté.com] L'entrée du logiciel libre en bibliothèques se fait attendre

Par Antoine Oury, le mardi 19 août 2014. Extrait:

Dans nos sociétés modernes, les bibliothèques sont perçues comme des lieux de savoir, plus soustrait aux impératifs commerciaux que tout autre lieu de nos sociétés. Et pourtant, les professionnels de l'information sont soumis aux impératifs et exigences de sociétés privées, créateurs des logiciels utilisés pour faire fonctionner la bibliothèque. Des alternatives, libres, existent.

Lien vers l'article original: https://www.actualitte.com/bibliotheques/l-entree-du-logiciel-libre-en-bibliotheques-se-fait-attendre-52046.htm

[Silicon.fr] Logiciels libres: Munich va-t-il faire volte-face?

Par David Feugey, le mardi 19 août 2014. Extrait:

La nouvelle municipalité de la ville de Munich envisagerait de rebasculer ses postes de travail de LiMux et LibreOffice vers Windows et Microsoft Office.

Lien vers l'article original: http://www.silicon.fr/logiciels-libres-munich-va-t-il-faire-volte-face-96174.html

Et aussi:

[Libération.fr] Logiciels à l’ère libre

Par Erwan Cario, le dimanche 17 août 2014. Extrait:

Depuis les années 80, un système collaboratif permet à tous d’étudier, de modifier et de distribuer des programmes, parallèlement aux géants de l’informatique, dont les outils briment l’utilisateur.

Lien vers l'article original: http://www.liberation.fr/societe/2014/08/17/logiciels-a-l-ere-libre_1082175

Et aussi:

Télécharger ce contenu au format Epub

Lire les commentaires

Catégories: Nouvelles du Libre

EMC lance un nouveau « Tour de France »

Toolinux - lun, 25/08/2014 - 23:30

À l'occasion de l'EMC Tour organisé du 1er au 16 octobre 2014, EMC et ses sponsors ont choisi le thème de la transformation informatique dans un univers numérique en mutation.

- Evénements et séminaires
Catégories: Nouvelles du Libre

La rentrée de Prof Tux

Toolinux - lun, 25/08/2014 - 23:25

De nouveaux tutoriels sont arrivés sur la boutique en ligne de Prof Tux, ainsi qu'un guide pour débutants.

- Communauté
Catégories: Nouvelles du Libre

QNAP : nouveaux NAS équipés d'un processeur Celeron

Toolinux - lun, 25/08/2014 - 23:20

QNAP lance denouvelles gammes de Turbo NAS au format tour pour les petites et moyennes entreprises.

- Matériels
Catégories: Nouvelles du Libre

Citrix Receiver sur Chrome OS

Toolinux - lun, 25/08/2014 - 23:15

En dehors des étudiants, les entreprises sont une nouvelle cible de choix pour les Chromebook de Google. Citrix Receiver y aidera.

- Logiciels
Catégories: Nouvelles du Libre

Lancement de VMware vCloud Air Network

Toolinux - lun, 25/08/2014 - 23:00

Pour la rentrée, l'éditeur rebaptise VMware vCloud Hybrid Service, qui s'appellera désormais VMware vCloud Air.

- Services
Catégories: Nouvelles du Libre

Simpana : gestion automatisée des données cloud

Toolinux - lun, 25/08/2014 - 23:00

CommVault a ajouté des fonctionnalités pour Amazon Web Services et Microsoft Azure, qui incluent des solides rapports sur l'informatique cloud, ainsi qu'un approvisionnement, une récupération, des logiciels d'instantanés et une gestion des ressources des machines virtuelles en libre-service.

- Services
Catégories: Nouvelles du Libre

Kernel Recipes 2014

Linuxfr - lun, 25/08/2014 - 21:57

hupstream est fier de vous annoncer la 3e édition de Kernel Recipes, les 25 et 26 septembre 2014.

Cette nouvelle édition s’annonce pleine de promesses. Cette année nous vous proposons des conférenciers venus des États‐Unis, d’Europe et de France : Greg Kroah‐Hartman, Hans Peter Anvin, Jean Delvare, Willy Tarreau, Borislav Petkov, Martin Peres, Maxime Ripard, Julien Grall, Eric Leblond, Samir Bellabes et Hans Verkuil.

Nombre d’entre eux interviendront pour la première fois en France.

Kernel Recipes, c’est deux jours de conférences liées au noyau Linux. Les conférences sont proposées par les acteurs de kernel.org et couvrent des sujets aussi variés que la sécurité, comment contribuer, la pérennisation du projet, NUMA, ARM…

Cette année la conférence aura lieu dans les locaux de Mozilla, à Paris (un grand merci à eux !). Nous avons souhaité conserver une taille humaine à cette conférence, environ 90 places disponibles. Ce format vous permettra d’échanger facilement et de manière conviviale avec les autres participants et les conférenciers. Ces discussions pourront se prolonger pendant le déjeuner, voire le dîner qui sera organisé le 25 septembre (inscriptions à venir).

Vous pouvez également proposer un sujet et intervenir lors des sessions de « lightning talks ». Faites‐nous en part rapidement !

Pour vous inscrire, c’est très simple, il suffit de vous enregistrer. Attention comme mentionné ci‐dessus, le nombre de places est limité, merci de vous assurer de votre disponibilité avant de vous inscrire.

Un grand merci enfin à nos sponsors qui rendent également ces journées possibles : Gandi, HaProxy Technologies, Mozilla, Parrot, SUSE.

Télécharger ce contenu au format Epub

Lire les commentaires

Catégories: Nouvelles du Libre

Code Of War 2014

Linuxfr - lun, 25/08/2014 - 16:15

Code of War est un hackathon gratuit, ouverte à tous, et basé uniquement sur des technologies web open source. Deux dates sont prévues cette année, une à Paris et l'autre à Bordeaux. Chaque participant aura à programmer l'intelligence artificielle (IA) de son robot au travers d'une boîte à outils SDK disponible en Javascript, TypeScript, CoffeeScript, et Haxe. Les IA s'affronteront alors dans des batailles sans merci dont un seul sortira vainqueur.

Après l'espace, Code of War redescend sur terre, et plus précisément à Bordeaux avec son nouveau jeu Call of Stations. Celui-ci imagine que TBC, l'organisme en charge des transports en commun dans la communauté urbaine de Bordeaux, décide de lancer un appel d'offre. Il cherche l'entreprise qui s'occupera de la gestion des camionnettes chargées de réapprovisionner les stations de VCub. Ces camionnettes sont celles qui parcourent les stations pour réguler le nombre de vélos disponibles dans chacune d'elle. Elles vont donc prendre des vélos là où il y en a trop et inversement.

Il est possible de s'inscrire dès aujourd'hui et de développer son robot sur la plateforme en ligne, afin d'arriver lors du tournoi avec un robot prêt à remporter la victoire.

Elle est développée par l'équipe des TTFX en HTML5/JS, codée en Haxe et utilisant les bibliothèques CreateJS et NodeJS, exploite les web workers et met à l'honneur Open Data grâce au travail de Qucit.

Informations pratiques

Déroulement
10h à 10h30 : Présentation de l’événement et des équipes
10h30 à 13h00 : Coding Time : Analyse des concurrents et amélioration des robots
15h00 à 17h00 : Tournoi
17h00 à 18h00 : Remise des récompenses
Organisateur : TTFX
Lieu : Darwin à Bordeaux
Date et heure : 17 octobre 2014 à partir de 10h
Prix : Gratuit
Audience : Développeur, étudiant, joueur

Le lieu et la date de la session parisienne seront bientôt connus.

Plus d'info sur http://codeofwar.net/

Télécharger ce contenu au format Epub

Lire les commentaires

Catégories: Nouvelles du Libre

Du neuf pour la gamme Xen

Toolinux - dim, 24/08/2014 - 23:53

Citrix a dévoilé de nouvelles versions de XenApp et XenDesktop ainsi qu'un aperçu technologique de Linux Virtual Apps.

- Logiciels
Catégories: Nouvelles du Libre

Capitole du Libre du 14 au 16 novembre

Toolinux - dim, 24/08/2014 - 23:20

Cet événement autour du Logiciel Libre a lieu tous les ans fin novembre à l'ENSEEIHT (Toulouse). Il est gratuit et ouvert à tous.

- Evénements et séminaires
Catégories: Nouvelles du Libre

"Supervision & Métrologie Réseau, une combinaison parfaite" le 18 septembre à Lyon

Toolinux - dim, 24/08/2014 - 23:20

La division Network Management d'Ipswitch, SecurActive et Orsenna préparent plusieurs matinées de séminaires. Lyon est la prochaine étape en septembre.

- Evénements et séminaires
Catégories: Nouvelles du Libre

Le SDIS 59 a adopté LinShare, LinID et OBM

Toolinux - dim, 24/08/2014 - 23:15

Cet été, el plus grand service départemental d'incendie et de secours de France, le SDIS 59, a fait le choix de trois logiciels libres : OBM.org, LinShare.org, LinID.org et d'un logiciel libre de listes de diffusion, Sympa.

- Communiqué
Catégories: Nouvelles du Libre

Les étapes essentielles à la transition vers le cloud

Toolinux - dim, 24/08/2014 - 23:00

Xerfi, cabinet d'analyse, a récemment dévoilé ses chiffres du cloud computing en France. D'après leur dernier rapport, l'adoption de cloud va continuer son ascension, les prévisions indiquant que les spécialistes du cloud verront leur chiffre d'affaire croître de 20% en 2014 puis de 21% en 2015.

- Services
Catégories: Nouvelles du Libre

EnKoDeur-Mixeur (EKD) en version 3.1.4

Linuxfr - sam, 23/08/2014 - 18:20

Après deux ans pendant lesquels j’ai été éloigné du code, j’ai remis les mains dans le cambouis ! EKD, logiciel de post-production vidéo, image et fichiers audio, vient de sortir en version 3.14. Rien de révolutionnaire dans cette nouvelle mouture mais quelques améliorations :

  1. Des préréglages 4k et 2k ont été ajoutés pour le redimensionnement des vidéos
  2. La lecture et la sauvegarde des infos GPS (si les photos chargées en sont pourvues)
  3. Dans la version GNU/Linux, les dépendances FFmpeg et G’MIC sont intégrées en tant qu’applications portables et ne sont plus requises pour la construction des paquets (deb, rpm, …).

Pour faire avancer le projet, je cherche des développeurs Python qui voudraient intégrer le projet. Et aussi un empaqueteur RPM, un empaqueteur pour Archlinux (voir l'ancienne version ici) et des traducteurs.

Télécharger ce contenu au format Epub

Lire les commentaires

Catégories: Nouvelles du Libre

Les drones : le nouveau cauchemar des départements informatiques ?

Toolinux - ven, 22/08/2014 - 23:01

Les drones, également appelés UAV (Unmanned Aerial Vehicle), autrefois utilisés uniquement par les forces armées ou de sécurité, tendent à se populariser en France. Ainsi, après avoir prouvés leur utilité dans le domaine de l'agriculture, c'est maintenant au tour d'entreprises telles que la SNCF, France Télévisions, ou encore des sociétés de productions de progressivement les adopter. Preuve de cet attrait croissant : le pôle emploi et divers organismes proposent à présent des stages de formation au pilotage de drones.

- Revue de presse
Catégories: Nouvelles du Libre
Syndiquer le contenu