Passer commande via notre portail client

Partager cet article ...Print this pageEmail this to someoneTweet about this on TwitterShare on FacebookShare on Google+Share on LinkedInPin on PinterestShare on TumblrDigg this
Optimiser la montée en charge de serveurs Web
MOE / LI-APP-071
OBJECTIFS PEDAGOGIQUES
Cette formation vous permettra de mettre en pratique différentes solutions logicielles libres afin d’optimiser la montée en charge de vos serveurs face à la croissance exponentielle du trafic sur le Web. Vous testerez leur capacité et interpréterez les résultats afin de valider vos choix de configuration.

PUBLIC
Administrateur de serveur web ou architecte technique ayant à concevoir et mettre en oeuvre une plate-forme répondant à de fortes contraintes de montée en charge.
PRE-REQUIS
Maîtriser l’utilisation de Linux et les bases de l’administration système et d’un serveur HTTP.

CONTENU

Introduction
- Rappel sur le traitement des requêtes HTTP, requête persistante, session.
- De la question DNS au serveur d’application.
- Rôle des composants situés en amont des serveurs.
- High-Availability, Load Balancing et Failover…
Tester la montée en charge
- Stress-test de serveurs et attaque DOS.
- Test de charge et scénarios de montée en charge : JMeter, OpenSTA.
- Observation du système pendant un stress-test.
Le DNS et la répartition de charge
- La répartition de charge au niveau DNS.
- Problématiques des caches en cas de panne.
- Tests de vie et mise à jour dynamique.
Frontal, proxy et reverse proxy
- Rôle et intérêt du proxy-cache.
- Reverse proxy et impact sur les serveurs d’application.
- Squid : configuration du cache et proxy transparent.
Répartition de charge avec LVS
- LVS : Linux Virtual Server.
- Configuration de LVS en amont de serveurs Web.
- Modes et algorithmes de répartition de charge.
- Gestion des pannes et tests de vie.
Répartition de charge avec HAProxy
- Fonctionnalités de HAProxy.
- Installation et mode de lancement.
- Le fichier de configuration et les options générales.
- L’interface graphique et les statistiques.
Nginx : serveur HTTP, proxy ou Load Balancer ?
- Mécanismes de proxy et répartition de charge.
- Filtrage d’URL et redirections.
- Configurer Nginx en Load Balancer.
Gérer la charge d’Apache et d’autres serveurs
- Les clients, les processus et la mémoire.
- Paramètres de tuning des MPM Prefork/Worker.
- Servir les contenus statiques via un frontal léger.
- Tuning d’un serveur d’application comme Tomcat.

SESSIONS PROGRAMMEES

 

Accès au calendrier

VALIDATION

Evaluation en fin de session

PEDAGOGIE
Alternance d’exposés et de travaux pratiques
INTERVENANTS
Spécialiste Serveur Web / Serveur d’applications

MODALITES PRATIQUES
Durée : 3 jours soit 21 heures avec 7 heures par jour
Prix stagiaire : 1 659,00 € TTC
Horaires : 9h – 17h30

Durée: