La Française des Jeux disposait sur son infrastructure DNS/DHCP
Transcription
La Française des Jeux disposait sur son infrastructure DNS/DHCP
Sécurisation et résilience des services DNS/DHCP Gestion de l’adressage IP automatisée Eric ARNOUX Responsable Réseaux & Télécoms FDJ [email protected] Sommaire La Française des Jeux Situation initiale Architecture DNS/DHCP Corporate Constat technique Projet & Etapes Choix technique Architecture Corporate Cible Architecture DMZ Cible Retour d’expérience Perspectives La Française des Jeux Opérateur de jeux de hasard payant Les chiffres clefs : 12 Milliard € CA en 2012 4 Milliard de transactions jeu / an 3ème loterie mondiale SI complètement géré en interne avec 2 salles de Datacenter installées sur le site de Vitrolles Criticité et performance des opérations (activité 24h/24) Situation initiale La Française des Jeux disposait sur son infrastructure DNS/DHCP interne d’une solution logicielle Vital QIP Entreprise server de chez Alcatel Lucent installée sur des serveurs Sun Solaris : De 3 serveurs physiques SUN Sparc et SUN ULTRA pour l’architecture interne (VitalQIP) De 2 serveurs physiques SUN Solaris pour le DNS externe en BIND 8.2 1 serveur Maître sur le site principal FDJ D’une synchronisation des zones réalisée via le mécanisme de maître/esclave de BIND (serveurs esclaves sur les autres sites) La plateforme fournissait les services DHCP et NTP à l’environnement de travail Le service DHCP était assuré par 3 serveurs ; le service DNS était assuré par 5 serveurs Le mécanisme de bail DHCP était sécurisé, pour les postes se connectant au réseau, par l’ association MAC/IP. Une configuration spécifique sur les commutateurs N2/N3 permettait de relayer les informations vers les serveurs DHCP correspondants (IP Helper) Chacun des 2 serveurs Solaris (serveur de temps) était raccordé à un récepteur GPS, pour fournir l’horloge, via une liaison série (RS232) Architecture situation initiale Constat Technique (en 2008) DNS Interne (VitalQIP) Modèle de licence (dépend du # d'adresses) – ne permettait pas la prise en compte de l’ensemble du parc d’adresses Solution logicielle sur serveurs + base de données (Sybase) multiples couches à gérer (systèmes, serveurs, base de données) Mise à jour QIP complexe et risquée Pérennité solution QIP ? hors cœur de métier Alcatel Lucent Mise en œuvre de la résilience des services complexe Sûreté de fonctionnement, sauvegarde, traçabilité modifications au niveau : système Solaris, applicatif QIP, Base de données Sybase… 2 gestions : 1 fichier Excel du plan d’adressage, l’application QIP DNS/DHCP : décorélation progressive Aucun outil central et complet d’exploitation et d’administration : gestion de fichiers de configuration et nécessité de scripter Difficulté de déléguer les accès DNS Externe Risque de sécurité lié à l’exposition sur l’internet Points communs Abandon Solaris (cf. strategie société) Coûts Exploitation/Maintenance SUN, Exploitation complexe Environnement géré par les équipes systèmes et sécurités Redondance complexe (cluster Solaris) Gestion manuelle des configurations : scripts, fichiers texte - risque d'erreurs Gestion et application des patches Bind / dépendance système Besoin NTP Projet & étapes Décision en 2008 de faire évoluer l’infrastructure Objectifs Etude de marché Réalisation d’une shortlist constructeurs: • Efficient IP • Infoblox • … Conception de la solution avec prise en compte des contraintes réseaux, système et sécurité Une solution centralisée Un mode Appliance DNS / DHCP / NTP, gestion du plan d’adressage Outil de gestion centralisée Exploitation simplifiée Délégation des environnements (Bureautique, système, réseau) Ratio : Coût / (Performance, Sécurité) Haute disponibilité Administration centralisée et granulaire Logs et Troubleshoot rapide Mise à niveau simplifiée Localisation des équipements sur site (autonomie des sites) Réalisation d’un POC (Proof of concept) Evaluation des fonctionnalités disponibles Simplicité de la migration des données (quelques outils) Simplicité de mise en œuvre Choix technique : Pourquoi INFOBLOX ? Principes d’architectures : 1 Cluster par site Gestion centralisée Etanchéité environnement interne / externe (2 Grid ≠) Standardisation du déploiement en mode cluster « Haute disponibilité » Disponibilité locale des services au niveau des sites • Chaque poste de travail dispose du DNS primaire de son site de rattachement • Réduction des requêtes sur le WAN Double alimentation sur les sites critiques Points différentiateurs Véritable Appliance dédiée OS durci (système d’exploitation NIOS) et absence d'accès root (versus autres solutions testées) Granularité - délégation d'administration pour les équipes techniques en charge Traçabilité des actions Haute disponibilité au niveau réseau Simplification de la mise en œuvre - transparente pour l'ensemble des services portés par l'Appliance (DNS, DHCP, NTP en stratum1) - intégrée Points additionnels : support SNMP complet et détaillé, API documentée et supportée Sauvegarde et restauration "one-click" (Depuis la version v5) Processus de mise à jour simple, unifié ("one button") Vérification de la cohérence et de la consistance des données : interface graphique, API Mécanisme de vérification unicité des adresses IP, des noms DNS… Organisation du support : 24/7/365 Maturité / Pérennité / Taille de la société Architecture interne actuelle IB 1552 IB 550 Architecture externe actuelle Hébergeur serveurs secondaires IB 1552 Retour d’expérience Les aspects techniques Migration DNS/DHCP/NTP/IPAM (charge : 60 j.h, délai : 4 mois fin de VSR) Cinq étapes : Etude existant, Etude migration, Etude/réalisation interne, Etude/réalisation Externe, Formation-transfert de compétences. Etudes incluant : dossier d’architecture et de spécifications, maquettages, tests fonctionnels, de performance et sécurité (dont tests de résilience) Réalisations en HNO et en minimisant la coupure de service Forte stabilité de la plateforme (faible nombre d’incident) Aucun incident de saturation à ce jour (sauf une fois!) Un bagot HA lié à une perte de lien inter-membres Simplicité des opérations de gestion et d’administration Création de sous-réseau Réservation adresse IP Dashboard complet permettant une vision globale de la plateforme Réduction des risques d'erreurs Arrêt du process « Excel » Délégation granulaire Chaque utilisateur dispose d’un compte propre permettant de tracer ses actions et d’assurer un suivi Mises à jour sur vulnérabilités simples, avec sécurité du retour arrière Retour d’expérience (suite) Intervention simplifiée à l’aide des clusters sur chacun des sites Performances au RDV : Grid interne : gestion de plusieurs milliers de Lans, de postes utilisateurs et de serveurs en DNS/DHCP/NTP/IPAM Grid externe : gestion de 1500 zones dns sur l’internet Actes techniques d’administration, supervision et sauvegarde quotidiens réalisés avec succès La relation Infoblox Un support de qualité et disponible Un accompagnement en formation et transferts de compétences efficace Des aspects économiques corrects! Une présence permanente via les clubs utilisateurs, newsletters d’informations, events, formations gratuites… Evolutions prévues en 2013 Augmentation des capacités des grid interne et externe - nouvelles plateformes TRINZIC DDI (DNS, DHCP, IPAM) Passage en NIOS version 6 Evolution de l’architecture du grid interne par ajout d’un membre sur le site de PRA (Marseille) Intégration du module de reporting pour améliorer l’ exploitation Extension du service DNS dans les Zones DMZ sécurisées (jeux) par ajout d’un cluster Possibilité d’activer le DNSSEC a terme ? IPV6 ? Questions ? Merci de votre attention