Chapitre 05
Déploiement d’HPE IMC sur le parc institutionnel
Projet d’envergure pour administrer et superviser le parc HPE après migration : étude fonctionnelle et budget, plateforme de test Windows Server + MySQL, intégration SNMPv3, arbitrage supervision vs LibreNMS, résolution d’incidents, scan sécurité, validation direction, commande de licences (marché SPIE), architecture prod (Windows 2019 + MariaDB Linux), go-live et formation des équipes.
1. Étude du logiciel et projection budgétaire
Après le renouvellement du parc HPE, l’équipe réseau a étudié IMC (Intelligent Management Center) comme levier pour administrer et superviser l’ensemble des nouveaux switchs. Les fonctionnalités attendues couvraient la découverte automatique des équipements, la supervision des performances, la gestion centralisée des configurations (sauvegardes, déploiements de paramètres sur plusieurs matériels) et une vision topologique du réseau. Sur un parc étendu et multi-sites, ces capacités réduisent fortement la dispersion des outils et des manipulations manuelles.
L’étude a confirmé l’intérêt d’une solution native HPE pour coller au matériel fraîchement déployé. En parallèle, j’ai travaillé sur le modèle de licences : nombre de nœuds gérés, modules éventuels, projection sur le parc institutionnel (et au-delà). Cette estimation alimentait une proposition budgétaire pour la collectivité — étape indispensable avant tout déploiement massif.
Le dossier professionnel souligne une leçon structurante : avant la mise en œuvre technique, une phase de préparation solide est nécessaire — analyse des besoins, estimation des coûts, étude des alternatives — notamment dans un contexte de marchés publics et de contraintes budgétaires.
2. Déploiement en laboratoire
Nous avons déployé IMC sur un serveur Windows Server avec une base MySQL locale, en utilisant des licences d’évaluation Hewlett Packard Enterprise — limitées à quelques dizaines d’équipements, suffisant pour simuler une partie du parc et observer le comportement réel de la plateforme. Avant l’installation, j’ai effectué les démarches auprès de l’équipe infrastructure : création de la machine, adressage, ouverture des flux vers les switchs à piloter, règles de sécurité associées.
Une fois le serveur intégré au réseau interne, installation du logiciel, activation des licences de test, ajout de premiers équipements réels : découverte automatique, remontée de supervision, premiers scénarios d’administration. Travailler contre le réseau « vrai » rend les tests beaucoup plus représentatifs qu’une maquette isolée.
3. SNMPv3 et droits d’écriture
Les équipements ont été intégrés via SNMPv3 : le protocole permet à la fois de superviser (interfaces, charge, erreurs…) et, lorsque la politique de sécurité le valide, d’agir à distance depuis IMC (modifications de configuration, déploiements de paramètres). Nous avons mis en place des profils SNMP avec droits de lecture et d’écriture distincts, pour séparer ce qui relève du simple monitoring des opérations sensibles.
Côté principes, IMC joue le rôle de gestionnaire SNMP : il interroge les agents embarqués dans les switchs via les MIB (trafic, état des interfaces, compteurs d’erreurs, etc.). SNMPv3 garantit des échanges authentifiés et chiffrés ; la plateforme applique ensuite le contrôle d’accès (qui peut voir quoi, qui peut pousser quelles modifications). C’est une brique puissante, donc à manier avec discipline (ACL sources, comptes dédiés, traçabilité).
4. Campagne de tests et arbitrage avec LibreNMS
Les tests ont mesuré la charge CPU/RAM du serveur et la pertinence des sondes. Certaines sondes doublonnaient des indicateurs déjà couverts par LibreNMS ; nous les avons désactivées pour éviter redondance et surcharge.
Décision : orienter IMC principalement vers l’administration centralisée (changements de config, mises à jour firmware contrôlées) et conserver LibreNMS comme référence confortable pour une partie du monitoring temps réel.
Tests fonctionnels : déploiement de mises à jour firmware, création et push d’ACL, configuration de VLAN, modification de paramètres de ports, renommage d’équipements, désactivation de ports inutilisés.
5. Identification et correction de problèmes
Exemples rencontrés : firmware refusé sur certains modèles tant que le sous-système DOM n’était pas mis à niveau ; dashboards IMC ne se sauvegardant pas (correctif côté base MySQL après échange avec le support HPE) ; consommation mémoire élevée atténuée par désactivation de modules inutiles.
6. Scan de sécurité complémentaire
Collaboration avec l’équipe sécurité : analyse des ports, services et chiffrements. Deux points ont été corrigés avant industrialisation : TLS obsolète et problème de stockage de données sensibles.
7. Présentation à la direction DNSI
Une fois les tests majeurs terminés et les principaux dysfonctionnements corrigés, j’ai participé à la présentation de l’environnement de test à la direction de la DNSI. L’objectif était de démontrer concrètement le fonctionnement d’IMC, son apport pour l’administration du nouveau parc HPE et la qualité des résultats obtenus (stabilité, consommation serveur, optimisations réalisées).
Les démonstrations ont porté sur des actions représentatives du quotidien : création de VLAN, déploiement d’ACL, modification de paramètres de ports, gestion des configurations, vision des liens et de la supervision. La direction disposait ainsi d’une vision claire des bénéfices et des limites avant d’engager un budget licence important.
À l’issue, le projet a reçu une validation formelle, ouvrant la phase d’achat et le déploiement à plus grande échelle — y compris, selon le périmètre décrit dans le dossier professionnel, sur les infrastructures réseau des lycées relevant de la Région.
8. Achat des licences et marché SPIE
Après validation, l’acquisition des licences nécessaires à la mise en production s’est faite dans le cadre du marché existant avec SPIE. Les demandes internes sont passées par les circuits habituels de la collectivité (dont le Bau de Soie / BPU pour les commandes informatiques), avec transmission des informations précises : volume de licences, périmètre institutionnel vs lycées, modalités de livraison des clés d’activation.
Le dossier professionnel mentionne un ordre de grandeur d’environ 80 000 € pour le projet global, avec une répartition indicative entre licences pour le réseau institutionnel et licences pour le parc des lycées, ce qui illustre l’ampleur de l’investissement pour l’exploitation. Les licences ont été réceptionnées dans un délai d’environ deux semaines après la commande, ce qui a permis d’enchaîner sur l’installation en production.
9. Architecture de production
Après réception des licences, j’ai préparé un dossier technique pour la création des serveurs de production : besoins CPU/RAM/disque, flux réseau, séparation des rôles, conformité aux standards internes. L’architecture retenue repose sur Windows Server 2019 pour héberger l’application IMC et un serveur Linux avec MariaDB pour la base de données — ce découplage améliore performances, sauvegardes et évolutions futures.
L’installation a repris les enseignements du lab : correctifs déjà identifiés (TLS, durcissement, paramètres MySQL/MariaDB), modules désactivés pour limiter la consommation mémoire, stratégie de sondes alignée sur l’usage réel (administration centralisée plutôt que doublon pur avec LibreNMS sur certains indicateurs).
10. Go-live et transfert de compétences
Une fois la plateforme installée en production, phase de vérification complète : découverte des équipements, SNMPv3, profils d’écriture pour les opérations d’administration, supervision des interfaces et des VLAN, tâches automatiques sur la base. Tous les ajustements identifiés pendant les tests ont été réappliqués pour garantir stabilité et performances.
J’ai ensuite présenté la solution aux équipes réseau et système : navigation dans les écrans, scénarios courants (VLAN, ACL, ports, déploiements de configuration), bonnes pratiques pour éviter la surcharge du serveur ou les opérations de masse risquées, organisation des tableaux de bord. L’objectif était à la fois de transférer les compétences et de formaliser des usages partagés, pour que l’outil reste maîtrisé après la phase de mise en service.
11. Bilan
Le déploiement d’IMC a été l’aboutissement d’un projet de bout en bout : étude et chiffrage, installation en lab sur licences d’évaluation, intégration SNMPv3 avec droits adaptés, batterie de tests et arbitrages avec les outils existants, chasse aux bugs (firmware/DOM, sauvegardes de dashboards, consommation mémoire), scan de sécurité avec l’équipe dédiée, présentation direction, commande de licences via le marché SPIE, montée en production sur architecture Windows + MariaDB, puis transfert de compétences aux équipes.
Personnellement, j’y retiens surtout l’articulation entre compétences techniques et démarches organisationnelles : on ne « installe pas un logiciel », on intègre un service dans un SI régional avec ses procédures, ses risques et ses utilisateurs internes. C’est une expérience formatrice sur ce que signifie piloter un outil d’administration centralisée sur un très grand nombre de nœuds.