• Data
  • show/hide menu
  • Data
  • Data Dossiers

    Manageabilité, ouverture et irrigation : les nouveaux défis du datacenter

    0

    Le cloud et la virtualisation sont deux technologies qui modifient en profondeur l’aspect et la performance du centre de données. Deux tendances de fond qui, avec un débit interne et externe en croissance, révolutionnent les usages de la DSI.

    Qu’il soit dans une salle dédiée sur un site industriel, piloté à distance chez un infogéreur, ou dans une seule baie à l’arrière d’un open space, le centre de données de toutes les entreprises évolue sous l’impact de nouvelles technologies qui proposent une rationalisation des coûts et des moyens. Mais qui prennent aussi en compte la croissance naturelle des volumes de données gérés dans les entreprises.

    Judicieusement mises en oeuvre, ces technologies promettent manageabilité, ouverture et irrigation du centre nerveux de l’IT de l’entreprise.

    Un data center de plus en plus manageable

    Différentes générations de serveurs physiques hébergeant des applications parfois ancestrales (mais toujours efficaces), différentes instances de stockage (disque, cartouche, bande) correspondant à des stratégies de sauvegarde et d’archivage ; réplication sur site distant des données ; le centre de données présente avec le temps une hétérogénéité matérielle et logicielle qu’il est nécessaire de prendre en compte pour rester performant.

    La virtualisation des OS serveurs et des instances de stockage permet de rationaliser la puissance et le volume de stockage de l’ensemble des outils du datacenter. Mais surtout, il est désormais possible de positionner au-dessus des outils virtualisés et des outils physiques une couche de gestion globale.

    Elle permet de gérer et superviser depuis une seule plateforme les applications et le stockage de l’ensemble du centre de données, faisant fi de l’hétérogénéité logicielle et matérielle.

    Équipé de cet outil, le datacenter devient véritablement un cloud privé, avec toute la souplesse de gestion promise. Une tendance à la hausse puisque déjà en 2010, une étude Cisco avertissait qu’un tiers des professionnels de l’IT déclaraient que plus de 50% des données et des applications de leur entreprise seraient hébergées dans des clouds privés d’ici à 2013.

    Un datacenter de plus en plus ouvert

    Mais quid de la souplesse en matière de puissance et de volume de stockage ? Une nouvelle application, une nouvelle base client, une opération de marketing en ligne, etc. L’installation d’une nouvelle machine dans le datacenter va vite devenir nécessaire.

    À moins de profiter des possibilités offertes par le cloud computing, soit la connexion à la demande de nouvelles ressources, depuis un prestataire spécialisé (Microsoft, Amazon ou encore Google pour ne citer que les plus gros) ou un infogéreur qui dispose de sa propre infrastructure.

    Cisco prédisait en 2010 que 85% des professionnels IT français envisageaient de mettre une partie des données et des applications de leur entreprise dans un cloud public ou privé d’ici 2013. « L’avenir du Cloud est nécessairement hybride » insiste Jérôme Trédan, directeur des produits serveurs et plateformes de cloud computing de Microsoft France. Et pour se faire, les technologies des différents prestataires se doivent d’assurer l’interopérabilité des différents systèmes. Au client de s’assurer de ce fait avant de s’engager.

    D’ou une tendance de plus en plus nette dans les DSI à la montée en compétence sur la négociation des contrats avec les prestataires. Le coût du Go stocké et transmis devient non seulement un critère d’optimisation de son propre centre de données, mais aussi un indicateur du prix des contrats passés avec des opérateurs de cloud, tout en prenant garde aux SLA qui garantissent eux la qualité de la prestation.

    Un datacenter de plus en plus irrigué

    Enfin, il faut noter que le prix de cette ouverture se remarque également au niveau des réseaux qui connectent les centres de données. La croissance du volume de données qui transitent entre les clients et les datacenters et entre les datacenters, explose véritablement.

    Déjà en 2009, une étude IBM précisait que 40% des entreprises souhaitaient investir dans des solutions réseaux pour accéder à des environnements cloud. Fibre optique et utilisation de réseaux redondants d’opérateurs de télécommunication sont en passe de devenir la norme industrielle en la matière, et le positionnement géographique d’un nouveau centre de données doit prendre en compte la proximité de ces autoroutes numériques.

    Mais c’est aussi dans le datacenter que les débits gagnent en volume. Au cœur du serveur, mais aussi entre celui-ci et les instances de stockage, de nouveaux protocoles de communication, comme le FcoE (Fibre Channel over Ethernet), sont en passe de remplacer les protocoles actuels.

    Le point de vue de Microsoft : utilisés avec le niveau d’expertise requis, virtualisation, cloud computing et gestion des réseaux peuvent permettre d’accroître l’efficacité des datacenters. En savoir plus sur les outils Microsoft de gestion des centres de données.

    articles liés

    4 priorités pour un datacenter moderne

    4 priorités pour un datacenter moderne

    Gestion des données: innovations en matière de PRA/PCA

    Gestion des données: innovations en matière de PRA/PCA

    Comment faire face à l'explosion du volume de données? [infographie]

    Comment faire face à l'explosion du volume de données? [infographie]