Définition Data Center
Un data center (ou centre de données) est une installation composée d’ordinateurs et de stockage en réseau que les entreprises et autres organisations utilisent pour organiser, traiter, stocker et diffuser de grandes quantités de données. En général, une entreprise dépend fortement des applications, des services et des données contenus dans un data center, ce qui en fait un point central et un atout essentiel pour les opérations quotidiennes.
Comment fonctionnent les data centers
Les data centers ne sont pas une chose unique, mais plutôt un conglomérat d’éléments. Au minimum, les data centers servent de dépôts principaux pour toutes sortes d’équipements informatiques, y compris les serveurs, les sous-systèmes de stockage, les commutateurs de réseau, les routeurs et les pare-feu, ainsi que le câblage et les racks physiques utilisés pour organiser et interconnecter les équipements informatiques. Un data center doit également contenir une infrastructure adéquate, telle que des sous-systèmes de distribution d’énergie et d’alimentation supplémentaire. Cela comprend également la commutation électrique, les alimentations électriques ininterrompues, les générateurs de secours, les systèmes de ventilation et de refroidissement des centres de données, tels que les configurations de refroidissement en rangée et les climatiseurs des salles informatiques, ainsi qu’un approvisionnement adéquat pour la connectivité des opérateurs de réseau (telco). Tout cela exige une installation physique avec une sécurité physique et une superficie suffisante pour abriter l’ensemble des infrastructures et des équipements.
Qu’est-ce que la consolidation des centres de données ?
Il n’est pas nécessaire d’avoir un seul centre de données, et les entreprises modernes peuvent utiliser deux ou plusieurs installations de centres de données sur plusieurs sites pour une plus grande résilience et une meilleure performance des applications, ce qui réduit la latence en localisant les charges de travail plus près des utilisateurs.
À l’inverse, une entreprise disposant de plusieurs data centers peut opter pour la consolidation des data centers, réduisant ainsi le nombre d’emplacements afin de minimiser les coûts des opérations informatiques. La consolidation intervient généralement lors de fusions et d’acquisitions, lorsque l’entreprise majoritaire n’a pas besoin des data centers appartenant à l’entreprise subordonnée.
Qu’est-ce que la colocation de centres de données ?
Les opérateurs de centres de données peuvent également payer une redevance pour louer un espace de serveur dans un centre de colocation. La colocation est une option intéressante pour les entreprises qui souhaitent éviter les dépenses d’investissement importantes liées à la construction et à la maintenance de leurs propres data centers. Aujourd’hui, les fournisseurs de colocalisation élargissent leur offre pour inclure des services gérés, comme l’interconnectivité, permettant aux clients de se connecter au Cloud public.
Comme de nombreux fournisseurs proposent aujourd’hui des services gérés en même temps que leurs installations de colocalisation, la définition des services gérés devient floue, car tous les fournisseurs commercialisent le terme d’une manière légèrement différente. La distinction importante à faire est la suivante :
Colocalisation – L’organisation paie un fournisseur pour qu’il héberge son matériel dans un établissement. Le client paie uniquement l’espace.
Services gérés — L’organisation paie un fournisseur pour qu’il assure activement la maintenance ou la surveillance du matériel d’une manière ou d’une autre, que ce soit par des rapports de performance, l’interconnectivité, le support technique ou la reprise après sinistre.
Niveaux de data center
Les data centers ne sont pas définis par leur taille ou leur style. Les petites entreprises peuvent fonctionner avec succès avec plusieurs serveurs et matrices de stockage en réseau dans un placard ou une petite pièce, tandis que les grandes entreprises informatiques, telles que Facebook, Amazon ou Google, peuvent remplir un énorme espace d’entrepôt avec des équipements et une infrastructure de data center. Dans d’autres cas, les data centers peuvent être assemblés dans des installations mobiles, comme des conteneurs d’expédition, également appelés « data centers in a box », qui peuvent être déplacés et déployés selon les besoins.
Au sein de l’industrie islandaise des data centers
L’abondance de l’énergie verte en Islande attire les centres de données internationaux, ce qui incite les universités, les entreprises et les gouvernements à développer une industrie des centres de données sur l’île.
Jouer à
Mute
Image dans l’image
Plein écran
L’Islande encourage l’industrie des data centers avec une énergie verte à faible coût.
Cependant, les centres de données peuvent être définis par différents niveaux de fiabilité ou de résilience, parfois appelés niveaux de centre de données. En 2005, l’American National Standards Institute (ANSI) et la Telecommunications Industry Association (TIA) ont publié la norme ANSI/TIA-942, « Telecommunications Infrastructure Standard for Data Centers », qui définit quatre niveaux de conception des centres de données et des directives de mise en œuvre. Chaque niveau suivant est destiné à fournir plus de résilience, de sécurité et de fiabilité que le niveau précédent. Par exemple, un data center de niveau 1 n’est guère plus qu’une salle de serveurs, tandis qu’un data center de niveau 4 offre des sous-systèmes redondants et une sécurité élevée.
Architecture et conception des data centers
Bien qu’il soit concevable que presque tous les espaces appropriés puissent servir de « data center », la conception et la mise en place d’un data center exigent une réflexion approfondie. Au-delà des questions fondamentales de coût et de taxes, les sites sont sélectionnés en fonction d’une multitude de critères, tels que la situation géographique, la stabilité sismique et météorologique, l’accès aux routes et aux aéroports, la disponibilité de l’énergie et des télécommunications et même l’environnement politique en vigueur.
Une fois qu’un site est sécurisé, l’architecture du data center peut être conçue en prêtant attention à l’infrastructure mécanique et électrique, ainsi qu’à la composition et à la disposition des équipements informatiques. Toutes ces questions sont guidées par les objectifs de disponibilité et d’efficacité du niveau de centre de données souhaité.
Consommation d’énergie et efficacité
La conception des data centers reconnaît également l’importance de l’efficacité énergétique. Un simple centre de données peut ne nécessiter que quelques kilowatts d’énergie, mais une installation de centre de données à l’échelle de l’entreprise peut demander des dizaines de mégawatts ou plus. Aujourd’hui, le data center écologique, qui est conçu pour avoir un impact minimal sur l’environnement grâce à l’utilisation de matériaux de construction à faible émission, de convertisseurs catalytiques et de technologies énergétiques alternatives, est de plus en plus populaire.
Les data centers peuvent également maximiser l’efficacité grâce à leur disposition physique en utilisant une méthode connue sous le nom de disposition allée chaude/allée froide. Les baies de serveurs sont alignées en rangées alternées, les entrées d’air froid étant orientées dans un sens et les sorties d’air chaud dans l’autre. Le résultat est une alternance d’allées chaudes et froides, les sorties créant une allée chaude et les entrées une allée froide. Les sorties sont dirigées vers l’équipement de climatisation. L’équipement est souvent placé entre les armoires de serveurs dans la rangée ou l’allée et distribue l’air froid vers l’allée froide. Cette configuration de l’équipement de climatisation est connue sous le nom de refroidissement en rangée.
Les organisations mesurent souvent l’efficacité énergétique des centres de données à l’aide d’une mesure appelée efficacité de l’utilisation de la puissance (EUE), qui représente le rapport entre la puissance totale entrant dans le centre de données et la puissance utilisée par les équipements informatiques. Cependant, l’essor de la virtualisation a permis une utilisation beaucoup plus productive des équipements informatiques, ce qui a entraîné une efficacité beaucoup plus élevée, une consommation d’énergie plus faible et une réduction des coûts énergétiques. Les mesures telles que le PUE ne sont plus essentielles aux objectifs d’efficacité énergétique, mais les organisations peuvent toujours mesurer le PUE et utiliser des analyses complètes de la puissance et du refroidissement pour mieux comprendre et gérer l’efficacité énergétique.
Sécurité et sûreté des data centers
La conception des data centers doit également mettre en œuvre des pratiques de sécurité et de sûreté solides. Par exemple, la sécurité se reflète souvent dans la disposition des portes et des couloirs d’accès, qui doivent permettre le déplacement de matériel informatique volumineux et peu maniable, ainsi que l’accès des employés à l’infrastructure et sa réparation.
L’extinction des incendies est un autre domaine clé de la sécurité, et l’utilisation intensive d’équipements électriques et électroniques sensibles et à haute énergie empêche l’installation de gicleurs communs. Au lieu de cela, les data centers utilisent souvent des systèmes d’extinction chimique respectueux de l’environnement, qui privent efficacement un feu d’oxygène tout en atténuant les dommages collatéraux causés aux équipements. Comme le data center est également un actif essentiel de l’entreprise, des mesures de sécurité complètes, comme l’accès par badge et la vidéosurveillance, permettent de détecter et de prévenir les malversations des employés, des sous-traitants et des intrus.
Gestion et surveillance de l’infrastructure du data center
Les data centers modernes font un usage intensif de logiciels de surveillance et de gestion. Ces logiciels, qui comprennent des outils de gestion de l’infrastructure du data center, permettent aux administrateurs informatiques distants de superviser les installations et les équipements, de mesurer les performances, de détecter les défaillances et de mettre en œuvre un large éventail de mesures correctives sans jamais entrer physiquement dans la salle du data center.
Le développement de la virtualisation a ajouté une autre dimension importante à la gestion de l’infrastructure des data centers. La virtualisation permet désormais d’abstraire les serveurs, les réseaux et le stockage, ce qui permet d’organiser chaque ressource informatique en pools sans tenir compte de leur emplacement physique. Les administrateurs peuvent alors fournir les charges de travail, les instances de stockage et même la configuration du réseau à partir de ces pools de ressources communs. Lorsque les administrateurs n’ont plus besoin de ces ressources, ils peuvent les remettre dans le pool pour les réutiliser. Toutes les actions que la virtualisation du réseau, du stockage et des serveurs accomplit peuvent être mises en œuvre par le biais de logiciels, ce qui donne de l’importance au terme « data center » défini par logiciel.
Data center vs. Cloud
Les data centers mettent de plus en plus en œuvre des logiciels de Cloud privé, qui s’appuient sur la virtualisation pour ajouter un niveau d’automatisation, de libre-service pour les utilisateurs et de facturation/facturation à l’administration du data center. L’objectif est de permettre aux utilisateurs individuels de fournir des charges de travail et d’autres ressources informatiques à la demande sans intervention de l’administration informatique.
Il est également de plus en plus possible pour les data centers de s’interfacer avec les fournisseurs de cloud public. Des plates-formes telles que Microsoft Azure mettent l’accent sur l’utilisation hybride de centres de données locaux avec Azure ou d’autres ressources de Cloud public. Le résultat n’est pas l’élimination des data centers, mais plutôt la création d’un environnement dynamique qui permet aux organisations d’exécuter des charges de travail localement ou dans le Cloud ou de déplacer ces instances vers ou depuis le Cloud comme elles le souhaitent.
Historique
Les origines des premiers data centers remontent aux années 1940 et à l’existence des premiers systèmes informatiques comme l’ENIAC (Electronic Numerical Integrator and Computer). Ces premières machines étaient complexes à entretenir et à exploiter et disposaient d’une multitude de câbles reliant tous les composants nécessaires. Elles étaient également utilisées par les militaires – ce qui signifie que des salles informatiques spécialisées avec des racks, des chemins de câbles, des mécanismes de refroidissement et des restrictions d’accès étaient nécessaires pour accueillir tout l’équipement et mettre en place les mesures de sécurité appropriées.
Cependant, ce n’est que dans les années 1990, lorsque les opérations informatiques ont commencé à devenir plus complexes et que des équipements de réseau peu coûteux sont devenus disponibles, que le terme « data center » est apparu pour la première fois. Il est devenu possible de stocker tous les serveurs nécessaires d’une entreprise dans une pièce de l’entreprise. Ces salles informatiques spécialisées ont été appelées « data centers » au sein des entreprises, et le terme a gagné en popularité.
À l’époque de la bulle Internet à la fin des années 90, le besoin de vitesse d’Internet et d’une présence constante sur Internet pour les entreprises a nécessité des installations plus grandes pour abriter la quantité d’équipement de réseau nécessaire. C’est à cette époque que les data centers sont devenus populaires et ont commencé à ressembler à ceux décrits ci-dessus.
Au cours de l’histoire de l’informatique, à mesure que les ordinateurs devenaient plus petits et les réseaux plus grands, le centre de données a évolué et s’est adapté à la technologie nécessaire de l’époque.