Bienvenue sur le nouveau site de www.plateformemedia.com
Les communiqués de presse en direct
Communiqué de presse : sciences / technologie

Hitachi Data Systems : les 10 grandes tendances du stockage en 2008

Hitachi Data Systems

Communiqué le 24/01/2008
Boulogne-Billancourt, le 19 décembre 2007 — Hitachi Data Systems, filiale à 100% d’Hitachi Ltd (code NYSE : HIT) et premier fournisseur mondial de solutions de stockage orientées services (SOSS), livre ses prédictions sur les tendances du stockage en 2008. Parmi les préoccupations dominantes qui devraient impacter les entreprises, on trouve notamment l’écotechnologie, le stockage des données type emails en augmentation massive, la mobilité des données, la virtualisation et la consolidation, la réflexion sur de nouvelles architectures de stockage plus performantes…

Selon Hu Yoshida, CTO d’Hitachi Data Systems, 10 grandes tendances vont se dégager pour 2008 en matière de stockage :

La maîtrise des émissions de CO2 et l’écotechnologie
La préoccupation croissante au sujet du réchauffement planétaire conduit de plus en plus d’États à imposer des normes et des réglementations en matière d’émissions de CO2. Les grandes entreprises vont fixer des objectifs pour une réduction de ces émissions. La production d’électricité constitue une source importante d’émissions de CO2. La demande croissante en termes de puissance de calcul, de bande passante réseau et de capacité de stockage va augmenter le besoin énergétique des centres de traitement informatique.
Le gouvernement américain vient de conclure une étude estimant que le secteur informatique a consommé environ 61 milliards de kilowattheure (kWh) en 2006 (1,5 % de la consommation électrique totale aux États-Unis) pour un coût global d’environ 4,5 milliards de dollars. Ces chiffres devraient doubler dans les cinq prochaines années. Certaines villes, notamment Londres et New York, manquent de puissance électrique et il faut déplacer les centres de traitement vers d’autres régions qui en disposent. Ceci va exiger des mises à niveau d’installations et des investissements en écotechnologie.
En septembre 2007, Hitachi Ltd a annoncé un programme au Japon connu sous le nom de CoolCentre50 qui vise à réduire la consommation d’énergie dans ses centres de traitement de Yokohama et d’Okayama de 50 % en cinq ans. Cet effort englobe toutes les branches d’Hitachi, notamment le conditionnement d’air, la production d'énergie, le matériel informatique et les logiciels de gestion. Pour atteindre cet objectif, Naoya Takahashi, Directeur général et Vice-président de la division Information et télécommunications d’Hitachi, a annoncé le plan Harmonious Green Plan destiné à réduire de 330.000 tonnes les émissions de CO2 au cours des cinq prochaines années grâce au développement de technologies informatiques d’économie d’énergie telles que la virtualisation du stockage et des serveurs.

Incertitude économique et budgets serrés
La crise du marché immobilier américain, les prix du pétrole élevés et la baisse du dollar génèrent une incertitude économique. Les budgets seront serrés et les services informatiques vont devoir optimiser leur fonctionnement. Cette exigence implique l’examen de moyens pour consolider les ressources informatiques par le biais de la virtualisation, accroître l’utilisation de ressources telles que les cycles de serveur et les capacités de stockage, éliminer au maximum les redondances par déduplication et stockage mono exemplaire ainsi que réduire le volume actif de données de production par usage intensif de solutions d’archivage.

Utilisation accrue de l’archivage et développement de nouveaux systèmes
Le volume de données structurées de type base de données explose en raison d’exigences de conformité obligeant à stocker plus de données sur de longues durées. Le volume de données semi-structurées de type courriel, pages Web et données de gestion de documents augmente considérablement. Les quotas de courriel d’entreprise vont passer de moins de 200 Mo à 2 Go pour prendre en charge de nouveaux travailleurs intellectuels et concurrencer les offres de services gratuits de Google et AOL. Une profusion de données non structurées produite par les étiquettes RFID, les cartes à puce et les capteurs contrôlant tout du rythme cardiaque aux mouvements transfrontaliers. Les nouveaux avions Airbus et Boeing Dream Liner vont générer des téraoctets de données pour chaque vol. Toutes ces contraintes vont se traduire par le besoin d’archiver des données afin de réduire le volume actif de données de production. De nouveaux types de systèmes d’archivage, à capacité évolutive jusqu’à des pétaoctets et permettant de rechercher un contenu parmi différentes formes de données, seront alors nécessaires. La création d’un archivage distinct pour chaque type de données ne constituera en rien une solution.

Prise de conscience des lacunes du stockage
Les entreprises devraient globalement prendre conscience du fait que le stockage de données est devenu peu performant : utilisation faible ou inexistante, trop de copies redondantes, accès à bas débit, recherche inefficace et effet perturbateur des transferts ou migrations. Il ne sera plus possible de continuer à acheter les mêmes anciennes architectures de stockage. L’achat de systèmes de stockage plus rapides avec des disques de capacité supérieure pour les mêmes architectures ne sera plus viable. De nouvelles architectures de stockage seront requises pour répondre à l’évolution des besoins, des architectures adaptables en termes de performances, connectivité et capacité sans perturbation jusqu’à plusieurs pétaoctets. En outre, elles doivent pouvoir offrir de nouveaux services de données et de stockage, tels que l’intégration multiprotocole et la recherche commune, entre des unités de stockage hétérogènes avec une gestion centralisée et une protection sécurisée.

Mobilité des données : une exigence clé
Avec le besoin d’assurer une disponibilité continue des applications, la capacité de déplacer des données sans perturbation au niveau de l’application va s’avérer nécessaire. Alors que les logiciels de transfert de données ont été mis à contribution dans le passé, ils accaparent des cycles de traitement de l’application et sont limités à des liaisons IP à bas débit. L’augmentation du volume de données perturbe leur déplacement. Le transfert de données doit être délesté vers un système de stockage pouvant exploiter des liaisons Fibre Channel à haut débit sans besoin de cycles de traitement de l’application. Cette exigence va prendre une importance croissante pour la migration de données lors de mises à niveau vers des architectures à capacité de stockage de plus en plus grande.

Virtualisation du stockage au niveau du contrôleur disques
La virtualisation du stockage au niveau de l’unité de contrôle va être reconnue comme la seule méthode à valeur ajoutée pour les baies de stockage existantes. Le docteur Kevin McIsaac, un analyste spécialisé de la société australienne Intelligent Business Research Services Pty, souligne que l’idée de pouvoir superposer une couche de virtualisation (par réseau) à des baies de stockage existantes s’avère très imparfaite. Il précise que cela aboutit à une vue de plus petit dénominateur commun de l’infrastructure, les fonctions à valeur ajoutée de la baie étant éliminées. Ce type de virtualisation crée à la fois une couche supplémentaire de complexité et est source potentielle de panne, mais également un goulot d’étranglement de rendement et une dépendance vis-à-vis du fournisseur. Une approche basée sur la virtualisation au niveau de l’unité de contrôle permet d’exploiter toute la richesse fonctionnelle de l’unité de contrôle disques et d’améliorer les fonctions de couches existantes et de réduire le coût des baies de stockage. Une telle méthode de virtualisation va permettre à des systèmes de stockage moins performants d’utiliser les services à valeur ajoutée de l’unité de contrôle en tant que fonctions de mobilité des données ou d’allocation dynamique.   

Développement du stockage orienté services
Le stockage orienté services va devenir le complément nécessaire d’une architecture orientée services (SOA) dans le domaine de l’applicatif et d’une infrastructure orientée services dans le domaine de l’infrastructure (SOI), pour réussir à bâtir le centre de traitement dynamique du futur. L’architecture SOA dépend d’une couche de virtualisation fournie par XML permettant à des applications de partager des données et d’utiliser des services communs (par exemple, la facturation). L’infrastructure orientée services dépend d’une couche de virtualisation fournie par des produits tels que VMWare permettant à des systèmes d’exploitation de partager les ressources d’une plate-forme de traitement. Le stockage orienté services exige une couche de virtualisation dans l’unité de contrôle disques qui permet à d’autres systèmes de stockage d’exploiter ses services, notamment un cache global haute performance, la réplication à distance, le stockage multi niveaux et l’allocation dynamique.

Convergence de services de stockage par contenu, fichier et bloc
Au lieu d’avoir des systèmes de stockage distincts pour du contenu (archivage), des fichiers et des blocs, nous allons observer la convergence de ces types de stockage vers une plate-forme de virtualisation commune. Des clusters haute disponibilité de serveurs de contenu et de fichiers vont utiliser une plate-forme commune de services de virtualisation par bloc avec un ensemble centralisé d’outils de gestion. Des serveurs de contenu et de fichiers vont ainsi pouvoir exploiter des services communs par bloc tels que la réplication à distance, l’allocation dynamique ou la virtualisation de systèmes de stockage hétérogènes.   

Allocation dynamique ou la consommation du stockage selon le besoin réel
Avec l’allocation dynamique on évite le gaspillage de capacité de stockage allouée mais inutilisée. L’économie est multiple car ce système permet de ne copier que l’espace alloué chaque fois qu’une copie est requise pour des cycles de sauvegarde, réplication, exploration de données, test de développement, distribution de données, etc. La mise en œuvre de l’allocation dynamique devrait prendre la forme d’un service sur une plate-forme de virtualisation du stockage afin que des systèmes de stockage existants puissent en bénéficier par virtualisation. Les avantages de l’allocation dynamique seraient nuls si elle exigeait encore un autre système de stockage autonome. Sa capacité à optimiser l’utilisation du stockage sera saluée par les défenseurs de l’environnement et considérée comme un moyen de maîtriser les coûts.

Déduplication
La déduplication va être mise en œuvre par tous les principaux fournisseurs de solutions de sauvegarde. Elle s’avère particulièrement efficace pour éliminer des données dupliquées dans des sauvegardes. La capacité de réduire un flux de données de 20 à 30 fois va être très utile pour réduire le coût de stockage au point qu’il sera possible de stocker des données de sauvegarde sur disque plutôt que sur bande avec une amélioration de la fonctionnalité, la disponibilité et la fiabilité. D’autres formes de déduplication, telles qu’une instance de stockage unique pour archiver et une copie d’écriture pour instantanés, vont se généraliser. 



A propos de l’auteur
Hu Yoshida, le CTO d’Hitachi Data Systems, offre son analyse des enjeux du secteur, exprime son point de vue sur les meilleures pratiques de stockage et propose des solutions concrètes pour les besoins réels actuels en matière de stockage. Il est un expert reconnu dans le monde du stockage, et son blog a été récemment classé parmi les 10 plus influents du secteur par Network World. En 2006, il a été désigné « CTO de l’année » par Jon Toigo et, en octobre 2006, Byte and Switch l’a désigné comme un guru du stockage en réseau.  

Visitez le blog d’Hu Yoshida à l’adresse : http://blogs.hds.com/hu/

A propos d'Hitachi Data Systems
Hitachi Data Systems Corporation propose des solutions de stockage orientées services, dotées de l'allocation dynamique de ressources de stockage hétérogènes en fonction des besoins de l'activité et de la gestion centralisée prise en charge par son logiciel de virtualisation du stockage, leader de l'industrie. Division du groupe Hitachi Storage Solutions, Hitachi Data Systems propose des plateformes d'infrastructure de stockage, des logiciels de gestion de stockage et des prestations de conseil en stockage par l'intermédiaire de canaux directs et indirects dans plus de 170 pays et régions. Parmi ses clients figurent plus de 60 % des entreprises classées au palmarès FORTUNE 100.
A propos d’Hitachi, Ltd.
Basé à Tokyo, Hitachi, Ltd. (code NYSE : HIT /TSE: 6501) emploie environ 356 000 personnes dans le monde et est l'un des leaders mondiaux du marché de l'électronique. Son chiffre d'affaires consolidé s’élève à 9.464 Md de Yens (80,9 Md de Dollars) au cours de l'exercice 2005 (arrêté au 31 mars 2006). La société fournit une large gamme de systèmes, produits et services sur les marchés de l'informatique, des périphériques électroniques, des systèmes d'alimentation et industriels, des produits grand public, des matériaux et des services financiers.
Pour tout renseignement complémentaire sur Hitachi http://www.hitachi.com 

© 2007, Hitachi is a registered trademark of Hitachi, Ltd. and/or its affiliates in the United States and other countries.   Hitachi Data Systems is a registered trademark and service mark of Hitachi, Ltd. in the United States and other countries.  All other trademarks, services marks, company names are properties of their respective owners.

Contact presse :
Le savoir dire Tél +33 1 56 43 76 95



Retour page précédente

Pub
BoisPizz.com, buchettes pour four à pizza BoisPizz.com
spécialiste du bois pour four à pizza, four à pain
Communiqués les plus consultés