Partagez l'article

Connexion






Mot de passe oublié ?
Identifiant oublié ?
Pas encore inscrit ? Créer un compte

Up-coming events

There are no up-coming events

DSI et Architecture

Retrouvez dans cette section des informations généralistes et stratégiques sur la virtualisation. Cette section concerne aussi les aspects globaux de la conception des systèmes d'informations virtualisé (Projets, best practices, Guides...)

N'hésitez pas à proposer un article sur cette section en devenant un contributeur de notre communauté.



La virtualisation et le Cloud Computing induisent de nouveaux besoins d'expertise PDF Imprimer Envoyer
Note des utilisateurs: / 13
MauvaisTrès bien 

Virtualisation et "Cloud Computing" une évolution qui implique de nouveaux besoins d'expertise.

Si vous êtes un professionnel du conseil et de l'intégration de solutions en entreprises. Si vous êtes spécialisés dans la virtualisation et dans un sens plus large, dans l'optimisation des coûts de production informatique. Alors vous n'avez pu échapper aux véritables changements qui se dessinent actuellement.

La virtualisation, déjà révolutionnaire dans son application, a permis non seulement de réduire les coûts de possession (matériels, électriques etc.) mais surtout d'améliorer l'agilité des entreprises.

Résultat, les projets avancent plus vite et sont plus agiles. Il n'est plus nécessaires d'attendre la réception et l'installation de son matériel et il est plus facile de répondre à des demandes imprévues.

Si dans un premier temps, la consolidation apporte une réduction des coûts, l'énorme facilité avec laquelle on peut alors répondre aux demandes peut parfois provoquer une euphorie conduisant à la prolifération des machines et à une relative perte de contrôle pour les entreprises n'étant pas organisées en centre de coût.

 

... La mise en œuvre de la virtualisation induit des besoins d'expertises techniques, mais aussi organisationnels...

 
Mise à jour le Lundi, 26 Août 2013 10:24
Lire la suite...
 
Virtual Reality Check Phase II PDF Imprimer Envoyer
Note des utilisateurs: / 2
MauvaisTrès bien 
 

V2.0 du projet Virtual Reality Check Phase II

 

 



Login Consultant et PQR viennent de publier une mise à jour de la phase deux du projet Virtual Reality Check (VRC).

 

Ce projet a pour but de fournir un comparatif des performances des principaux hyperviseurs du marché (XEN, vSphere et Hyper-V) dans le cadre de la virtualisation de serveurs de sessions TS (Terminal Server).

 

Ce document est disponible dans notre section téléchargement.

 

On pourra cependant regretter que les auteurs n'aient pas véritablement fournis de documents de synthèse comparatifs des tests effectués sur les 3 hyperviseurs.

 

En effet, même si les résultats complets sont disponibles sur le site (pour les trois hyperviseurs testés), ceux-ci ne sont disponibles que pour Hyper-V 1.0.

La consultation et la comparaison des résultats reste cependant très instructive !

 

 

http://www.projectvrc.nl/

 

 

 

Bien que le cadre des tests soit restreint (Applications Terminal Server et scénario VDI uniquement), le sérieux de cette étude permet de mettre en lumière l'impact des différentes  configurations testées sur les performances.

 

 

 

En résumé, voici quelques unes des principales conclusions de cette étude (Consulter le document pour la liste complète).

 
  • La virtualisation des serveurs TS 32bits sur une plate-forme 64 bits permet d'améliorer la capacité le nombre de sessions maximales par rapport à une installation physique.

  • Si la virtualisation de serveurs TS 64Bits n'apporte pas de gains en matière de performances. La virtualisation peut cependant s'avérer intéressante dans la mesure ou elle améliore la flexibilité et les possibilités PRA et de consolidation.

  • La nouvelle architecture des processeurs Nehalem améliore drastiquement les performances des serveurs TS virtualisés grâce à l'Hyperthreading et aux fonctionnalités EPT (Enhanced Page Table) (+100% de performances en moyenne tout hyperviseur confondu).

  • Le service pack 2 pour office 2007 corrige certains bug de outlook et améliore drastiquement la montée en charge des applications office.

  • Les 3 hyperviseurs testés affichent des performances similaires à plus ou moins 5% prèt avec un léger avantage pour Vsphere 4.0 depuis la mise à disposition de la dernière update (Update 1 Patch 05).

Mise à jour le Vendredi, 28 Décembre 2012 16:02
 
VDI : les entreprises s'y mettent! PDF Imprimer Envoyer
Note des utilisateurs: / 6
MauvaisTrès bien 
Écrit par InfraNews   

 Par Kareen Frascaria

Source : infranews 
Après des débuts difficiles, le poste de travail virtuel commence à se propager dans l'entreprise, notamment parce que les technologies sont enfin matures. Mais des alternatives ouvrent le débat. VDI ou pas VDI ?

 

Même les analystes y perdent leur latin. En août 2007, Brian Gammage du Gartner prévoyait que "d'ici la fin 2010, tous les nouveaux postes de travail déployés seraient virtualisés". Fin 2009, la prédiction fait presque sourire : on est encore loin du but. Pas de chiffres encore très précis, mais un retour du terrain confirmé par les intégrateurs spécialisés : quasiment toutes les grandes entreprises ont en 2009 testé le poste de travail virtuel, mais peu ont transformé l'essai en production. Pourquoi ? Les raisons sont multiples : mauvaise expérience utilisateur, ROI difficile à prouver, réductions de coûts difficiles à démontrer, surtout à cause d'un mode de licencing opaque ou surtaxé, notamment lorsqu'il s'agit de mettre une application Windows dans une machine virtuelle. Au delà des problématiques d'infrastructure, le poste de travail virtuel implique de nouveaux modèles d'organisation du travail, un changement culturel violent pour les entreprises.

 

Mise à jour le Vendredi, 05 Février 2010 15:14
Lire la suite...
 
PRA simplifiés en environnement virtuels PDF Imprimer Envoyer
Note des utilisateurs: / 11
MauvaisTrès bien 
Écrit par Catherine Nohra-china   

PRA simplifiés en environnements virtuels

La mise en œuvre de solutions de virtualisation offre à un grand nombre d’entreprises, la capacité à implémenter des solutions de reprises d’activités (PRA), à des coûts bien moins prohibitifs que cela ne serait le cas au sein d’environnements de serveurs 100% physiques


Les entreprises qui font appel aux technologies de virtualisation peuvent réduire jusqu’à 70% le coût de gestion de leurs serveurs. Ces serveurs virtuels méritent une attention particulière, en matière de haute disponibilité, car en cas de problème, ce n’est plus une, mais plusieurs applications qui peuvent être paralysées. (NDR. Cf  : Virtualisation et sécurité du SI, les pièges à éviter).
Des solutions de protection des environnements virtualisés existent mais elles supposent des pré requis techniques complexes tels que la mise en place d’architecture V2V sur les sites de production et de secours ou encore la mise en place obligatoire de SAN en source et en cible. Très coûteuse, la réplication SAN  implique d’investir au moins 3 ans sur des architectures matérielles propriétaires exigeant une bande passante importante et onéreuse. Elle demeure peu adaptée aux contextes multi sites. Les solutions logicielles de haute disponibilité et de réplication temps réel du marché offrent aux entreprises de tailles moyennes, multi sites, la capacité à protéger leurs environnements virtuels pour un coût enfin abordable. Autorisant un redémarrage instantané de toute machine virtuelle sans perte de données et une détection automatique de la panne avec une bascule immédiate vers le serveur de secours,  ces solutions acceptent par ailleurs tous types de réplications (P2V, V2P et V2V hétérogènes) sans aucun pré requis de mise en œuvre, contrairement à la réplication SAN.

La solution double take, éditeur pionnier du PRA

SLA assuré pour la protection des machines virtuelles

La virtualisation, la réplication de données en temps réel et les mécanismes de failover permettent d’assurer la protection des données et systèmes critiques dans l’entreprise. Pour comprendre l’utilité de ces solutions et la manière de les implémenter, il est important de déterminer les systèmes qui ont besoin d’être protégés, mais aussi le niveau de protection que l’on souhaite leur allouer. Si toute une baie de disque tombe en panne et qu’il faut restaurer les données depuis la dernière sauvegarde valide, toutes les données suivant cette sauvegarde seront perdues et le RPO  (Point de Reprise) sera alors évalué entre 12 à 24 heures. Autre exemple marquant: si un virus corrompt une base de données, une restauration de bande peut résoudre le problème… en quelques heures. Par contre, si un serveur entier de production tombe en panne et doit être reconstruit en utilisant la même solution de sauvegarde sur bande, le RTO  (Recovery Time Objective) peut grimper de plusieurs heures, à plusieurs jours !

Il est primordial de déterminer les variables d'entrée de son PRA (1)
 

A la recherche de nouveaux moyens pour réduire leurs coûts et mieux exploiter leurs ressources informatiques, nombreuses sont les entreprises qui ont compris que la capacité de restauration est la clé de la protection des données. Adaptées à des problématiques d’archivages, les solutions actuelles de sauvegardes sur bandes ne sont ni suffisamment fiables ni capables d’atteindre ces objectifs de  RPO et de RTO.  C’est la raison pour laquelle, les entreprises sont de plus en plus nombreuses à déployer des architectures de serveurs virtuels couplées à des solutions de réplications de données temps réel et de disponibilité applicative. Correctement déployées, ces solutions apportent une protection nettement supérieure aux sauvegardes sur bandes, pour une simple fraction du coût des solutions de clustering matérielles.


Une offre qui s'élargis

L’offre Double-Take pour Serveurs Virtuels permet d’utiliser les fonctions de haute disponibilité et de réplication des données en temps réel au sein de machines virtuelles. Cette offre se caractérise par un modèle de tarification et de licence adapté au niveau de criticité des environnements à protéger. Adaptée à une très haute criticité, l’offre classique de réplication temps réel avec bascule automatique, garantit des RTO< 5 minutes et un RPO de 0. L’offre DTSR (Double-Take Server Recovery) avec bascule manuelle garantit des RTO <15 minutes.

De son côté l’éditeur américain Vizioncore propose également avec son offre vReplicator, des fonctionnalités hybrides de réplications de machines virtuelles (différentielle, complète, snapshots temps réel),  en fonction des niveaux de criticité (RTO) sur des réseaux de type Lan/Wan.  vReplicator repose sur la technologie Microsoft Volume Shadow Copy Service (Service de cliché instantané des volumes intégré à Windows Server 2003) qui consiste à utiliser des copies limitées dans le temps des données de stockage et permet de restaurer rapidement les données en cas de problème. vReplicator inclut également un outil de test de failover qui permet d’analyser les reprises sur incidents et de changer les modes de réplication en fonction des résultats obtenus.

Autre venu sur ce marché très convoité du PRA, PlateSpin Protect de Novell se positionne comme une offre de reprise et de sauvegarde consolidée à petit prix. A l’instar de Double-Take, elle propose deux modes de réplication: par fichiers et par blocs. La réplication incrémentielle à chaud par bloc est réservée à la protection des applications transactionnelles (messagerie, gros serveurs de BDD), paramètres de configuration et des sauvegardes de données multi sites. Avec ce type de réplication, seules les modifications apportées aux fichiers sources sont répliquées dans l’environnement cible, minimisant de fait l’impact sur le réseau existant. La réplication par fichiers permet de protéger rapidement des charges de travail statiques (ou d’E/S), sans compromettre le fonctionnement des serveurs. En cas de problème, la bascule se fait en un seul clic, en démarrant une copie (technologie d’images) répliquée sur le serveur de reprise virtuel. L’installation en mode client-serveur de PlateSpin nécessite la mise en œuvre préalable de IIS 5.0 (ou supérieur) et du framework  .NET 2.0

 
Ces approches de réplication  permettent de réduire par trois le coût d’acquisition des fonctions de protection de données sur machines virtuelles.

 
(1) Déterminer la criticité des serveurs avec le RPO et le RTO
L’objectif Point de Reprise ou  RPO « Recovery Point Objective » constitue le  point dans le temps jusqu’auquel on peut récupérer ces données. Vu sous un autre angle, c’est la quantité de données que l’on peut se permettre de perdre. En fonction du RPO, on optera ainsi pour une réplication temps réel ou planifiée.
Le RTO (Recovery Time Objective) ou « Objectif de Temps de Reprise »définit le laps de temps qui sépare une défaillance d’une reprise. Autrement dit, le temps de reprise acceptable en cas de panne. En fonction de ce RTO, on optera ainsi pour une bascule automatique ou en manuel.

Retrouvez plus d'articles de Catherine Nohra-China sur www.infohightech.com

Mise à jour le Mardi, 27 Avril 2010 15:22
 
Calculez au plus près votre coût de stockage avec Storage Economics Strategy PDF Imprimer Envoyer
Note des utilisateurs: / 4
MauvaisTrès bien 

Méthodologie unique mise au point par Hitachi Data System et utilisée par plus de 600 clients, Storage Economics Strategy- SES permet d’estimer de manière précise les coûts visibles et invisibles du stockage.

 

Basée sur 33 critères (allocation de stockage, consommation électrique, temps d’indisponibilité, coût de maintenance matérielle et logicielle, coût des ressources humaines allouées à la gestion du stockage, thin provisioning …) la méthode permet aux entreprises de revoir ou confirmer leurs processus, d’investir de manière pertinente dans de nouvelles solutions ou d’optimiser celles existantes avec un objectif clair : mettre le stockage au service des applications et des métiers et non l’inverse, et maîtriser les coûts associés.

 

 

HitachiCalcul tb
Cliquer sur l'image pour l'avoir en grand

 

Les gains obtenus peuvent être extrêmement importants qu'ils s'agissent de réduire les coûts des surfaces de stockage, ceux de la duplication des données, ou encore les coûts relatifs à l’acquisition des matériels et leurs maintenances « La virtualisation est le levier d’action qui agit directement sur la baisse des dépenses opérationnelles et le TCO des systèmes de stockage » note ainsi Philippe Alliel d’HDS. « Elle apporte la flexibilité nécessaire à la gestion du stockage en terme de mobilité des données, de réplication asynchrone, de gestion des actifs ».Pour preuve, 10 % des projets de migration de stockage menés par HDS se font aujourd’hui au travers des technologies de virtualisation et 1 client sur 2 utilise déjà la virtualisation du stockage, ce qui représente plus de 500 To virtualisés.


Cette méthodologie est par ailleurs l’outil de base rêvé pour effectuer un audit complet de son infrastructure de stockage, et être en mesure de définir l’architecture cible idéale, en fonction de l’existant client. Il est ainsi utile de rappeler que la virtualisation du stockage peut s’opérer à trois niveaux : celui des systèmes de stockage (baies), du réseau, ou du serveur. « Si, au niveau des mainframes 70 à 80 % des espaces de stockage sont utilisés, en environnement Windows, ce taux d’utilisation redescend à seulement 10%. » explique ainsi Philippe Alliel. La virtualisation prend ainsi tout son sens dans ces environnements.

La virtualisation permet aussi de remettre à niveau les besoins et de repositionner le SAN à sa fonction de réseau de transport. « Avec l’approche SAN, on a eu tendance à surdimensionner les besoins des entreprises. Aujourd’hui, nous sommes plus dans une optique de downsizing. » Cela signifie qu’en virtualisant, on peut aussi de passer du SAN qui reste cher à déployer, difficile à maintenir, et qui pose par ailleurs des problèmes d’interopérabilités. « Avec la virtualisation, on unifie à la fois les besoins et les systèmes de stockages de marques différentes. On peut faire de l’allocation différée de systèmes, résoudre les problèmes d’interopérabilités, passer d’une classe de données à une autre sans interruption de service, optimiser les cycles de vie des baies de stockage… » Les bénéfices ne manquent pas

 « C’est  Nouveau, ça nous plaît »

 Hitachi Data System propose gratuitement son logiciel de virtualisation du stockage dans le cadre du programme « Switch it On »

« Les programmes favorisant l’efficacité du stockage se multiplient actuellement et à juste titre » explique Mark Peters, analyste senior d’Enterprise Strategy Group.

La prise en charge d’environnements hétérogènes et la virtualisation sont des solutions très valorisantes tant d’un point de vue opérationnel que financier mais, avec « Switch it
On », Hitachi Data Systems innove et va encore plus loin. Il ne se contente pas de mettre en évidence l’inefficacité mais aide concrètement ses clients à y remédier, sans les contraindre pourtant à de nouvelles dépenses.
Le logiciel d’HDS permet de centraliser la gestion de tous les périphériques de stockage tiers et de l’optimiser grâce à des fonctions avancées telles que la mobilité des données transparente, l’allocation précise dynamique, le stockage intelligent par classe et la reprise après incident. Les entreprises vont pouvoir améliorer le retour sur investissement de leurs ressources de stockage et récupérer jusqu’à 50 % de capacité de stockage inutilisée.

www.hds.com/go/free-storage-virtualization

Retrouvez plus d'articles de Catherine Nohra-China sur www.infohightech.com

Mise à jour le Vendredi, 28 Décembre 2012 16:03
 
« DébutPrécédent1234SuivantFin »

Page 2 sur 4
Bannière

Joomla! is Free Software released under the GNU/GPL License.