Avantages et inconvénients du cloud

Avantages et inconvénients du cloud


Table des matières

Le contrôle, perte ou gain ?

Qu’en est-il au final de la perte de contrôle ? Un réel mythe ! Le seul contrôle qui est perdu est celui sur l’achat et la maintenance du matériel. Pour le reste des tâches, vous gardez la main à cent pour cent.

Pour prendre un parallèle simple, imaginez devoir gérer un parc de voitures de fonction. Il est fort probable qu’un concessionnaire soit mieux équipé en matériel et en personnel pour gérer, achat, mise en route et entretien courant qu’un garage que vous monteriez dans l’entreprise. Perdez-vous pour autant le contrôle sur votre parc automobile ? Ou posé différemment : avez-vous besoin de contrôle matériel et maintenance de votre parc
automobile ? Il est fort possible que la réponse soit négative. Il en est de même avec la prétendue perte de contrôle de votre parc serveur. N’hésitez pas à lire notre article pour en apprendre sur les bénéfices et dangers du cloud en entreprise.

Sécurité cloud

La sécurité, perte ou gain ?

Depuis le développement exponentiel d’internet et des applications qui s’y appuient, les menaces n’ont cessé d’augmenter, entraînant généralement une vulnérabilité accrue des systèmes. En prenant des mesures de sécurisation, les risques diminuent, toutefois sans jamais parvenir à les annuler.

La sécurité informatique est définie de façon précise au travers de la suite des normes ISO. Qu’est-ce que cela signifie pour vos informations ?

Que la mise en place de cette suite de normes ISO signifie que vos données sont hautement
sécurisées. Tous les prestataires sérieux de cloud public respectent à minima la norme
ISA/CEI 27001 :

  • Microsoft,
  • Amazon,
  • Google,
  • Salesfarce,
  • OVH.

Il apparaît clairement que des données stockées chez un prestataire respectant la suite des normes sont plus en sécurité que dans un système informatique qui ne la respecte pas. Il s’agit d’un gain évident en matière de sécurité.

Souplesse du cloud

La souplesse, perte ou gain ?

Imaginons que votre entreprise décide de lancer un nouveau produit ou service. Ce dernier nécessite une infrastructure numérique pour fonctionner, sous forme d’une nouvelle application, de l’extension d’une application existante ou de l’ajout d’un nouveau module applicatif. Dans tous les cas, vous devrez posséder une infrastructure sous-jacente plus ou
moins complexe.

Et vous voilà reparti dans l’acquisition de nouveaux matériels, la négociation des budgets et la préparation de l’environnement à l’accueil de ces nouveautés. Malheureusement pour
votre entreprise, le nouveau produit n’est pas à la hauteur des attentes et elle décide de l’arrêter. Vous voila avec de la capacité informatique libérée dont vous ne savez quoi faire,
voire inutilisable, car très spécialisée.

Imaginons maintenant qu’une solution cloud ait été votre choix. Vous avez pu faire évoluer vos besoins au fur et à mesure de la commercialisation du nouveau produit, augmentant ou
diminuant les capacités nécessaires. Quand la décision de débrancher survient, il vous suffit alors de libérer les serveurs et services souscrits d’un simple clic.

On peut aussi étudier la souplesse des services proposés par la situation suivante : monter une plateforme de test dans le cloud ne nécessite aucun investissement lourd et n’a aucun
impact sur les systèmes en production. Il est alors possible de disposer d’un environnement totalement isolé avec lequel on peut mener tous les tests possibles et inimaginables sans faire prendre de risques à l’entreprise.

Existe aussi la situation dans laquelle on souhaite commencer par un investissement minimal, permet de répondre à tout besoin de monter en charge brutale.

Pour la souplesse, le gain est notable, quasiment dès la première minute d’utilisation.

La performance, perte ou gain

C’est l’un des sujets avec celui de la sécurité les plus controversés. En effet, la performance est à la fois mesurable, donc objective, et perçue, donc subjective. Ensuite, la performance pure d’une application ou d’un processus est souvent le fait d’un ensemble de composants interdépendants. Enfin, même si l’on imagine pouvoir isoler la performance d’une application à un seul serveur, on s’aperçoit en regardant la figure 1-3 – Modèles de service, que chacune des couches a un impact sur la performance objective de l’application.

Prenons un exemple simple : imaginons que vous hébergez dans votre centre de données un serveur de fichiers. Chaque utilisateur y stocke les informations dont il ou elle a besoin pour effectuer son travail quotidien. Les performances d’accès à chacun de ces fichiers sont limitées par la rapidité du réseau, par celle des disques durs sur lesquels sont stockés les fichiers et par la puissance du processeur qui doit interpréter et servir chaque demande d’accès. On peut donc imaginer que si un très grand nombre d’utilisateurs veulent accéder à leurs fichiers en même temps, le serveur, les disques et le réseau vont être mis à contribution et les temps d’accès vont augmenter.

Avec la croissance des fichiers, vous arrivez rapidement à saturation de vos baies de stockage. Il convient alors de trouver une solution plus rapide que la commande de disques durs supplémentaires. Vous décidez alors de stocker les fichiers de vos utilisateurs dans le cloud. Et là, patatras, les performances s’écroulent, car si votre stockage et la puissance des serveurs ont considérablement augmenté, il n’en est rien de votre réseau qui devient un goulot d’étranglement.

Vous l’avez surement compris la contrainte principale : la performance dépend de l’architecture de vos applications et services.

Commentaires