Le Cloud Computing

Le Cloud Computing

Mais où va l’Informatique: le Cloud Computing

Badreddine BELHAMISSI
Pour comprendre l’avenir de l’informatique, il faut d’abord comprendre quels produits et technologies occuperont le devant de la scène dans les années à venir. Bien que rien ne soit jamais sûr, l’examen des tendances actuelles et des projections peut aider à anticiper l’évolution de l’informatique.

Pour beaucoup de travailleurs de l’information, l’une des plus grandes répercussions peut venir des appareils qu’ils utilisent pour réaliser leur travail. La fin des années 2000 a été marquée par une hausse fulgurante de la popularité des smartphones dans l’entreprise, suivie par la tablette dès 2010. Aujourd’hui, les tablettes réussissent là où les netbooks ont échoué, en offrant une alternative plus « mobile » aux ordinateurs portables.

Big data

bigdata1Littéralement les  « Grosses données », est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellementbigdata2 volumineux qu’il  devient difficiles de travailler avec les outils classiques de gestion de base de données.

Les perspectives du traitement des big data (la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données) sont énormes, notamment pour l’analyse d’opinions politiques ou de tendances industrielles, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité.

Le phénomène Big data est considéré comme l’un des grands défis informatiques de la décennie 2010-2020. Il engendre ainsi  une dynamique importante tant par l’administration, que par les technologies mises en œuvre.
L’une des répercussions les plus fortes sur l’informatique d’entreprise sera sans doute l’amélioration des outils servant à collecter, traiter et mesurer le big data Les entreprises ont accès à des données potentiellement illimitées et à de nouveaux outils pour les éclairer sur des perspectives jusque-là inexploitées.

Selon une étude récente d’IDC, le marché des services analytiques devrait représenter 70,8 milliards de dollars en 2016, avec une progression annuelle de 14,3 %.

Un marché essentiellement externe, les organisations devant faire face à l’émergence de nouvelles technologies non maîtrisées, à une absence en interne de ressources pour l’analyse (statisticiens, mathématiciens, etc.), et à la présence de sociétés spécialisées dans ce domaine.

Au sein de ce marché, l’infrastructure – serveurs, stockage, réseaux, logiciels – et les services spécifiques au Big Data devraient représenter 23,8 milliards de dollars, en progression annuelle de 31,7 %.

Quant au stockage – simplement dédié à l’analytique – la part de marché est estimée à 6 milliards de dollars.

 

Le concept de virtualisation en quelques mots

La virtualisation est une technologie qui rompt le lien entre les différents éléments d’un poste informatique.

On distingue virtualisation d’applications et virtualisation de postes de travail.

Le concept de « virtualisation » couvre l’ensemble des techniques permettant de dissocier les caractéristiques physiques d’un système matériel ou logiciel des applications orientées utilisateurs.virtua1

La virtualisation est utilisée pour permettre le fonctionnement de plusieurs machines virtuelles disposant chacune de leur système d’exploitation spécifique partageant la même infrastructure physique.

Le concept couvre différents aspects :
On peut ainsi virtualiser les serveurs (émulation des OS), le stockage (simplification de gestion), les application (simplification de l’administration) ou encore le poste client (optimisation du TCO, coût de possession)…

Virtualisation du serveur

Pour mieux rentabiliser son parc informatique et utiliser plus efficacement les ressources des serveurs disponibles, il est intéressant de les « virtualiser ». Pour cela, par un principe d’émulation, une couche logiciel isole les ressources physiques des systèmes d’exploitation. Ceux-ci s’exécutent alors sur des « machines virtuelles ». Par ce principe plusieurs systèmes d’exploitation peuvent cohabiter sur une même machine, indépendamment l’un de l’autre. A titre d’exemple concret, voir les solutions de virtualisation de serveur Vmware.

 Le Cloud c’est quoi?

mainframe

openstackL’informatique est encore en train de se transformer, elle se centralise à nouveau avec l’avènement des data centers, et surtout, elle se dématérialise et devient « l’informatique en nuage» ou « Cloud Computing » en anglais.

La puissance informatique devient virtuelle et se consomme où et quand on en a besoin et devient extensible.

Une étude a été menée en septembre 2015 auprès de 813 personnes en France, en Italie, en Allemagne, en Scandinavie, au Royaume-Uni, aux États-Unis et au Canada.

OpenStack est un ensemble de logiciels open source permettant de déployer des infrastructures de cloud computing (infrastructure en tant que service). La technologie possède une architecture modulaire composée de plusieurs projets corrélés (Nova, Swift, Glance…) qui permettent de contrôler les différentes ressources des machines virtuelles telles que la puissance de calcul, le stockage ou encore le réseau inhérents au centre de données sollicité.

openstack-devops-lopen-source-au-service-du-cloud-11-638Le projet est porté par la Fondation OpenStack, une organisation non-commerciale qui a pour but de promouvoir le projet OpenStack ainsi que de protéger et d’aider les développeurs et toute la communauté OpenStack.
De nombreuses entreprises ont rejoint la fondation OpenStack. Parmi celles-ci on retrouve : Canonical, Red Hat, SUSE, eNovance, AT&T, Cisco, Dell, HP, IBM, Yahoo!,Oracle, Orange, Cloudwatt, EMC, VMware, Intel, NetApp.

C’est un logiciel libre distribué selon les termes de la licence Apache.

79% des entreprises françaises envisagent ou ont déjà migré sur un Cloud privé OpenStack

En Australie également, les projets OpenStack se multiplient. Il y a dix ans la plupart des chercheurs travaillaient sur un PC haut de gamme et espéraient qu’il y ait suffisamment d’espace disque pour exécuter leurs applications témoigne dans The Register Andrew Howard du National Computing Infrastructure, un des plus gros développement d’OpenStack en Australie. Son datacenter propose 30 Po de stockage distribué en mode OpenStack. Maintenant, dit Andrew Howard « vous exécutez votre calcul et vos données sont stockées dans un centre national. Vous avez plus de puissance de calcul que dans votre environnement local, et vous récupérez vos données via le réseau. »

Mais où se trouve ce Cloud en réalité?

Le Cloud peut être un serveur dans un Datacenter, comme il peut être une combinaison de plusieurs Sites répartis sur plusieurs continents. Le client n’a plus besoin de connaître l’emplacement de ses données tant que le responsable du Cloud s’engage à offrir un service de qualité tout en gardant la confidentialité des données qu’il héberge.

À mesure que les employés deviendront de plus en plus mobiles, la demande en services de cloud augmentera également. Le cloud computing et la mobilité ne sont pas interdépendants, mais ils bénéficient l’un de l’autre s’agissant d’encourager la productivité et la collaboration.

L’informatique est encore en train de se transformer, elle se centralise à nouveau avec l’avènement des data centers,
et surtout, elle se dématérialise et devient « l’informatique en nuage» ou « Cloud Computing » en anglais.
La puissance informatique devient virtuelle et se consomme où et quand on en a besoin et devient extensible, tout ceci grâce à l’Internet.

Où se trouvent ces ressources informatiques, qui ne sont plus en local ? Certaines sont-elles en France ?

Elles ont beau être « dans le nuage », elles sont bien sur Terre, dans des datacenters géants qui font une bonne dizaine de fois la taille d’un terrain de football, et qui sont remplis de machines. Chez Microsoft, deux datacenters sont actuellement en cours de construction. Nous en possédons un en Europe, à Dublin, qui a coûté 500 millions de dollars, et nous avons un backup à Amsterdam, que nous louons à des hébergeurs. Plus un datacenter est loin de l’utilisateur, plus le temps de réponse est long. On sait augmenter la bande passante mais pas diminuer le temps de latence des requêtes. Pour le grand public, en gros seules des messageries sont hébergées en France.

serveurs_4081992

Le problème, c’est que les données sont détenues par un petit nombre d’entreprises, et que l’accès repose sur le maintien d’une connexion internet.

Les grands acteurs du cloud sont en effet peu nombreux. Google, Amazon, Microsoft, Salesforce. Pour plus de sécurité, pour les entreprises, il existe des clouds privés, qui ne sont pas partagés. L’objectif est d’avoir les mêmes bénéfices, mais de garder le contrôle de son environnement. Ce type de services est proposé par de nombreux acteurs, comme les hébergeurs, IBM…

En ce qui concerne le grand public, est-ce possible de savoir où se trouvent les données stockées ?

L’internaute lambda ne peut pas savoir. Ces données peuvent aussi bouger. Aucun engagement n’est pris à ce niveau là vis-à-vis du grand public.

 

 

 

Définitions du cloud computing

En France, la commission de terminologie (La Commission générale de terminologie et de néologie est une assemblée française de personnalités bénévoles au centre d’un dispositif interministériel dont la mission est de favoriser l’enrichissement de la langue française. Placée sous l’autorité du Premier ministre, elle a été créée par le décret no 96-602 du 3 juillet 1996 relatif à l’enrichissement de la langue française. Sa mission, outre l’enrichissement du vocabulaire spécialisé par la création terminologique et la néologie, est de favoriser l’utilisation de la langue française, notamment dans les domaines économique, juridique, scientifique et technique, mais aussi de participer au développement de la francophonie.) l’a défini comme

« le mode de traitement des données d’un client, dont l’exploitation s’effectue par l’internet, sous la forme de services fournis par un prestataire ». Elle constitue « une forme particulière de gérance de l’informatique, dans laquelle l’emplacement et le fonctionnement du nuage ne sont pas portés à la connaissance des clients» (JORFdu 6 juin 2010).

  Définition de l’UIT:uit « Le Cloud Computing est un modèle permettant   aux utilisateurs de ce service d’avoir un accès réseau ubiquiste,   pratique et à la demande à un ensemble partagé de ressources   informatiques configurables (réseaux, serveurs, stockage,   applications et services) et qui peut être rapidement approvisionné   et libéré avec un effort minimal de gestion ou de l’interaction du prestataire de service. Cloud Computing permet des services Cloud ». (2012).

 

 

Le Cloud Computing désigne une infrastructure informatique dans laquelle les données et les logiciels sont conservés et traités à distance dans le data center du fournisseur d’informatique en nuage ou dans des centres interconnectés au moyen d’une excellente bande passante indispensable à la fluidité du système, accessibles en tant que service par le biais d’Internet.

NistSelon le NIST (National Institute of Standards and Technology) aux Etats-Unis [le NIST (source Wikipedia) est une agence du Département du Commerce des États-Unis.Son but est de promouvoir l’économie en développant des technologies, la métrologie et des standards de concert avec l’industrie. Cette agence a pris la suite en 1988 du National Bureau of Standards, fondé en 1901 avec substantiellement les mêmes missions]:

«L’informatique en nuage offre un accès réseau universel, pratique et à la demande à un ensemble partagé de ressources informatiques configurables, telles que des réseaux, serveurs, systèmes de stockage, applications et services rapidement disponibles par le biais d’un effort de gestion minimal ou d’une interaction réduite de la part du prestataire de services ». (2009)

 

L’UIT-T a formé un groupe d’étude (FG) sur la normalisation du Cloud Computing qui a terminé son étude préliminaire formée d’un rapport en sept parties (Février 2012).

iut-groupCloud1)Introduction à l’écosystème du Cloud Computing, définitions, taxonomies, exemples de cas et conditions de haut niveau ;

2) Conditions fonctionnelles et architecture de référence ;

3) Exigences et architecture de l’infrastructure du Cloud ;

4) Analyse et gestion des ressources du Cloud ;

5) Sécurité du Cloud ;

6) Vues d’ensemble sur les organisations de normalisation impliquées dans le Cloud ;

7) Avantages du Cloud pour les télécommunications et perspectives pour les TIC.

 

L’informatique en nuage se caractérise par

  • Le matériel est détenu par le fournisseur de service Cloud et non par l’utilisateur
  • Une flexibilité immédiate en fonction des besoins de l’utilisateur
  • Une mutualisation des ressources au sein d’un data center
  • Une virtualisation des systèmes
  • Un usage à la demande
  • Une accessibilité par le biais d’un réseau depuis n’importe quel point géographique
  • Une possibilité de paiement à l’usage (pay per use)

Le cloud computing avenir de l’informatique?

Nicolas Carr Nicholas-Carrest devenu célèbre après avoir publié un article, puis un livre sur le thème : Does IT matter? ( Est-ce que l’informatique estnikocarrMatter importante ?)Carr se fait remarquer à partir de 2003 lorsque sont publiés successivement son article « IT Doesn’t Matter » dans la Harvard Business Review, et son livre Does IT Matter? Information Technology and the Corrosion of Competitive Advantage aux éditions Harvard Business School Press (le titre des deux publications joue sur les deux acceptions du terme « IT » : comme article défini ou comme acronyme pour Information technology). Dans ces deux publications, qui feront l’objet d’intenses débats, il soutient l’idée que l’importance des technologies de l’information dans le monde des affaires a diminué à mesure que ces dernières devenaient plus communes, standardisées et abordables ; leur usage ne permet plus de bénéficier d’un avantage compétitif réel, ce qui induit de revoir à la baisse les dépenses qui y sont associées, ou au moins de cesser de courir après les innovations technologiques pour elles-mêmes (« Follow, don’t lead »)

 

bigswitchLe deuxième livre de Nicholas Carr, The Big Switch: Rewiring the World, From Edison to Google, est publié en janvier 2008 par W. W. Norton. Il examine les conséquences économiques et sociales de l’émergence du cloud par rapport à celles provoquées par l’avènement de l’électricité au xxe siècle.

Le même mois, Carr devient membre du Comité de conseil éditorial de l’Encyclopædia Britannica.

burden
La roue hydraulique de Henry Burden

The Big Switch, un titre difficile à traduire, surtout après avoir compris que le mot “Switch” est utilisé pour parler de l’informatique et de l’énergie électrique.
L’avenir de l’informatique = “On the Cloud”
La première partie du livre, les 7 premiers chapitres, est une remarquable démonstration de l’évolution des infrastructures informatiques “on the cloud” et des applications vers une logique SaaS, Software as a Service”.
Nicolas Carr reprend l’analogie entre l’évolution de l’électricité et de l’informatique. Au milieu du XIX siècle, chaque entreprise industrielle fabriquait son énergie ;
IL cite en exemple la plus grande roue hydraulique du monde de 20 mètres de haut, construite par Henry Burden, pour fabriquer des clous pour les rails et des fers pour les chevaux.
50 ans plus tard, cette roue était immobile inutile, remplacée par de l’énergie électrique, grâce aux inventions de Thomas Edison.

bigserveur

30 ans plus tard, les “utilities” électriques, créées par Samuel Insull, un collaborateur d’Edison,nucleair
fonctionnant en courant alternatif et à partir de centrales très puissantes, avaient marginalisé les petites centrales locales en courant continu d’Edison.

Nicolas Carr pronostique que l’informatique va, rapidement, suivre une évolution similaire :
Les entreprises ont créé leur propre énergie informatique à l’époque des Mainframes et du client serveur
Les progrès des réseaux et du Web vont, rapidement, rendre obsolètes les centres de calcul construits par les entreprises pour leurs propres usages.
L’essentiel de l’énergie informatique mondiale sera, très rapidement, fournie par les “centrales nucléaires informatiques” construites à coups de milliards de dollars par Google, Amazon, eBay ou Microsoft.

Qu’est-ce que le Cloud Computing ?

Selon la NIST, le cloud computing c’est 5 caractéristiques clés:

caractCC

 IaaS, PaaS et SaaS :

Trois grands modèles d’usage du Cloud se dégagent actuellement:

 

le logiciel à la demande (SaaS ou Software as a Service). 3modelService
ex1WindAzurOnnedriv ex2-googapp ex3-salesforce
le Cloud applicatif (PaaS ou Platform as a Service)
ex1-winazur ex22Forcecom ex23GooGAppengin
le Cloud d’infrastructure (IaaS ou Infrastructure as a Service)
ex31WinAzur Ex3-EC2_Amazon ex33-Fournissvirtu
  • Software as a Service (SaaS)
    Ce modèle de service est caractérisée par l’utilisation d’une application partagée qui fonctionne sur une infrastructure Cloud. L’utilisateur accède  à l’application par le réseau au travers de divers types de terminaux (souvent via un navigateur web).Saas L’administrateur de l’application ne gère pas et ne contrôle pas l’infrastructure sous-jacente (réseaux, serveurs, applications, stockage). Il ne contrôle pas les fonctions de l’application à l’exception d’un paramétrage de quelques fonctions utilisateurs limitées.

De bons exemples de SaaS sont les logiciels de messagerie au travers d’un navigateur comme Gmail ou Yahoo mail. Ces infrastructures fournissent le service de messagerie à des centaines de millions d’utilisateurs et à des dizaines de millions d’entreprises.

  • Platform as a Service (PaaS)
    L’utilisateur a la possibilité de créer et de déployer sur une infrastructure Cloud PaaS ses propres applications en utilisant les langages et les outils du fournisseur. .L’utilisateur ne gère pas ou ne contrôle pas l’infrastructure Cloud sous jacente (réseaux, serveurs, stockage) mais l’utilisateur contrôle l’application déployée et sa configuration.Paas

Comme exemple de PaaS, on peut citer un des plus anciens –Intuit Quickbase– qui permet de déployer ses applications bases de données en ligne ou –Google Apps Engine (GAE)- pour déployer des services Web. Dans ces deux cas l’utilisateur de ces services n’a pas à gérer des serveurs ou des systèmes pour déployer ses applications en ligne et dimensionner des ressources adaptées au trafic

  • Infrastructure as a Service (IaaS)
    L’utilisateur loue des moyens de calcul et de stockage, des capacités réseau et d’autres ressources indispensables (partage de charge, pare-feu, cache). L’utilisateur a la possibilité de déployer n’importe quel type de logiciel incluant les systèmes d’exploitation. IaaS
    L’utilisateur ne gère pas ou ne contrôle pas l’infrastructure Cloud sous jacente mais il a le contrôle sur les systèmes d’exploitation, le stockage et les applications. Il peut aussi choisir les caractéristiques principales des équipements réseau comme le partage de charge, les pare-feu, etc.

L’exemple emblématique de ce type de service est Amazon Web Services qui fournit du calcul (EC2), du stockage (S3, EBS), des bases de données en ligne (SimpleDB) et quantité d’autres services de base. Il est maintenant imité par de très nombreux fournisseurs. 

cloudNIST

4 modèles de déploiement

Private Cloud

Propriété (ou location) de
l’entreprise – mono-locatairemodel-deploie

Interne ou externe

Community Cloud

Infrastructure partagée pour
une communauté spécifique
(un état…)

Interne ou externe

Public Cloud

Infrastructure louée à n’importe quelle catégorie d’acheteur – multi-locataire

L’infrastructure est généralement la propriété du fournisseur

Hybrid Cloud

La composition de deux ou plus formes de Clouds qui permettent la portabilité des données et des applications

On ne crée pas un Hybrid Cloud juste en fédérant les identités

Qu’est-ce que le Cloud public ?

Les services du Cloud public sont fournis dans un environnement virtualisé, construits en utilisant des ressources matérielles partagées, et accessibles sur un réseau public.

Dans une certaine mesure, ils peuvent être définis comme opposés à des Clouds privés qui sont des services en circuits fermés via des installations indépendantes.

Le Cloud privé est donc une plateforme de Cloud distincte à laquelle une seule organisation a accès.

Les Cloud publics, quant à eux, offrent des services à plusieurs clients en utilisant la même infrastructure partagée.

Les Clouds publics les plus connus sont Amazon Elastic Compute Cloud (EC2), Microsoft Azure et Google App Engine.

Fonctionnalités et avantages

Scalabilité : Les espaces Cloud sont disponibles sur demande. Les Cloud publics répondent de manière transparente aux fluctuations de l’activité, de sorte que les applications tournent toujours sans avoir à se soucier de l’espace de stockage ou de la bande passante restante.

La faculté d’élasticité du Cloud-computing est très souvent mise en avant pour vanter un des principaux avantages du Cloud :

Etre capable, en temps réel, d’adapter les capacités hardware à la charge générée par les utilisateurs et ne payer que les ressources utilisées, cela avec une garantie de disponibilité, voilà le rêve de tout éditeur de logiciel qui souhaite vendre son produit sous forme de service…

La scalabilité :

C’est l’aptitude d’une application à maintenir son niveau de performance face à une augmentation de la charge (ou de la volumétrie de données), ceci par augmentation de la capacité des ressources hardware sans modification de l’application elle-même.

Prenons un exemple d’un service SaaS qui se compose de 4 composants :

un site web (sur des serveurs frontaux)scal1

une couche Business (BLL, sur des serveurs Middleware)

un service A Asynchrone (sur des serveurs dédiés)

une base de données (Serveur BDD)

Lorsqu’un seul internaute consomme le service, une unique instance de chaque composant est nécessaire.

Mais là où cela se complique… comment connaitre le nombre d’instances nécessaire de chaque serveur pour répondre à une charge données ? (100, 1000, 10 000 utilisateurs ?)

Autrement dit, comment déterminer la courbe de scalabilité dans le Cloud ?scal2

Comment doit-on multiplier les instances en fonction de la charge ?
(scalabilité horizontale)

Doit-on augmenter  unitairement la capacité d’une ressource ?

(scalabilité verticale, instance de type small, medium, large, x-large ?)

De la réponse à ces questions découlera la réponse principale :

quel coût pour mon service dans le Cloud ?

La seule façon de répondre aujourd’hui à cette problématique est d’utiliser des systèmes qui vont simuler différents niveaux de charge et de mesurer en même temps l’utilisation des ressources correspondantes.

 Le rêve de l’adaptation automatique à la charge n’est pas encore devenu réalité… car c’est éminemment complexe, même si les premiers systèmes d’auto-scalabilités intelligents prometteurs commencent à arriver… (Exemple

Rentabilité : Les Clouds publics réunissent des niveaux plus élevés d’espaces et peuvent donc bénéficier de plus grandes économies d’échelle.
Le fonctionnement et la gestion centralisée des ressources sous-jacentes sont partagés entre tous les services de Cloud Computing.

renta1

renta2

 

 

 

 

 

 

 

Certaines propositions sur le marché peuvent même être gratuites pour le client, en se basant sur un système de publicités qui génère des revenus.

renta3

Faibles coûts : Les services de Cloud public emploient souvent un modèle pay-as-you-go pour lequel l’entreprise sera en mesure d’accéder aux ressources dont ils ont besoin, quand elle en a besoin, et ensuite ne payer que pour ce qu’elle utilise; évitant ainsi tout gaspillage.faible1

Fiabilité : Le grand nombre de serveurs et de réseaux impliqués dans la création d’un Cloud public et les configurations de redondance signifie que si un serveur plante, le service de Cloud Computing sera en mesure de faire fonctionner le service sur les autres Data Centers.

fiabi1

Il n’existe, en d’autres termes, aucun point de défaillance unique qui rendrait un service de Cloud public vulnérable.

Flexibilité : De nombreux services d’IaaS, de PaaS et de SaaS disponibles sur le marché suivent le modèle du Cloud public. Ces services peuvent satisfaire la plupart des besoins informatiques des entreprises.flex Les entreprises peuvent même intégrer leurs services de Cloud public avec des Clouds privés, où si elles en ont besoin, créer un Cloud Hybride pour protéger des informations commerciales sensibles.

Disponibilité : La disponibilité des services de Cloud public via une connexion Internet assure que les services sont disponibles où que se trouve le client. Cela offre des possibilités inestimables à l’entreprise telle que l’accès à distance à l’infrastructure IT (en cas d’urgence, etc.) ou la collaboration sur des documents en ligne à partir de plusieurs endroits.

 

 

 

 

Tous présentent des caractéristiques différentes.

Caractéristiques communes du cloud computing

Le Cloud Computing tire souvent parti de :

  • Passage massif à l’échelle
    echelleLe passage à l’échelle est la faculté qu’a un système à pouvoir changer de taille ou de volume selon les besoins des utilisateurs

 

 

 

  • Homogénéité
    homogeneUne grande homogénéité des moyens.

 

Les systèmes regroupent des milliers de composants identiques ce qui simplifie la gestion, la fiabilité,  l’audit et la sécurité.

 

 

 

  • Virtualisation
    virtualizLa virtualisation est une caractéristique indispensable qui présente de très nombreux avantages. Le matériel est remplacé par du logiciel avec tous les avantages du logiciel : créer une nouvelle machine ou sauvegarder son état consiste à copier un fichier d’où un énorme gain de temps et d’argent.

 

 

La machine virtuelle ne tombe pratiquement jamais en panne ce qui accroit sérieusement la fiabilité des systèmes. On peut continuer à utiliser des machines qui ne sont plus fabriquées. Le pourcentage d’utilisation réelle d’un serveur physique dépasse rarement 15%.

 

  • Informatique résiliente
    resilientEn informatique, la résilience est la capacité d’un système ou d’une architecture réseau à continuer de fonctionner en cas de panne

 

La mise en ligne d’un nouveau serveur peut s’effectuer en moins d’une minute.

 

 

Il n’est plus nécessaire de s’équiper pour absorber des pointes de trafic.

 

 

 

  • Logiciel bas coût
    bascoutLes tarifs moyens du Cloud pour les entreprises ont baissé des deux tiers depuis 2014, selon l’étude réalisée par TCL (Tariff Consultancy Limited).

 

Les prix commencent à se stabiliser toutefois pour 2016.La société d’études a suivi les prix pratiqués par 20 fournisseurs de Cloud public dans le monde. Le prix moyen d’un serveur virtuel d’entrée de gamme est désormais à 0,12 $ de l’heure sous Windows.

 

La plupart des plates-formes publiques utilisent des logiciels open source gratuits. Les coûts des logiciels propriétaires sont souvent facturés à l’usage sans nécessiter l’achat de licences. La plupart des ces logiciels sont déjà préinstallés et préconfigurés

 

  • Distribution géographique
    distrigeoLes grandes plates-formes publiques disposent de centres répartis sur la planète pour réduire les risques et placer les données au plus près des utilisateurs.

 

Par exemple, Amazon Web Services proposait dès 2011 des centres en Europe (2) aux USA (4) et au Japon (2).

 

 

 

 

 

 

  • Orientation service
    orientationService
    Les fonctions fournies aux utilisateurs se présentent sous la forme de Web services (REST) faciles à utiliser dans un navigateur ou mieux par des scripts automatisés.

 

 

Des groupes de standardisation se sont crées pour définir des interfaces communes et simplifier ainsi le passage d’une infrastructure à une autre.

 

 

 

  • Technologies de sécurité avancées
    security
    la sécurité est une préoccupation majeure des organisations qui utilisent les services du Cloud.

 

 

Ces plates-formes disposent généralement de nombreux systèmes de protection, hors de portée des moyens de la plupart des organisations.

 

 

 

Cloud privé : définition, avantages, inconvénients et actualités

Le Cloud privé est un type de Cloud Computing qui offre des avantages similaires au Cloud public, y compris l’évolutivité et le libre-service, mais à travers une architecture propriétaire.

Contrairement à des Clouds publics, qui fournissent des services à de multiples organisations, un Cloud privé est dédié à une seule organisation.

En conséquence, le Cloud privé est préférable pour les entreprises ayant des besoins informatiques dynamiques ou imprévisibles ou qui nécessitent un contrôle direct sur leurs environnements.

Qu’est ce que le Cloud Privé ?

Un Cloud privé fournit les mêmes prestations de base qu’un Cloud public.e-cloud-prive

Celles-ci comprennent le libre-service (pay-as-you-go), l’évolutivité des ressources etla création d’espaces de traitement pour un grand volume de données.

En outre, les Clouds privés offrent des services d’hébergement à un nombre limité d’entreprises derrière un pare-feu, de sorte qu’ils minimisent les problèmes de sécurité que certaines organisations ont sur le Cloud.

Le Cloud privé permet également aux entreprises un contrôle direct sur leurs données.Virtual-Private-Cloud-Service_Telekom

Pourquoi choisir le Cloud privé

Le modèle de déploiement du Cloud public et du Cloud privé diffère.

Les Clouds publics, tels que ceux d’Amazon Web Services ou de Google Compute Engine, partagent une infrastructure informatique à travers différents utilisateurs, unités d’affaires ou entreprises.

Cependant, ces environnements informatiques partagés ne sont pas adaptés pour toutes les entreprises, tels que celles ayant des informations sensibles, des problèmes de sécurité, des exigences de disponibilité ou des exigences de gestion.

Au lieu d’avoir leur propre Data Centers, ces entreprises peuvent transférer une partie de leurs données existantes vers un Cloud privé.

Inconvénients du Cloud Privé

Mais les Clouds privés présentent certains inconvénients : le déploiement du Cloud privé a les mêmes dépenses de dotation, de gestion, d’entretien et d’investissement que les Data Centers dont l’entreprise serait propriétaire. Le Cloud privé n’est donc que l’externalisation du Data Center.

Cependant, les frais du Cloud privé incluent la virtualisation, les logiciels de Cloud et des outils de gestion.

Le Cloud hybride

Une entreprise peut également utiliser un mix entre les services du Cloud privé et celui d’un Cloud public : le Cloud hybride.

Cela permet aux utilisateurs d’accroître leurs besoins informatiques au-delà du Cloud privé afin de faire des tests, de profiter des puissances de calculs ou même de réduire le coût de stockage de certaines données non sensibles.
Les Clouds privés les plus connus sont Microsoft Private Cloud, VMware, OpenStack, CloudStack et Platform9.

Le Cloud public est plus sécurisé que les Data Centers privés !

Le Cloud public est plus sécurisé que les Data Centers privés !publicprivécloud

En règle générale, les entreprises privées ont tendance à ne faire confiance qu’à leurs propres infrastructures pour la sécurité informatique de leurs données. Pourtant, dans les faits, les Data Centers du Cloud public s’avèrent plus sécurisés. 

Pour une entreprise dont la confidentialité des données est d’une importance capitale, il est difficile de faire confiance à un tiers au point de lui déléguer le stockage intégral de ces données.

Par habitude, par méfiance, les sociétés préfèrent généralement entreposer leurs données dans les disques durs de leurs propres Data Centers.

Il est d’autant plus difficile de s’en remettre aux fournisseurs de Cloud public, dont les méthodes de sécurités sont volontairement gardées secrètes.

Cependant, en réalité, le Cloud public est globalement plus fiable et sécurisé que les Data Centers privés.

Le Cloud public, plus proactif et moderne

Pour cause, les fournisseurs de Cloud public comme Amazon Web Services ou Microsoft Azure ont conscience d’être des cibles de choix pour les hackers de tous bords.

Ils sont donc extrêmement prudents, minutieux et focalisés sur la sécurité de leurs serveurs. La plupart utilisent des méthodes de sécurité systémiques.

Ils tentent de prévoir les éventuelles attaques en utilisant des technologies de filtrage par motif ou encore des systèmes d’intelligence artificielle.

Le Cloud privé, souvent obsolète et trop disparate

À l’inverse, les entreprises privées ne sont pas suffisamment proactives face aux attaques informatiques de plus en plus fréquentes.

En outre, leurs Data Centers reposent généralement sur un mélange de technologies datées.

L’ensemble manque de cohésion, et l’ancienneté des dispositifs en fait généralement des cibles accessibles pour les cybercriminels.

Ces infrastructures internes sont donc moins fiables et sécurisées que les Data Centers du Cloud public, plus récents et mieux structurés en plus d’être moins chers et plus flexibles.

En novembre 2015, le groupe Hilton en a fait la fâcheuse expérience.

Les terminaux de paiement électroniques de la chaîne hôtelière ont été hackés à cause d’une brèche, permettant aux coupables de récupérer des informations sur les cartes de crédit des clients.

Pour cause, malgré tout l’argent investi par Hilton dans son système de sécurité informatique, la firme n’a pas réussi à s’adapter à l’évolution des cyberattaques.

Des dispositions supplémentaires indispensables

Malgré tout, pour être vraiment efficace, le Cloud nécessite également de prendre des mesures de sécurité supplémentaires. Il est vivement recommandé d’avoir recours au chiffrement, ou encore à un système de Gestion des Identités et Accès (IAM).

Principales tendances du Cloud en 2016

(d’après 

Head of Southern Europe at Tableau Software)

La technologie du cloud va bouleverser le paysage des données et des analyses en 2016 comme jamais auparavant. Le secteur du cloud connaîtra une activité très contrastée et les douze prochains mois seront placés sous le signe de l’innovation. La concurrence entre des géants tels qu’Amazon, Google et Microsoft se fera plus rude, et les responsables IT chercheront de plus en plus à réduire les coûts et à démocratiser l’accès aux données.

Les données susciteront plus d’intérêt que jamais

Les solutions de stockage de données sont légions. Qu’il s’agisse de Salesforce ou d’Amazon Web Services, les géants du cloud se bousculent pour proposer leurs services et leurs écosystèmes aux entreprises, et pas seulement pour les données internes classiques. Ils privilégient également celles issues des plateformes Web telles que Workday ou Zendesk, ainsi que celles générées par les machines et les divers terminaux connectés.

La guerre des prix touchera également les partenaires

Les principaux acteurs du cloud, comme Amazon, Google ou Microsoft, se livrent depuis des années une lutte sans merci sur le terrain des solutions à tarif avantageux, et passent désormais à la vitesse supérieure en impliquant leurs principaux partenaires dans cette guerre des prix.

Les grandes entreprises adoptent massivement le cloud

Nous sommes en passe d’atteindre un moment charnière, et l’adoption du cloud n’est plus réservée aux jeunes entreprises en pleine croissance. Dans tous les secteurs, les grandes entreprises aussi transfèrent l’intégralité de leurs infrastructures et de leurs écosystèmes de données dans le cloud.

Principaux acteurs et modèles économiques

Les principales entreprises dominant le marche du Cloud computing sont 4 grandes entreprises du numérique américaines Amazon, Microsoft, IBM et Google qui représentent à elles seules 54% du marché du Cloud Computing IaaS au deuxième trimestre 2015 (soit une évolution de 8 point part au deuxième trimestre 2014).

storgecompar

Les offres de Cloud Computing se déclinent en 3 modèles économiques de services à la demande :

 

– La gratuité, à l’origine pour le grand public
(par exemple : (Box, Dropbox, Microsoft OneDrive,
Google Drive, Apple iCloud)

 

– La facturation à la consommation (en fonction du processeur, de la mémoire, de la bande passante utilisées)

 

– La facturation au forfait (en fonction du nombre de postes équipés)

 

Aujourd’hui les fournisseurs sont capables d’adapter automatiquement la capacité de stockage et la puissance de calcul des services de Cloud Computing aux besoins de l’utilisateur ce qui en fait un produit d’autant plus attrayant.

 

Le Cloud Computing et la Sécurité

La confidentialité, la sécurité et l’intégrité des données n’ont pas toujours été  garanties.

Pendant plusieurs années, le Cloud Computing a eu mauvaise presse dans les entreprises.L’incertitude de savoir où étaient stockées les données et qui pouvait y avoir accès ont freiné son développement. D’autant que les services étaient généralement opérés par des opérateurs principalement américains.

La situation ancienne (actuelle ?) [d’après Louis Naugès ]

secur-ancien

1 – Le territoire de l’entreprise est protégé par un mur d’enceinte, appelé Firewall, censé protéger les habitants de l’intérieur des attaques d’un monde extérieur supposé hostile et dangereux.

 

2 – Tous les habitants sont obligés d’utiliser le même outil, un PC Windows avec Microsoft Office. Pour faciliter la vie du gestionnaire de l’espace, le DSI, et pour « améliorer la sécurité », une version unique, un « Master » est imposé à tous les habitants, indépendamment de leurs besoins réels.

 

3 – Un réseau local filaire, LAN Ethernet, relie tous ces objets identiques aux serveurs de l’entreprise. C’est le seul point positif de cette situation ; les performances de ce LAN permettent de répondre à l’essentiel des attentes des habitants.

 

4 – Tous les services (applications) auxquels ont accès les habitants sont produits en interne, par une armée de spécialistes qui essaient de les maintenir à jour et jouent les pompiers à chaque incident.

5 – Toute personne à l’extérieur, que ce soit un habitant qui a osé franchir le mur d’enceinte du Firewall ou un externe (client, fournisseur…) est considéré à priori comme un bandit potentiel et l’entrée du château lui sera très souvent refusée.

Ce monde est devenu invivable, inadapté aux attentes de ses habitants qui sont obligés d’enfreindre toutes les règles de sécurité qui leur sont imposées pour pouvoir se déplacer et travailler.

Peut-on faire mieux, et plus sur ? Oui !

     Quelle architecture de sécurité, aujourd’hui (demain ?)

archi-securdemain

1 – 4A (Any device, Any Where, Any TIme, Any Content) La possibilité d’obtenir des informations à tout moment, en tout lieu, à partir de n’importe quel équipement relié à internet : le concept ATAWAD (Any Time, Any Where, Any Device) symbolise parfaitement la transformation digitale de notre société, comme du monde professionnel.

2 – On trouve là la clef de la sécurité de ce Nouveau Monde ; avant de vous connecter à un réseau sans fil, 3G, 4G ou Wi-Fi, vous devrez vous authentifiez avec un mot de passe unique (Single Sign On) et une double vérification, par SMS, jeton, empreinte digitale… Ce niveau de sécurité, très élevé, vous donne accès à tous les usages « normaux » dont vous avez besoin dans votre vie professionnelle. Le Firewall physique a disparu ; où que vous soyez, vous avez un même niveau de sécurité, qui a été établi en collaboration étroite avec le RSSI.

3 – 100 % des services auxquels vous avez accès avec ce haut niveau de sécurité universel sont fournis par des acteurs industriels du Cloud public, très compétents en sécurité. Vous les connaissez bien : Salesforce pour le CRM, Google Apps pour votre « participatique »… Ceci ne veut pas dire qu’il n’y aura jamais de failles de sécurité, mais elles seront très rares et localisées.

4 – Il y a dans beaucoup d’entreprises des zones de très haute sécurité, pour lesquelles desprotections exceptionnelles sont mises en œuvre : salle des coffres dans une banque, zone R & D chez un industriel…  la même démarche peut être appliquée dans le domaine des S.I. ; les applications et données très confidentielles seront localisées dans desespaces logiques spécialisés où le niveau de sécurité sera beaucoup plus élevé que pour le reste des usages.

Avec le développement des technologies, la maturité des acteurs tant côté fournisseurs que côté utilisateurs et l’émergence de fournisseurs français, les mentalités changent.

Après des années de méfiance, l’informatique en nuages s’implante dans les PME. Pour elles, le cloud les aide à sécuriser leurs infrastructures de façon simple et économique.

il n’y a pas de standard de sécurité spécifique. L’approche consiste plutôt à s’appuyer sur les bonnes pratiques traditionnelles de la sécurité informatique. Notamment la certification ISO 27001, qui, si elle est délivrée par un grand cabinet d’audit, est la seule garantie qui fait foi. Autrement, pas de véritable sécurité. « Même si le discours marketing prétend le contraire »

Quelles sont  les menaces majeures dans le cloud

Plusieurs études menées par des spécialistes tels que ISACA (Information Systems Audit and Control Association) et CSA (Cloud Security Alliance) ont permis d’identifier douze points qui constituent les menaces majeures à la sécurité des données et à celles des applications en cloud.

  • L’existence de brèches de sécurité tant sur l’une des couches logiques du Datacenter que celles issues d’erreurs humaines ;
  • La fragilité dans la gestion des accès et des identités, bien que certains fournisseurs renforcent les interfaces d’authentification avec d’autres moyens tels que les certificats, les smartcards, la technologie OTP et bien d’autres ;
  • L’utilisation d’API non sécurisées pour l’intégration des applications avec les services cloud ;
  • L’exploit de vulnérabilités des systèmes d’exploitation sur les serveurs du cloud et même sur les applications hébergées ;cloud-security-600x459-7979d
  • Le piratage de compte, qui est un vieux type d’attaque informatique, vient avec une forte recrudescence depuis l’avènement d’Internet et encore celui du cloud computing ;
  • Une action malveillante initiée en interne dans les effectifs du fournisseur. Une personne malveillante dans l’équipe de gestion du Datacenter peut facilement nuire à la confidentialité et l’intégrité des environnements hébergés ;
  • Les menaces persistantes avancées (en anglais, APT : Advanced Persistent Threats) qui consistent en une forme d’attaque où le hacker réussit à installer d’une façon ou d’une autre un dispositif dans le réseau interne de l’organisation, à partir duquel il peut extirper des données importantes ou confidentielles. C’est une forme d’attaque difficile à détecter pour un fournisseur de services cloud ;
  • La perte de données qui peut être causée par une attaque informatique (logique) du Datacenter, une attaque physique (incendie ou bombardement), une catastrophe naturelle, ou même simplement à un facteur humain chez le fournisseur de services, par exemple en cas de faillite de la société ;
  • Les insuffisances dans les stratégies internes d’adoption ou de passage au cloud. Les entreprises ou les organisations ne prennent pas souvent en compte tous les facteurs de sécurité liés à leur fonctionnement avant de souscrire à un service cloud. Certaines négligences, tant au niveau du développement d’application qu’au niveau de l’utilisation basique, leur sont parfois fatales ;
  • Utilisation frauduleuse des technologies cloud en vue de cacher l’identité et de perpétrer des attaques à grande échelle. Généralement, il s’agit de comptes créés pendant les périodes d’évaluation (la plupart des FAI proposent 30 jours d’essai gratuits) ou des accès achetés frauduleusement ;
  • Le déni de service qui est une attaque qui consiste à rendre indisponible un service par une consommation abusive des ressources telles que les processeurs, la mémoire ou le réseau. L’idée, pour le pirate, c’est de réussir à surcharger les ressources du Datacenter en vue d’empêcher d’autres utilisateurs de profiter des services ;
  • Les failles liées à l’hétérogénéité des technologies imbriquées dans l’architecture interne du cloud, et l’architecture externe d’interfaçage avec les utilisateurs.

Source :

Rapport du CSA

Rapport de l’ISACA

La sécurité dans le cloud une responsabilité partagée

kikontrolkoi

Par exemple Microsoft a décidé de jouer les clarifications dans un document PDF dédié justement au partage des responsabilités. Sans surprise, tout ce qui est en local chez le client relève de sa responsabilité exclusive. Mais les subtilités émergent rapidement dès que l’on parle IaaS, PaaS et SaaS.

responsabCloudMicrosoft

 

 

Microsoft entrevoit un partage des responsabilités pour l’infrastructure hôte et les contrôles réseau en IaaS. En PaaS, il accepte de prendre responsabilités plus étendues, totales sur la sécurité physique des installations, partielles pour celle des hôtes et les contrôle réseau. Sa responsabilité est en revanche totale sur ces deux derniers points en PaaS.

Dans ce mode-là, Microsoft engage partage, avec son client, la responsabilité des contrôles de sécurité liés aux applications et à la gestion des identités et des accès. En mode SaaS, l’éditeur assume l’entière responsabilité de la sécurité des applications, ainsi qu’une partie de celle des postes clients et des points de terminaison.

Dans tous les cas, la classification et la responsabilité sur les données relève du client. Microsoft précise ainsi que « le client est responsable de s’assurer que ses données sont identifiées, étiquetées et correctement classifiées. La distinction entre données clients sensibles et contenu marketing conçu pour être public doit être faite par le client ». Et de souligner la complexité de ce processus.

Il revient au client de gérer, classifier et configurer les solutions pour répondre à leurs besoins spécifiques de sécurité et de confidentialité ».

En matière de protection et de contrôle des terminaux, Microsoft précise ce qu’il entend par partage des responsabilités en mode SaaS : « les fournisseurs de services Cloud peuvent faciliter l’administration des terminaux […] Mais utiliser une solution d’administration des terminaux mobiles implique la responsabilité du client pour ses utilisateurs ».

 

 

La Sécurité doit évoluer avec le Cloud

securite-evolution

Lors des Assises de la sécurité (15ème édition), grand-messe du secteur de la cybersécurité qui se sont tenues du 30 septembre au 2 octobre à Monaco, se sont ouvertes par la traditionnelle conférence de l’ANSSI.(source Dorian Marcellin – le

Fabien Tanguy, Chief Technical Security Officer Europe du sud, de Qualys, le spécialiste du cloud présidé par Philippe Courtot, a ainsi déroulé une vision projetant l’assistance en 2035, dans une ère où les clouds, omniprésents, ont complètement changé la façon de penser l’informatique d’entreprise et la sécurité de l’information,l’ancien RSSI, qui a passé 10 ans chez Rothschild, a présenté le cloud non plus comme un facteur de risque, mais comme la solution.

« Nous en sommes à la préhistoire de la cybersécurité » a rappelé Franck Greverie, vice-président corporate cybersécurité chez Cap Gemini/Sogeti. « Depuis 2014, nous sommes entrés dans la période des « mega-breach »… que va-t-il se passer d’ici 2020 ? ». En essayant de décrire à Monaco ce que font « les meilleurs RSSI au monde », il en a appelé à mettre fin au dialogue de sourds entre les directeurs de système d’information (DSI) et leur responsable sécurité. « Le DSI est en train de transformer tout l’IT de l’entreprise pour accompagner la transformation numérique, en allant notamment vers de plus en plus de cloud hybride. La sécurité doit évoluer en même temps ».

La réglementation du Cloud Computing

Concernant l’extraterritorialité

L’informatique en nuage pourrait impliquer la conservation de données sur des serveurs situés dans des pays dont les mécanismes de protection juridique des données sont moindres ou moins efficaces que ceux prescrits dans un autre pays qui ne relèvent pas de la réglementation du pays d’origine.

Un facteur de risques supplémentaire est l’étendue de la législation étrangère, qui pourrait chercher à imposer des obligations de divulguer sur demande des données aux autorités nationales.

Comme pour toute externalisation de l’hébergement et de la conservation de données, il est important de mener en amont une étude de risques afin de définir le niveau de sécurité adapté pour chaque type de données, voire de déterminer si une donnée peut ou non être placée dans le nuage, tout en gardant à l’esprit le fait que la sécurité des données en interne n’est pas forcément meilleure et plus fiable que celle offerte par un prestataire de Cloud Computing.

Aujourd’hui , les droits de protection des données européens sont régis par la Directive 95/46/CE du Parlement européen et du Conseil du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.

La Directive vise à protéger le droit de la vie privée, et les libertés des personnes par rapport au traitement de données à caractère personnel.

cloudregleEurop2

Cette Directive fixe des limites strictes à la collecte et à l’utilisation des données à caractère personnel en Europe.

Elle interdit les transferts des données personnelles en dehors de l’Union européenne. Elle s’appuie donc sur le principe de territorialité.

Les transferts vers des pays tiers peuvent être licites s’ils sont encadrés et que les données personnelles font ainsi l’objet d’une protection adéquate.

cloudregleEurop1

Les outils ou procédures permettant d’encadrer ce type de transfert, développés au niveau européen, sont les « Clauses Contractuelles Types » qui doivent être signées entre les deux entreprises concernées par le transfert, et les règles internes d’entreprise (BCR, binding corporate rules) qui permettent le transfert de données au sein d’un groupe.

Par ailleurs, les transferts sont autorisés à destination des entreprises américaines ayant adhéré au régime du Safe Harbor dans le cadre de l’accord conclu entre l’UE et les Etats-Unis en 2001.

Le constat que l’on peut faire concernant la sécurité du cloud selon le point de vue européen

La règlementation européenne actuelle n’est pas adaptée au Cloud Computing.securitéEurop

Il reste des trous noirs dans la législation sur la protection des données européennes, car les solutions juridiques sont encore embryonnaires et ne présentent pas toutes les réponses à toutes les préoccupations.

La révision de la Directive européenne 95/46/CE sur la protection des données, condition nécessaire au développement de projets de Cloud Computing en Europe est devenue impérative pour prendre en compte les besoins de l’informatique dans les nuages.securitéEurop2

C’est pourquoi Bruxelles travaille sur une révision de cette directive, notamment pour tenir compte du Cloud Computing.

Un premier « darft » de cette révision a été publié début 2012, mais il faudra donc encore au moins deux ans avant que la nouvelle directive soit appliquée.

 

 

Les perspectives d’évolution du cadre réglementaire au niveau européen

La révision de la Directive de 1995, afin de prendre en compte l’évolution du monde numérique, obligeant les sociétés tant européennes qu’étrangères à traiter avec les autorités de chacun des vingt-sept Etats membres.

La Commission s’intéresse depuis 2009 au phénomène du Cloud Computing, en matière des risques liés à la sécurité des données, la fiabilité des systèmes, l’interopérabilité et la transportabilité permettant de changer de fournisseur de Cloud.

La Commission européenne a lancé trois actions spécifiques dans le domaine de l’informatique en nuage:

Action essentielle 1: Mettre de l’ordre dans le chaos des normes.

 Action essentielle 2: Des clauses et des conditions contractuelles sûres et équitables.

 Action essentielle 3: Mettre en place un partenariat européen en faveur de l’informatique en nuage pour faire du secteur public un moteur d’innovation et de croissance.

L’Institut européen de normalisation des télécommunications (ETSI) a institué un groupe «nuage informatique» chargé d’étudier les besoins en la matière et la conformité aux normes d’interopérabilité.

Les principaux axes stratégiques sont la création de partenariats pour stimuler l’adoption de ces technologies.

 

C’est dans ce sens que l’UE doit approfondir sa collaboration structurée avec les partenaires internationaux, pour procéder à des ajustements juridiques de nature à favoriser un déploiement plus efficient et efficace de l’informatique en nuage.

Conclusion

Le Cloud computing n’est pas un effet de mode. C’est une révolution dans la manière d’organiser, de gérer et de distribuer des ressources informatiques.

  • Le Cloud apporte son lot de nouveaux bénéfices mais aussi de nouvelles menaces
  • La Sécurité fait partie des tous premiers éléments à prendre en compte pour une intégration du Cloud dans son infrastructure existante
  • Il faut considérer la Sécurité tant au niveau technologique que gouvernance
  • L’apparition du Cloud dans les entreprises va favoriser une remise à plat des politiques et des techniques de Sécurité
  • La Sécurité est à considérer de bout en bout, du Datacenter au Poste Client, du service proposé à l’utilisateur final

Pour profiter pleinement de ses avantages,il faut mettre en place une réglementation efficace, dynamique, claire, et cohérente  qui garantit la transparence, la protection des données et le respect de leur intégrité  qui encourage l’innovation, l’investissement et la concurrence au niveau des infrastructures et   des services dématérialisés, tout en protégeant les intérêts des consommateurs.

Le monde a adopté le cloud. Comment ne pas aimer ? Les startups peuvent se développer rapidement sans avoir à investir dans des supports d’ordinateurs, les entreprises peuvent sauvegarder des données facilement, les consommateurs peuvent « voyager léger » et avoir toujours accès à leurs énormes photothèques et autres fichiers personnels.

Cependant, de véritables nuages ont eu raison des clouds métaphoriques lorsque l’ouragan Sandy a endommagé plusieurs centres de données clés à New York et au New Jersey. Ce fut un grave problème pour les entreprises qui avaient leurs principaux serveurs à New York et leurs serveurs de sauvegarde dans les environs de New Jersey. Les fournisseurs de services de cloud computing, pour la plupart, s’en sont bien sortis, sûrement parce que certains des centres de données les plus importants, comme le parc de serveurs en Virginie du nord, n’étaient pas dans la zone sinistrée. Toutefois Sandy a certainement rappelé aux fournisseurs de services de cloud computing que les fichiers redondants devaient être séparés les uns des autres par plusieurs milliers de kilomètres.

Mais le principal problème a été découvert plus tard, lorsque les quantités de données échangées via le cloud ont continué à augmenter et ont atteint des niveaux très importants. Cette augmentation s’explique par la naissance, ou l’explosion de l’utilisation de l’IT par les entreprises avec notamment les phénomènes « Bring your Own Device » et « Choose Your Own Device », et surtout avec l’utilisation toujours plus importante des objets connectés. D’ici 2020, le nombre d’objets qui seront connectés est estimé  à plus de 50 milliards. Il va sans dire que cela va entraîner une véritable avalanche de données. Il apparaît difficile pour la version conventionnelle du cloud computing d’apporter une efficience maximale dans ce cas. En effet, la gestion de milliards de données par Internet risque fort d’être rapidement problématique en termes de latence ou de bande passante. C’est précisément dans ce cas, irrémédiable, que le cloud computing laisse sa place au fog computing.

Le fog computing offre des services hébergés similaires au cloud computing, comme des ressources de traitement, des espaces de stockage ou encore des applications, mais qui vont être géographiquement à proximité des réseaux locaux. Alors que le cloud computing traite un très grand nombre de données, le fog computing est composé de très nombreux clouds de proximité, afin d’éviter une gestion et un traitement d’un tel nombre de données par une seule entité.

Le fog ne va pas avoir besoin de recourir au cloud où à un data center, ce qui va permettre une réduction du temps de gestion des données et une amélioration de la qualité du service rendu. De plus, les ces données ne remontant pas dans le cloud, le réseau de ce dernier s’en trouvera fortement soulagé. On peut en fait considérer le Fog computing comme la strate inférieure du cloud computing et ce dernier est d’ailleurs aujourd’hui considéré comme le cloud des objets connectés.

De plus, le fog computing peut apporter de meilleurs garantis sur le sujet de la sécurité. Les données traitées vont être stockées dans un « mini cloud » local et dédié à ces données, ce qui va leur apporter une plus grande confidentialité et sécurité.

Le fog computing est  un nouveau paradigme du Cloud Computing  initié par Cisco et spécialement conçu pour répondre aux exigenges du web des objets.

Avec 50 milliards d’objets qui deviendront connectés dans le monde d’ici 2020, il serait un peu difficile de tout gérer dans le cloud.Aussi appellé brouillard informatique,le fog  est un modèle dans lequel les données, le traitement et les applications sont concentrés dans les dispositifs à la périphérie du réseau  plutôt qu’entièrement dans le cloud.
En savoir plus sur http://www.automation-sense.com/blog/blog-objets-connectes/fog-computing-definition.html#fMA1ayPBSOpPfEpb.99

 Références

[1]http://www.nist.gov/itl/csd/cloud-102511.cfm

[2] http://blog.dropbox.com/?p=846 et http://www.dropbox.com/security

[3] http://phx.corporate-ir.net/phoenix.zhtml?c=97664&p=irol-newsArticle&ID=1072981

[4]http://www.zdnet.fr/actualites/cloud-et-patriot-act-microsoft-susceptible-de-transmettre-des-donnees-aux-etats-unis-39762281.htm

[5]http://www.01net.com/editorial/534667/dropbox-victime-d-une-faille-de-securite-beante/

[6] http://www.enisa.europa.eu/act/rm/files/deliverables/cloud-computing-risk-assessment

[7] http://www.wuala.com/fr

[8] http://www.dcg.ethz.ch/publications/srds06.pdf

[9] http://crypto.stanford.edu/~dabo/papers/encsearch.pdf

[10] http://www.forbes.com/forbes/2009/0713/breakthroughs-privacy-super-secret-encryption.html et http://pages-perso.esil.univmed.fr/~bonnecaze//VETO/primitives_crypto.pdf, p23 et 24

[11] Article 38 de l’ordonnance 2011-1012 du 24 août 2011: http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000024502658&categorieLien=id

[12]http://www.ifop.com/media/poll/2979-1-study_file.pdf

[13]http://cloud-computing.developpez.com/cours-tutoriels/

[14]http://www.config.fr/press/Livre_Blanc_Cloud_Computing_Securit%C3%A9.Vdef.pdf

[15]https://www.clusif.asso.fr/fr/production/ouvrages/pdf/CLUSIF-Cloud-2010-Securite.pdf

[16]http://nauges.typepad.com/my_weblog/2016/03/3-d%C3%A9cisions-simples-radicales-pour-amorcer-la-modernisation-de-son-si.html

[17]http://www.figer.com/Publications/nuage.htm#.V1g6EfntlBd

[18]https://fr.wikiversity.org/wiki/Cloud_computing_et_entreprise

[19]http://www.cnet.com/au/how-to/onedrive-dropbox-google-drive-and-box-which-cloud-storage-service-is-right-for-you/

[20]http://connect.ed-diamond.com/MISC/MISC-060/Introduction-au-Cloud-Computing-risques-et-enjeux-pour-la-vie-privee

[21]http://www.afnor.org/liste-des-evenements/agenda/2014/decembre/les-premieres-normes-internationales-sur-le-cloud-computing-rencontre-exclusives-le-2-decembre-a-st-denis

[22]http://fr.slideshare.net/TechnetFrance/microsoft-private-cloud-faites-voluer-votre-datacenter-vers-un-centre-de-services-18668179

[23]https://www.akamai.com/fr/fr/solutions/why-akamai/cloud-security.jsp

[24]http://fr.slideshare.net/nicolashennion/cours-dintroduction-au-cloud-computing

[25]http://fr.slideshare.net/nicolashennion/cours-dintroduction-au-cloud-computing?next_slideshow=3

[26]http://www.aiservice.fr/suppression-virus-depannage-installation-maintenance-informatique-paris-5eme-75005-big-data-en-chiffre-24-milliards-de-dollars-2016

[27]http://www.datacentermap.com/cloud/sql-cloud.html

[28]http://www.zdnet.fr/dossier/saas-faire-les-bons-choix-4000237287.htm

[29]http://www.lemagit.fr/ressources/Collaboratif

[30]http://www.coe.int/fr/web/commissioner/-/do-not-switch-human-rights-off

[31]http://www.internetactu.net/2009/01/23/nicolas-carr-est-ce-que-google-nous-rend-idiot/

[32]http://michelvolle.blogspot.fr/search/label/Informatisation


Sauvegardez vos documents en ligne gratuitement!

Cloud Gratuit

 

Société Taille Espace Observations
GiGa 500 Go Pour une fois que l’on peut faire cocorico, il ne faut pas hésiter. GiGa, un service français propose 500Go, oui 500Go gratuitement. L’offre payante est intéressante aussi.
Mega 50 Go Le sulfureux Kim Dotcom propose 50gb gratuits. Attention, son précédent site avait été fermé par les autorités du jour au lendemain, laissant les utilisateurs dans la panade!
sfshare 50 Go Sfshare propose 50gb gratuitement.
HubiC 25 Gb Le mastodonte français de l’hébergement web propose un service de cloud en ligne gratuit de 25 Gb!!! Quelques petits soucis techniques mais qui sont en voie de disparition, une offre illimitée à un prix défiant toute concurrence, un des rares opérateurs français à soutenir si vos données sont sensibles, en effet, en cas de recours, s’adresser à une société domiciliée en France est important! Si vous parrainez des proches, vous pouvez augmenter votre espace jusqu’à 50 Go.
Bajoo 25 Go EDIT 29/04/2016: Le logiciel consomme beaucoup de ressources (merci Adel pour ton commentaire)….25Go de stockage parait-il en France gratuitement. Attention car mentions légales vides..
pCloud 20 Go 20Gb gratuits stockés en Suisse. Que demande le peuple????
Google Drive 17 Go Google propose un espace gratuit pratique de 15gb. Véritable couteau suisse, les diverses applications google vous permettent d’ouvrir vos fichiers facilement, même sans les logiciels propriétaires habituels tels qu’Excel ou Word.
OneDrive 5 Go Microsoft a rattrapé son retard dans le cloud avec une offre multiplateforme. Pratique si vous avez déja une adresse hotmail ou outlook.
Yandex Disk 10 Gb 10 gb chez l’une des plus grosses sociétés internet russe. Yandex, c’est d’abord un moteur de recherche, mais ils font aussi de l’analytics et autres. Ils se lancent dans le stockage, c’est cool!
Box.com 10Gb Box est le concurrent numéro 1 de Dropbox! A noter que si vous avez acheté un téléphone samsung galaxy s3 ou un LG nexus4, vous pouvez avoir un compte gratuit beaucoup plus important.
Syncplicity 10 Gb
pCloud 20 Go 20Gb gratuits stockés en Suisse. Que demande le peuple????
Google Drive 17 Go Google propose un espace gratuit pratique de 15gb. Véritable couteau suisse, les diverses applications google vous permettent d’ouvrir vos fichiers facilement, même sans les logiciels propriétaires habituels tels qu’Excel ou Word.
OneDrive 5 Go Microsoft a rattrapé son retard dans le cloud avec une offre multiplateforme. Pratique si vous avez déja une adresse hotmail ou outlook.
Yandex Disk 10 Gb 10 gb chez l’une des plus grosses sociétés internet russe. Yandex, c’est d’abord un moteur de recherche, mais ils font aussi de l’analytics et autres. Ils se lancent dans le stockage, c’est cool!
Box.com 10Gb Box est le concurrent numéro 1 de Dropbox! A noter que si vous avez acheté un téléphone samsung galaxy s3 ou un LG nexus4, vous pouvez avoir un compte gratuit beaucoup plus important.
Syncplicity 10 Gb
Mediafire 10 Gb 10 gb gratuitement chez MediaFire!
Flipdrive 10 Gb 10 gb gratuitement chez Flipdrive! Pas de programme à installer, tout se fait en ligne. Vous pouvez partager vos fichiers avec qui vous voulez…
Ozibox 10 Gb 10 gb gratuitement chez Ozibox! Fonctionnement pareil que Dropbox, à savoir un programme windows qui synchronise un répertoire.
Digiposte, le cloud de La Poste 5 Go Service basé en France, par une institution créée en 1576, donc peu de chance que le service disparaisse 😉 Pratique pour déposer des copies de documents d’identité ou documents précieux. Hébergé en France!
Apple iCloud 5 Gb gratuit nécessite identifiant Apple Le service d’Apple, à ma connaissance il faut un iphone ou imac pour en profiter à fond.
Amazon Cloud Drive 5 Gb Le mastondonte Amazon vous offre 5 Gb, qualité de service au top.
Cubby 5 Gb
Bitcasa 5 Gb Bitcasa propose 5gb gratuitement, par contre pas de partage sécurisé, 3 accés max et pas de streaming.
Idrive 5 Gb Idrive propose 5Gb.
HiDrive 5 Gb HiDrive, de la société STRATO, propose 5Gb gratuits sur leurs serveurs en Allemagne.
Sync.com 5 Gb
Jottacloud 5 Gb ent.
SpiderOak 2 Gb Recommandé par Edward Snowden, le consultant de la NSA, pour le respect de la vie privée.
Dropbox 2Gb (si vous parrainez vos amis vous gagnez du stockage) Excellent service de cloud. Ca marche bien, ca ne rame pas. Le fait de gagner de l’espace en parrainant ses amis est très pratique pour augmenter son espace gratuitement.

 

 

 

 

 

 

 

 

 

 

Laissez un commentaire