Origines d’internet

Origines d’internet

Origines d’internet

L’hypertexte

(d’après les Travaux de recherche de l’URFIST)
Vannevar Bush evanevarst l’inventeur de l’Hypertexte c’est un Mathématicien-physicien américain (1890-1974)
Chapter_3-86
On peut retenir de lui Trois facettes :

  • L’ingénieur-chercheur :
  • Analyseur différentiel, Memex…
  • MemexTimeMagazineLe gestionnaire de la recherche scientifique, le coordonnateur de l’effort de guerre scientifique

Le memex est un ordinateur analogique fictif décrit par le scientifique Vannevar Bush dans l’article As We May Thipublié en 1945 dans la revue The Atlantic Monthly. Le nom est la contraction de memory extender (« gonfleur de mémoire »). Dans son article, Bush décrit un appareil électronique relié à une bibliothèque capable d’afficher des livres et de projeter des films. Cet outil est aussi capable de créer automatiquement des références entre les différents médias.

 

Le memex.
Le memex.
 Il prédit l’invention de l’ hypetexte bien avant son invention et énonce un système  appelé  « MEMEX », sorte d’ordinateur analogique théorique relié à une bibliothèque de médias (livres, films,..) créant automatiquement des références entre les différents médias. Ce système est un « supplément agrandi et intime de sa mémoire » qui selon l’ingénieur américain « devrait améliorer la manière dont les hommes produisent ».
Ainsi, on peut considérer que Vannevar Bush, par le biais de la capacité du  MEMEX à stocker les informations, est un précurseur à l’ordinateur personnel, caractérisé par lui-même comme étant « un meuble où l’on travaille ».

Cette vision a directement influencé des pionniers de l’informatique moderne tels que Douglas Engelbart et a posé les fondations de l’hypertexte créé par Ted Nelson, à l’origine du World Wide Web.

Le memex ne se contente pas uniquement de permettre à un utilisateur de naviguer parmi les informations, mais il offre aussi un moyen d’établir des liens entre les informations. La machine est un assemblage d’éléments électromécaniques, de caméras et de microfilms, intégré dans un grand bureau. La plupart des microfilms nécessaires auraient été intégrés dans le bureau, mais un système de chargement aurait permis à l’utilisateur d’ajouter et de retirer des microfilms.vanevar_memex

En 1941, Bush prend la tête du OSRD et devient le maître d’œuvre de la recherche scientifique des États-Unis en guerre, avec d’importants effectifs, environ 6 000 scientifiques. Il sera une des têtes pensantes du projet Manhattan qui conférera l’arme atomique aux États-Unis.

Douglas Engelbart, l’inventeur de la souris

douglasengelbartmouseNé dans l’Oregon, il s’était installé au Sud pour devenir chercheur au Stanford Research Institute, après des études d’ingénierie électrique et informatique dans les années 1950, une époque où les ordinateurs occupaient encore des pièces entières. Ses recherches ont ainsi porté sur la visioconférence, la téléconférence, le courrier électronique, les « fenêtres » et le lien hypertexte mais il est surtout connu pour avoir inventé la souris d’ordinateur.

Doug_Enlbart

__________

L’hypertexte, Ted Nelson et Xanadu

– Avec le projet Xanadu Ted Nelson (sociologue né en 1937)
a l’ Idée d’un système de publication mondial :

Ted Nelson & le projet XANADU en 1960 : il imagine un système d’information permettant le partage instantané et universel des données informatiques. Son application est l’hypertexte.
– Où chacun pourrait publier ses documents
– Où tous les documents seraient reliés par des liens
– Notion de «transclusion»:

Ce serait une sorte de « copie virtuelle » d’un document, avec la possibilité de récupérer une partie de document

http://fr.wikipedia.org/wiki/Projet_Xanadu

Le concept de l’hypertexte a été repris par de nombreux pionniers de l’informatique comme Douglas Englebart, inventeur de la souris qui mis au point une interface homme-machine dans les années 1960 ou encore Tim Berners-Lee en 1989 pour définir les bases du World Wide Web.

Ted Nelson, s’est lui-même inspiré des travaux de Vannevar Bush et son projet « memex ».

  • Anobli, officier des Arts et des lettres en 2001 par  le ministre Français de la culture pour son travail sur Xanadu et l’hypermédia.
  • Il est actuellement professeur à l’université d’Oxford en Angleterre

La cybernétique, 1945 – 1950

Le fondateur de la Cybernétique est Norbert Wiener:

Wiener

Norbert Wiener , l’inventeur de la cybernétique

Etymologie : cybernétique vient du grec kubernêtikê = art du pilotage, kubernetikos = propre à être piloté ; latin gubernator = gouvernail > gouvernement

Il fut un pionnier dans l’étude de la stochastique et du bruit, contribuant ainsi par ses travaux à l’électrotechnique, les télécommunications et les systèmes de contrôle. En fondant la cybernétique, Wiener introduit en science la notion de feedback (rétroaction), notion qui a des implications dans les domaines de l’ingénierie, des contrôles de système, l’informatique, la biologie, la psychologie, la philosophie et l’organisation de la société.

Il exposa ses théories sur la cybernétique dans son livre Cybernetics or Control and Communication in the Animal and the Machine, parution qui bouscula durablement jusqu’au scandale, le monde des idées, traversant la pensée scientifique et philosophique de la deuxième moitié du XXe siècle, dont il est à ce titre, un des grands penseurs.

C’est une discipline de la Science du contrôle et des communications, fondé en 1948 après guerre dans un contexte bouillonnant dont les origines immédiates seraient

La préoccupation du guidage des missiles pendant la guerre (notion de feedback)

Pourquoi la cybernétique ?

L’apport de Wiener dans les sciences de l’information est intéressant, car il met en lumière les concepts clés de la communication. Norbert Wiener s’intéresse aux échanges d’information autour de l’objet  ( et l’être humain ) plutôt que le contenu de l’objet  (ou la pensée de l’être humain ). Il introduit la cybernétique : le pilotage des messages dans leur efficacité. Il applique ces concepts autant aux machines qu’à la société humaine en général. « vivre, c’est communiquer efficacement ». L’homme est un réseau de communication. Et mieux vivre ensemble, c’est mieux communiquer.

Pendant la seconde guerre mondiale, Norbert Wiener travaille sur l’amélioration des batteries anti-aériennes afin de les automatiser. 2 points importants à évoquer. D’une part, anti militariste, il refuse de travailler sur le projet Manathan ( la mise au point de la bombe atomique ). Cela expliquera la démarche du scientifique plus tard.

D’autre part, son travail sur les batteries anti-aériennes définit clairement la cybernétique. Ou l’art de « gouverner », ou de piloter. Ses recherches consistent à pouvoir définir de manière prédictive la position d’un missile ou bombe, en fonction de sa trajectoire.

Rétroaction et information

N. Wiener introduit la notion de rétroaction, concept clé de la cybernétique.

Comme le missile anti balistique, Norbert Wiener prend l’exemple du canotier qui doit ajuster la mesure de l’huile de son canon afin d’atteindre une cible. En fonction de la où tombe le projectile, le canotier augmente ou pas la quantité d’huile du canon. Il effectue ce réajustement jusqu’à ce que le projectile atteigne sa cible. Comme le mouvement du chaton qui s’ajuste pour au final attraper une pelote de laine.

Ce principe de rétroaction vaut aussi bien pour les machines ( portes automatiques qui en fonction d’un capteur ouvre ou ferme au bon moment les portes, via un capteur ) que l’être humain. Les recherches de N. Wiener, si elles s’intéressent à la machine et l’homme,  les mettent au même plan :

  • La machine/l’homme  capte des signaux via un capteur ( photo sensoriel  par exemple ). ( Input ).
  • Renvoie un signal ( Output ) ( fermeture de la porte / mouvement corporel du bras ).
  • Via un programme (  calcul en fonction de paramètres ).
  • Les paramètres nécessaires au programme sont le signal reçu (input) et des variables intermédiaires  stockées ( permettant de gérer la rétroaction au fil du temps ). Il s’agit de la mémoire.

L’homme comme la machine sont vus comme une « boîte noire ». Toute la recherche de N. Wiener est de s’intéresser aux échanges entre les Entrées/Sorties, plutôt qu’à son contenu. ( L’intelligence artificielle procède de ce fonctionnement ).

« L’homme est plongé dans un monde qu’il perçoit par l’intermédiaire de ses organes. L’information qu’il reçoit est coordonnée par son cerveau et son système nerveux, jusqu’à ce que, après le processus convenable d’emmagasinement, de collation, et de sélection, elle soit diffusées à travers des organes de l’action, ses muscles généralement ».

L’intérêt d’une information ou d’un signal réside dans son efficacité et son contrôle, afin de réaliser au mieux l’action , le résultat souhaité.

La cybernétique et Internet

En esquissant une généalogie politique d’Internet, Benjamin Loveluck entend “resituer les transformations contemporaines” d’Internet dans la perspective du “temps long”. Le chercheur étudie la genèse d’Internet et le projet politique porté par le réseau. Il souligne que la révolution numérique prend ses racines dans la pensée cybernétique, dès les années 1940-1950.

Très ambitieuse pour son époque, la cybernétique emprunte à beaucoup de sciences (mathématiques, logique, anthropologie, psychologie, économie…) pour proposer un système de compréhension de la circulation de l’information. Pensée originellement par Norbert Wiener, elle envisage un système d’auto-régulation voire d’auto-organisation de l’information. La pensée cybernétique anticipe l’usage des ordinateurs, non seulement comme instruments de calcul, mais aussi comme outil de communication modifiant les rapports entre les hommes. Cette science envisageait également les effets sociaux et politiques des avancées techniques, avec des problématiques toujours d’actualité, telles que l’automatisation du travail.

 

De gauche à droite : Norbert Wiener, John Von Neumann, et Joseph Licklider, trois penseurs majeurs de la cybernétique | CC Wikimedia Commons

L’influence de la cybernétique sur Internet a été considérable. Outre l’emprunt lexical (feedback ou boucle de rétroaction,input/output), ce sont les mêmes penseurs de la cybernétique, qui se rassemblaient dans les conférences Macy dans les années 1940, qui sont à l’origine du réseau. John Von Neumann est considéré comme le concepteur de l’ordinateur moderne, tandis que Joseph Licklider est le fondateur d’Arpanet.

  • Une histoire traversée de visions concurrentes de l’information
RéseauLibertesControle
Réseaux, libertés et contrôle (2015, éditions Armand Collin) explore les conceptions concurrentes qui ont sous-tendu – et sous-tendent encore – la construction et le développement de l’Internet. Un réseau vecteur de liberté ou instrument de surveillance ? Créateur de richesses et/ou destructeur d’emplois ? Facilitateur culturel et/ou contempteur de la création ? Ce sont quelques unes des tensions qui traversent l’histoire du net, financé, à l’origine, par l’armée américaine mais également nourri par la contre-culture hippie.

Dès sa naissance, Internet a été traversé par des visions concurrentes de l’information.

Selon Benjamin Loveluck, le net a notamment toujours balancé entre liberté et contrôle.

  • Une typologie des formes d’auto-organisation de l’information

(source http://atelier.rfi.fr/profiles/blogs/pour-une-genealogie-politique-de-l-internet)

A partir des perceptions concurrentes identifiées au fil de cette histoire des réseaux, Benjamin Loveluck décrypte des projets emblématiques tels que Google, WikiLeaks ou Wikipédia à l’aune des formes d’organisation qu’ils promeuvent.

Citant Matthew Hindman, qui considère que l’auto-organisation du web est une “googlearchie”, Benjamin Loveluck s’interroge sur la vision politique promue par Google. Devant la myriade de services proposés par la puissante entreprise américaine, le chercheur souligne les conséquences politiques des choix effectués par ses dirigeants. Bien que parés de neutralité et d’objectivité, ces choix redéfinissent l’espace public et les limites de la vie privée en fonction de leurs intérêts. C’est le cas du page rank, l’algorithme qui classe les résultats de recherches des internautes. Ce classement encourage un effet de réseau, selon lequel l’utilité d’une information s’accroît au fur et à mesure qu’elle se diffuse. Bien qu’étant un intermédiaire, Google (comme Facebook) définit, par ces outils de captation algorithmique, des mécanismes de valorisation de l’information.

Benjamin Loveluck décrit comment la vision portée par des portails propriétaires, comme Yahoo dans les années 2000 ou Google et Facebook aujourd’hui, se confronte aux ambitions libertariennes nées avec le cyberespace.

Exaltation de la liberté individuelle, le cyberespace tel qu’il est promu par John Perry Barlow dans sa Déclaration d’indépendance du cyberespace de 1996 n’est “pas borné de frontière”. John Perry Barlow, “Thomas Jefferson du cyberespace”, va au-delà de la conception libérale portée par la démocratie américaine et considère le cyberespace comme “un acte de la nature”.

Cette vision libertarienne se heurte à celles d’industriels qui cherchent à exploiter le potentiel marchand d’Internet, comme le montre la série de procès de la part des ayant droits contre le peer-to-peer au début des années 2000, à l’instar de l’affaire Napster. Selon les tenants radicaux des libertés numériques, il est nécessaire de re-dessiner les règles établies par l’industrie numérique naissante face à la facilité de copie et de diffusion de l’information.

La conception libertarienne va à l’encontre des tentatives de transposition des mécanismes industriels au numérique et d’extension des droits de propriété intellectuelle, comme le promeut par exemple Bill Gates. Les libertariens y opposent un mode d’organisation décentralisé. La décentralisation radicale s’inscrit ainsi dès le départ comme une voie alternative au modèle de captation à l’oeuvre chez les GAFA (Google Amazon Facebook Apple). Outre le pair à pair, Wikileaks de même que le bitcoin – soutenu par la technologie blockchain – sont de bons exemples de ce que Benjamin Loveluck appelle des stratégies de “dissémination”.

Une explication de la blockchain

Actuellement, la blockchain est un phénomène à la pointe de l’innovation; les créations de start ups se multiplient sur le sujet, les plus vieux articles consacrés à la technologie n’ont pas plus d’un an, et les investisseurs mobilisent d’ores et déjà des sommes gigantesques pour s’assurer de ne pas louper le coche.

La blockchain est pressentie comme une innovation majeure, et de nombreux pronosticsavancent même qu’elle va bouleverser nos modes de vie au même titre qu’Internet ou que l’imprimerie.

C’est pour cette raison qu’il est si important de se tenir informé sur le sujet, et ce surtout en France où l’opinion publique est encore peu avertie à ce propos.

Situer la Blockchain

En 2009 s’est créée une monnaie numérique, le Bitcoin.

Cette monnaie reposait sur une technologie qui certifiait que les Bitcoins ne pourraient pas être dupliqués, et qui s’assurait donc que cette monnaie ne serait pas falsifiable: cette technologie s’est appelée la blockchain.

Le concept ? Chaque Bitcoin est « traçable » depuis sa création grâce à des fichiers détenus et mis à jour par chaque utilisateur de la monnaie. Chacun peut dire à quel moment tel Bitcoin a transité par tel compte, ce qui veut dire que créer des faux Bitcoin est impossible sans que cela ne se voit sur la « chaîne » des transactions.

Là où la révolution commence, c’est lorsque des développeurs ont eu l’idée d’utiliser ce système pour autre chose que la monnaie Bitcoin.

Le différend idéologique qui oppose les logiques de captation et de dissémination a trouvé une troisième issue, qualifiée d’”auto-institution” par Benjamin Loveluck. L’auto-institution est un modèle qui, contrairement au peer-to-peer, ne vise pas à transgresser les normes. Il s’agit plutôt de jouer dans le respect du droit pour proposer une nouvelle règle normative d’autonomie par les réseaux. Des régimes juridiques viennent ainsi encadrer des projets décentralisateurs, tels que les logiciels libres ou Wikipedia.

Originellement Nupedia, Wikipedia est un projet fondé par Jimmy Wales. Il figure aujourd’hui parmi les dix sites les plus visités d’Internet. Cette encyclopédie collaborative s’inspire des principes fondateurs des logiciels libres, à l’origine d’un modèle d’organisation plus institutionnalisé.

Moins utopistes qu’un Richard Stallman (initiateur du projet de logiciel libre GNU) ou qu’un Linus Torvalds (créateur du noyau Linux, système d’exploitation développé en logiciel libre), Lawrence Lessig est une icône de cette veine “libérale-constitutionnaliste”. Convaincu du pouvoir du partage de la connaissance et de la créativité, il est à l’origine de l’encadrement des droits de propriété intellectuelle sous licence Creative Commons. Professeur de droit, Lessig propose de confronter le code à la Constitution et aux droits fondamentaux, et de réfléchir en termes de division du pouvoir. Selon Lessig, le code est issu de choix qui ont un impact sur les usages : c’est le sens de son adage “code is law

Les conférences Macy

confmacy

10ème  Conférence de Macy (1953)

1er rang de gauche à droite:
T.C. Schneirla, Y. Bar-Hillel, Margaret Mead, Warren S. McCulloch, Jan Droogleever-Fortuyn, Yuen Ren Chao, W. Grey-Walter, Vahe E. Amassian.
2ème rang de gauche à droite:
Leonard J. Savage, Janet Freed Lynch, Gerhardt von Bonin, Lawrence S. Kubie, Lawrence K. Frank, Henry Quastler, Donald G. Marquis, Heinrich Kluver, F.S.C. Northrop.
3ème rang de gauche à droite:
Peggy Kubie, Henry Brosin, Gregory Bateson, Frank Fremont-Smith, John R. Bowman, G.E. Hutchinson, Hans Lukas Teuber, Julian H. Bigelow, Claude Shannon, Walter Pitts, Heinz von Foerster

Les conférences Macy, organisées à New York par la fondation Macy à l’initiative du neurologue Warren McCulloch, réunirent à intervalles réguliers, de 1942 à 1953, un groupe interdisciplinaire de mathématiciens, logiciens, anthropologues, psychologues et économistes qui s’étaient donné pour objectif d’édifier une science générale du fonctionnement de l’esprit. Elles furent notamment à l’origine du courant cybernétique, des sciences cognitives et des sciences de l’information

C’est aux États -Unis avec le réseau ARPANET qu’est née l’interaction informatique

ARPANET

(acronyme anglais de « Advanced Research Projects Agency Network », souvent typographié « ARPAnet ») est le premier réseau à transfert de paquets développé aux États-Unis par la DARPA. Le projet fut lancé en 1969 et la première démonstration officielle date d’octobre 1972.

Le concept de transfert de paquets (packet switching), qui deviendra la base du transfert de données sur Internet, était alors balbutiant dans la communication des réseaux informatiques. Les communications étaient jusqu’alors basées sur la communication par circuits électroniques, telle que celle utilisée par le réseau de téléphone, où un circuit dédié est activé lors de la communication avec un poste du réseau.

Paul Baran & la naissance d’ARPANET

Paul Baran est un chercheur né en Pologne en 1926. Sa famille immigre aux Etats-Unis en 1928. Apres avoir obtenu son diplôme en ingénierie électrique a la Drexel University, il prend un emploi comme technicien à la Eckert-Mauchly Computer Corporation. Peu de temps après il se marie, déménage à Los Angeles et se fait recruter par la Huges Aircraft Company . Il prend des cours du soir à l’UCLA et obtient en 1959 une maîtrise en génie . Durant cette même année il quitte la Huges Aircraft company pour rejoindre le groupe de recherche en informatique de la RAND Corporation.

Paul Baran est considéré comme un des acteurs principaux de la création d’Internet. En 1964, il a l’idée, de créer un réseau sous forme de grande toile. Il avait réalisé qu’un système centralisé était vulnérable car la destruction de son noyau provoquait l’anéantissement des communications. Il mit donc au point un réseau hybride d’architectures étoilées et maillées dans lequel les données se déplaceraient de façon dynamique, en « cherchant » le chemin le moins encombré, et en « patientant » si toutes les routes étaient encombrées. Cette technologie fut appelée « packet switching ».

Quelques années plus tard, quand Larry Roberts se mit a travailler sur le projet ARPANET , il entendit parler des travaux de Baran. Roberts proposa alors de les utiliser pour faciliter la communication entre les chercheurs de l’ARPA et leur permettre de se servir efficacement des ressources informatiques à distance.. ARPANET est le 1er premier réseau à transfert de paquets développé aux États-Unis par la DARPA. Le lancement du projet date de 1969 et la première démonstration officielle, d’octobre 1972.

Les composants d’Internet

Internet est composé d’une multitude de réseaux répartis dans le monde entier

Chaque réseau est connecté à plusieurs autres réseaux (réseaux d’entreprises, université, armée, fournisseur d’accès à internet FAI, …)

D11_composantinternet
Les composants du réseau

Aucun élément d’Internet ne connaît le réseau dans son ensemble.

Pour véhiculer les données, plusieurs supports peuvent être utilisés :

  • les câbles (signaux électriques)

  • l’atmosphère (ondes radios)

  • les fibres optiques (ondes lumineuses)

Pour faire la liaison entre les différents réseaux et diriger les données, on peut trouver :

  • un routeur : élément intermédiaire permettant l’aiguillage des données

  • un concentrateur (hub) ou commutateur (switch) : équipements qui relient plusieurs éléments d’un réseau

  • une passerelle : dispositif permettant de relier deux réseaux de nature différentes (par exemple, un réseau local avec le réseau Internet)

A l’extrémité de ces réseaux, on peut trouver :

  • un ordinateur d’un particulier connecté temporairement à Internet

  • un ordinateur « hôte » constamment connecté à Internet (par exemple, un serveur web)

  • un périphérique (par exemple, une imprimante)

Les protocoles de communication
Les protocoles réseaux
Qu’est ce qu’un protocole et à quoi sert-il ?

couches-protocoleUn protocole de communication est un ensemble de règles et de procédures permettant de définir un type de communication particulier. Les protocoles sont hiérarchisés en couches, pour décomposer et ordonner les différentes tâches. Il existe plusieurs familles de protocoles ou modèles, chaque modèle étant une suite de protocoles entre diverses couches. Parmis ces modèles on trouve le OSI et le TCP/IP.

Le système TCP/IP

TCP/IP ou «Transmission Control Protocol/Internet Protocol » («protocole de contrôle de transmissions» en Français) est un protocole de transport fiable, en mode connecté, c’est-à-dire qu’il permet l’établissement d’une session de communication entre deux parties qui veulent échanger des données.

TCP/IP représente d’une certaine façon l’ensemble des règles de communication sur internet et se base sur la notion d’adressage IP, c’est-à-dire le fait de fournir une adresse IP à chaque machine du réseau afin de pouvoir acheminer des paquets de données vers chaque ordinateur.

D11_protocolehttp
Description du protocole http

Etant donné que la suite de protocoles TCP/IP a été créée à l’origine dans un but militaire, elle est conçue pour répondre à un certain nombre de critères parmi lesquels :

  • Le fractionnement des messages en paquets, c’est-à-dire qu’elle permet de découper les gros paquets
    de données en plus petit pour que IP les accepte
  • L’utilisation d’un système d’adresses,     
  • L’acheminement des données sur le réseau,
  • Le contrôle des erreurs des transmissions de données.

Pour consulter une page web, l’utilisateur écrit une URL (par exemple : http://www.cnil.fr) dans la barre d’adresse de son navigateur.

  1. Protocole d’application HTTP : Une requête HTTP est envoyée par le navigateur au serveur web contenant entre autres, la localisation exacte de la ressource demandée et l’adresse IP de l’internaute pour le retour d’informations.

  2. Protocole de transport TCP/IP : Les informations transitent via le réseau

  3. Protocole d’application HTTP : Le serveur web réceptionne la demande et effectue une réponse HTTP contenant la page web demandée

 

-1974 : mise au point de TCP (Transmission Control Protocol), par Vinton Cerf et Robert Kahn.

-Objet : interconnexion de réseaux hétérogènes

-1976 : adoption du protocole X25 comme norme ISO :

-interconnexion des réseaux de télécommunications

-1976 : mise au point de UUCP (Unix to Unix CoPy) :

-Objet : interconnexion de machines UNIX

-1978 : TCP/IP amélioration de TCP, avec la partie IP (Internet Protocol)

-IP gère les processus de routage, TCP contrôle le processus de connexion

-N° IP : n° d’une machine sur le Net.

Ex. : 193.52.64.243

-Phénomène de boule de neige de l’essor des réseaux informatiques

-Importance cruciale des protocoles :

-Internet =TCP/IP

-Rôle-clé des utopies techniques d’Arpanet :

-Liberté et ouverture des standards : architecture ouverte de TCP/IP

-Libre partage des ressources

-Permanence des controverses socio-techniques :

-Temps partagé/traitement par lots, TCP-IP/X 25, UNIX/Windows, Linux/Windows, libre accès/accès propriétaire…

-Internet comme réseau de recherche et d’échange des savoirs

Le début de l’histoire : 1989

Tim Berners-lee a eu un jour l’idée de créer un réseau décentralisé pour son laboratoire.

Objectif : partager de l’information entre scientifiques.

Le projet est qualifié de « vague mais prometteur » par son chef au Cern (European Organization for Nuclear Research)

Mars 1989, texte de Tim Berners-Lee : « Information Management: A Proposal »

Proposition d’un système hypertexte, pour améliorer la diffusion des informations internes

Tim Bernes-Lee

  • Sir Timothy John Berners-Lee
  • Né à Londres le 8 juin 1955
  • Il est le co-inventeur avec Robert Cailliau du World Wide Web.
  • En 1989, il propose un projet hypertexte global, qui sera connu par la suite sous le nom de World Wide Web. Ce projet est conçu pour permettre aux utilisateurs de travailler ensemble en alliant leurs connaissances au sein d’un réseau de documents hypertexte. Tim Berners-Lee développe le premier serveur World Wide Web et le premier client, un logiciel de navigation/édition hypertexte qui fonctionne dans l’environnement NeXTStep.

En 1990 le programme « WorldWideWeb » est mis à la disposition du CERN en décembre, puis sans restriction sur Internet au cours de l’été 1991.

  • Dans la même année il développe donc les trois principales technologies du web : les adresses Web, le HTTP et le HTLM.
  • Il est encore aujourd’hui le président du W3C.

En Mars 1989, Tim Berners-Lee a écrit la première proposition pour le World Wide Web au CERN, l’Organisation européenne pour la recherche nucléaire, à Genève, en Suisse. Intitulée «Gestion de l’information: une proposition », le document ouvert avec cette déclaration: «La présente proposition concerne la gestion de l’information générale sur les accélérateurs et les expériences au CERN Il aborde les problèmes de perte d’informations sur les systèmes complexes en évolution et en tire une solution basée sur. un système hypertexte distribué.  » La proposition, présentée le 13 Mars, construit sur des idées qui Berners-Lee avait travaillé avec l’ingénieur des systèmes belge Robert Cailliau. Décrivant les concepts centraux et la définition des termes derrière le Web, le document décrit un «projet d’hypertexte » appelé « WorldWideWeb » dans laquelle un « web » de « documents hypertextes » pourrait être vu par « navigateurs ». Rien de tout cela jargon technique peut sembler particulièrement attrayant, mais aujourd’hui, ce système est venu toucher presque chaque partie de notre vie.

Robert Cailliau

Robert_Cailliau_On_Desk

Robert Cailliau assis à côté d’un Macintosh affichant NCSA Mosaic.

Robert Cailliau suit des études d’ingénieur à l’Université de Gand, puis l’Université du Michigan.

À partir de 1974, il travaille au CERN à Genève. En 1990, il rejoint son collègue Tim Berners-Lee sur un projet de systèmehypertextedestiné à améliorer le partage des documents au CERN. Contrairement à d’autres personnes contactées par Tim Berners-Lee, il s’enthousiasme immédiatement pour le projet1. Il collabore à la seconde version du document décrivant le projet dont le résultat sera leWorld Wide Web.

Il collabore également au développement et à la promotion des prototypes de logiciel pour le Web créés par Tim Berners-Lee surNeXTSTEP. En 1992, il commence le développement du premier navigateur Web pour Macintosh, avant que NCSA Mosaic ne prenne le pas. En décembre 1993, il lance les « Web Conferences ».

Il est actuellement membre actif de Newropeans pour lequel il publie le une proposition pour une politique européenne de la société de l’information

Naissance et développement du web

World Wide Web ou Web ou WWW ou W3 ou Toile d’araignée mondiale

Ensemble de serveurs reliés les uns aux autres par :

Des liens physiques : réseau matériel, infrastructure d’Internet

Un protocole : HTTP (HyperText Transfer Protocol)

Des liens logiques (liens hypertextes), entre des pages web, identifiées par une adresse logique (URL : Uniform Resource Locator) et structurées par le même langage de description : HTML (HyperText Markup Language)

Web accessible par un navigateur (browser) : InternetExplorer, Firefox…

l’Acte de naissance d’Internet

Le 12 novembre 1990 , Berners-Lee et Robert Cailliau publient un texte sur Usenet
WorldWideWeb: Proposal for a HyperText Project

-Création du terme World Wide Web

-Description du web, exposé des principes techniques

-Mise en place du 1er serveur web (Next)

Le 13 novembre : 1ère page web de l’histoire #9.

La première page web

 Création du premier navigateur

1erePageWeb0 WorldWideWeb.1

-Tim et Robert, les nouveaux héros et pionniers des mystères du web…

1991 : extension chez les universitaires

Premier serveur au Cern. Décembre 1990

Il y aura vingt-et-un ans ce mois-ci, des physiciens du Centre de l’accélérateur linéaire Stanford(link is external) (SLAC), en Californie, installaient le permier serveur web en dehors de l’Europe. Cette installation marquait le début de l’expansion mondiale du World Wide Web, un grand moment dans l’histoire de la communication à l’ère numérique.Tim Berners-Lee et Robert Cailliau mettaient au point le premier navigateur, le WorldWideWeb, au CERN, en 1990. En novembre de la même année, ils présentaient à leurs collègues un nouveau langage de programmation appelé hypertexte. Un mois plus tard, Berners-Lee et Cailliau utilisaient le logiciel WorldWideWeb pour lapremière communication entre un client et un

premierserver
Le premier serveur web du monde, l’ordinateur NexT de Tim Berners-Lee, au CERN. Il porte toujours son étiquette où il est écrit à la main, en rouge : « Cette machine est un serveur. NE PAS ÉTEINDRE !! » (Image: CERN)

serveur web sur l’internet(link is external). La machine utilisée au SLAC utilisait le même logiciel pour gérer plusieurs pages(link is external), parmi lesquelles un répertoire téléphonique et des prétirages d’articles de physique des hautes énergies.

Le premier site web et serveur web du monde, info.cern.ch, était installé sur un ordinateur NeXT au CERN. La première page web avait pour adresse http://info.cern.ch/hypertext/WWW/TheProject.html et portait sur le projet WWW lui-même. On y trouvait des informations sur l’hypertexte, la technique permettant de créer sa propre page web, et même des explications sur la manière de rechercher des informations sur la Toile. Il n’existe pas de reproduction de la page d’origine. De toute façon, les informations étaient mises à jour quotidiennement, au fur et à mesure du développement du projet WWW. Vous pouvez voir cette page, dans une version ultérieure (1992), sur le site Web du Consortium du World Wide Web(link is external).

Le web au CERN s’est développé, partant de info.cern.ch pour accueillir ensuite un répertoire téléphonique, des articles de physique des hautes énergies et des informations générales sur les expériences menées au Laboratoire. Aujourd’hui, les CERN héberge plus de 10 000 sites web, et contribue ainsi à maintenir le contact au sein de la communauté mondiale des physiciens.

Naissance et développement du web : explosion des sites web

explosenet

 

(source Netcraft)

La guerre des navigateurs : La répartition des forces actuelles

Total Sites Across All Domains, August 1995 - August 2010Source :http://fr.wikipedia.org/wiki/Parts_de_march%C3%A9_des_navigateurs_web

Les parts de marché des navigateurs Web (Mars 2014 -)
Source Internet Explorer Firefox Chrome Safari Opera Android Autres
Microsoft Mozilla Google Apple Opera Software Google
Statcounter (Monde – Mars 2014)1 22,59 % 18,77 % 43,73 % 9,92 % 1,38 % 1,18 % 2,43 %
Statcounter (Europe – Mars 2014)2 18,26 % 25,48 % 40,59 % 10,46 % 2,61 % 1,39 % 1,21 %
Statcounter (France – Mars 2014)3 18,71 % 26,63 % 39,39 % 11,69 % 0,81 % 1,76 % 1,01 %
Net Marketshare (Monde – Desktop – Mars 2014)4 57,96 % 17,26 % 17,52 % 5,68 % 1,20 % 0,38 %
Akamai (Monde – Mars 2014)5 22,5 % 15,7 % 32,1 % 18,4 % 0,5 % 7,9 % 2,9 %
AT internet (Europe – Décembre 2013)6 23,2 % 20,6 % 29,7 % 19,1 % 7,4 %
W3Counter (Monde – Mars 2014)7 18,3 % 18,1 % 37,2 % 16,6 % 2,9 % 3,8 % 3,2 %
Moyenne générale (sans Net Marketshare) 21,65 % 18,29 % 35,68 % 16,01 % 1,59 % 4,28 % 2,50 %

 

Du web « 1.0 » au web « 2.0»

Web « 1.0 » :

Web comme collection de sites statiques, reliés par des liens logiques et seulement offerts à la consultation

Primauté à la publication, à la diffusion et à la recherche d’information

Web 2.0 :

Web comme plate-forme de services informatiques interactifs, fondée sur des réseaux sociaux d’usagers

Primauté au partage, à l’interaction, à la personnalisation

– Web social

Yahoo! L’évolution du web en un seul site

De l’annuaire …au moteur
Jusqu’à une offre de services variées avec des rachats

Du classement à la captation

Fondée en 1994 à l’université de Stanford par David Fillo et Jerry Yang

Site le plus visité en 2004

Acronyme de Yet Another Hierarchical Officious Oracle ?

…Ou obligation de commencer par un Y, pour entrer dans la nomenclature des projets de Stanford, les deux créateurs s’inspirent des yahoos des voyages de Gulliver

 

 

 

                                                  Courte histoire des réseaux sociaux

http://www.histoire-cigref.org/wp-content/uploads/2011/01/timeline-r%C3%A9seaux-sociaux.jpg

sources: http://www.histoire-cigref.org/blog/d-arpanet-aux-reseaux-sociaux-d-aujourdhui/

Après avoir visualisé la « timeline » représentative, mais non exhaustive, de l’apparition des réseaux sociaux (d’Arpanet jusqu’à Facebook et ses 400 millions d’inscrits annoncés en 2010…) un petit éclairage rétrospectif complémentaire s’impose : se souvenir que l’être humain est un animal grégaire ! Ce qui veut dire, très schématiquement, que nous faisons partie d’une de ces nombreuses espèces animales qui ont génétiquement tendance « à se regrouper en sociétés plus ou moins structurées, de façon spontanée et sporadique sous l’effet de stimuli environnementaux ». Dès lors, sans entrer dans des subtilités sociologiques, l’homme a une tendance naturelle au « réseautage social » (social networking).

Laissez un commentaire