Présentation de la conférence: Mais qui a peur de l’Intelligence Artificielle

Présentation de la conférence:

Mais qui a peur de l’Intelligence Artificielle

L’IA n’est pas un concept nouveau. C’est une discipline universitaire qui a été créée en 1956 et a connu, depuis, des vagues successives d’optimisme et de désenchantement suivies de pertes de financement puis de nouvelles approches, de nouveaux succès et de nouvelles sources de financement.
Pendant longtemps, la peur de l’intelligence artificielle (IA) provenait essentiellement
de technophobes et d’auteurs de science-fiction.
Aujourd’hui la mise en garde vient de personnalités qui se sont illustrées dans la technologie comme

Bill Gates le serial entrepreneur Elon Musk,

 

ou Steve Wozniak, le cofondateur
avec Steve Jobs d’Apple

 

ou encore le scientifique Stephen Hawking
Il a déclaré dans un entretien à la BBC le 2 décembre 2014 :
« Le développement d’une intelligence artificielle totale pourrait annoncer la fin de l’espèce humaine.
Elle pourrait prendre son indépendance et se reprogrammer elle-même à une vitesse accélérée […] Les êtres humains, qui sont limités par une lente évolution
biologique, ne pourraient pas rivaliser et seraient vite dépassés. »

En 2014 plusieurs spécialistes de l’IA ont signé une lettre ouverte où l’on sent poindre
le risque de la perte de contrôle de l’homme sur la machine qu’il aura lui-même créée.
Cette conférence propose de décrire de manière compréhensible les principaux domaines de l’IA où les progrès ont été fulgurants et de dire en quoi l’IA a un haut potentiel disruptif.
La conférence se continue en expliquant les principaux concepts de l’IA.
Mais aussi  les résultats en métamathématique comme le théorème de Gödel
qui montre les limites des systèmes formels.

En 2014 plusieurs spécialistes de l’IA ont signé une lettre ouverte où l’on sent poindre le risque de la perte de contrôle de l’homme sur la machine qu’il aura lui-même créée.

Cette conférence propose de décrire de manière compréhensible les principaux domaines de l’Intelligence artificielle (IA) faible (celle d’aujourd’hui), l’intelligence artificielle forte (celle de demain) où les progrès ont été fulgurants. L’intelligence générale artificielle (AGI) est la représentation des capacités cognitives humaines généralisées dans un logiciel afin que, face à une tâche peu familière, le système d’IA puisse trouver une solution. Un système AGI pourrait théoriquement effectuer n’importe quelle tâche dont un humain est capable.

L’AGI, parfois appelée IA forte, s’opposant à l’AI faible (Weak AI), implique un système doté de connaissances complètes et de capacités de calcul cognitif telles que ses performances sont indiscernables de celles d’un humain, du moins en un domaine. Cependant, les vastes capacités intellectuelles de l’AGI seraient renforcées bien au-delà des capacités humaines par sa capacité à accéder et à traiter d’énormes quantités de données à des vitesses incroyables.

Cela s’appelle une Singularité et que certains prophétisent pour demain ou presque : 2023, 2045.

C’est en tous cas cette dernière date qu’avait choisi Time pour titrer sur sa couverture, le 21 février 2011 « 2045, l’année où l’homme devient immortel » … en téléchargeant sa conscience dans une machine.

Le terme « singularité » appliqué aux machines intelligentes renvoie à l’idée que lorsque des machines intelligentes peuvent concevoir des machines intelligentes plus intelligentes qu’elles, elles provoqueront une croissance exponentielle de l’intelligence des machines conduisant à une singularité d’intelligence infinie (ou au moins extrêmement grande).

La croyance en cette idée est basée sur une compréhension naïve de ce qu’est l’intelligence.

Par analogie, imaginons que nous disposions d’un ordinateur capable de concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapidement que lui-même.

Un tel ordinateur conduirait-il à des ordinateurs infiniment rapides ou même à des ordinateurs plus rapides que tout ce que les humains pourraient construire ?

Cela pourrait accélérer le rythme des améliorations pendant un certain temps, mais à la fin il y a des limites à la façon dont les ordinateurs peuvent fonctionner.

Nous finirions au même endroit ; on arriverait juste un peu plus vite.

Il n’y aurait pas de singularité. »

Les techniques de l’IA sont méconnues, y compris par la majorité des professionnels du numérique, d’où la propagation de nombreux mythes à son sujet

C’est ce que dénonce Jean-Gabriel Ganascia dans son livre Le mythe de la singularité , professeur d’informatique à l’Université Pierre-et-Marie Curie, qu’il a publié au Seuil.

Il n’est pas content de l’attitude de ses collègues.

« Personne ne songe à ôter aux scientifiques le droit de raconter des histoires pour amuser ou pour transmettre des connaissances, mais à condition de bien séparer ce qui relève de la fiction de ce qu’ils prouvent en ayant recours aux méthodes scientifiques », écrit-il (p 99), en poursuivant en positif : « Il appartient aux scientifiques, dans la mesure de leurs compétences propres, d’indiquer les possibles et les probables pour aider les hommes à se déterminer et à agir. Il en va de leur responsabilité.»

Or, ses collègues qui prophétisent la « Singularité technologique », abusent de leur autorité en annonçant des « catastrophes absurdes », dénonce-t-il.

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques.

 

L’IA peut être fondamentalement limitée en raison des théorèmes d’incomplétude de Gödel

Gödel a montré que dans tout système arithmétique formel (axiomatique) suffisamment puissant F, il y a des énoncés dans F qui ne peuvent être prouvés ou réfutés dans F, c’est-à-dire que le système est incomplet. Cela signifie que, étant donné les axiomes de la théorie des nombres et de la logique propositionnelle (un système formel F), il est impossible de construire un ordinateur qui produira tous les théorèmes de F.La façon dont Gödel le montre est essentiellement en postulant d’abord un système formel d’arithmétique et puis en construisant une phrase spéciale dans ce système formel (appelé à juste titre la phrase de Gödel G ) qui exprime cette déclaration en F:

Phrase de Gödel G: « Je ne suis pas un théorème de F. »

c’est une déclaration autoréférentielle qui semble quelque peu paradoxale: la phrase implique sa propre non-théorie. Cela ne peut évidemment pas être un théorème de F, car s’il l’était, cela conduirait à une contradiction. Malheureusement, si ce n’est pas un théorème, alors F est incomplet car l’exhaustivité exige que pour toutes les déclarations de F, soit l’énoncé lui-même, soit sa négation est un théorème. Si G n’est pas un théorème de F, alors il exprime un énoncé vrai qui ne peut être prouvé dans F.

Le théorème d’incomplétude est également circulaire de la manière suivante: on peut ajouter G comme axiome supplémentaire à F, en essayant de «boucher le trou» et de rendre le système complet. Malheureusement, cela échoue en raison exactement du même argument que précédemment: encore une fois, nous construisons une autre phrase de Gödel G ‘:

Phrase de Gödel G ‘: « Je ne suis pas un théorème de F + G. »

Même si nous pouvions capturer toutes ces phrases de Gödel dans une seule expression syntaxique, disons tout G qui provient d’une classe d’expressions Gω, nous pourrons toujours construire une autre phrase de Gödel Gω + 1 etc. etc. Comme vous pouvez l’imaginer, le suivant dans la ligne des ordinaux serait 2Gω, puis Gω ** 2 etc. Par conséquent, peu importe combien nous essayons, le système restera toujours incomplet. De plus, aucun algorithme ne peut effectuer cette «Gödelization».

 Puisqu’une AGI devrait être capable d’accomplir n’importe quelle tâche intellectuelle qu’un humain peut, elle devrait également être capable d’exécuter le tour de Gödel aussi bien que nous le pouvons. Cependant, si une machine est purement computationnelle, elle doit fonctionner dans un système formel et par conséquent elle n’est pas capable de détecter sa propre incomplétude. Nous, les humains, nous pouvons penser « en dehors du système» et reconnaître ses défauts de la même manière que Gödel. Par conséquent, l’esprit est simplement plus puissant que n’importe quelle machine, quelle que soit sa vitesse et sa puissance.
La conscience humaine n’est pas algorithmique

Cet argument est fondamentalement une continuation du précédent, étendu pour accueillir nos découvertes plus récentes et renforcé par des hypothèses sur le mécanisme de notre conscience et de la physique hypothétique. Il a été exprimé à l’origine par le récent lauréat du prix Nobel Roger Penrose.

Roger Penrose, mathématicien de grande réputation, s’interroge sur le phénomène de la conscience. Il fait partie de ceux qui sont persuadés que toute action physique peut être simulée par un calcul, mais précise qu’une telle simulation ne peut par elle-même susciter le phénomène de la conscience. Il nous présente le théorème de Gödel, qui affirme qu’un système formel suffisamment vaste, ne peut être en même temps complet et consistant. Ses réflexions à ce sujet sont particulièrement intéressantes, et démontrent qu’il n’est pas possible de prouver incontestablement la validité d’un système, tout en restant dans ce système. Ce théorème nous montre clairement qu’il faut « sortir du système », pour en démontrer l’éventuelle validité. R. Penrose tire du théorème de Gödel la conclusion que la notion de système formel échoue à rendre compte même du plus fondamental des concepts axiomatiques. En ce qui concerne la conscience, il faut donc faire appel à un processus « non calculable ».

La conférence cite bien sûr  les personnes les plus proéminentes de l’IA qui ont fortement contribué à la création  des concepts de l’IA, notamment le Machine learning et surtout le Deep Learning qui a permis de mettre au point des Algorithmes comme AlphaZero, dérivé du célèbre AlphaGo

qui a battu le maître coréen du jeu de Go Lee Sedol.
AlphaZero  après  avoir battu à plates coutures les meilleurs humains au jeu de go, le programme d’intelligence artificielle développé par DeepMind, une entreprise de Google est parvenue en quelques heures d’entraînement (oui c’est un programme capable d’apprendre) à égaler Stockfish qui est considéré comme le meilleur programme d’échec
– Stockfish est un programme hautement spécialisé conçu dès le départ pour le jeu d’échec!
Ces performances sont à l’initiative du Chercheur Français
Yann Le Cun actuellement professeur à l’université de New York et directeur du laboratoire de recherche en intelligence artificielle de Facebook (FAIR)
J’essaye de montrer le plus simplement possible comment fonctionne le Machine Learning et le Deep Learning.
Des exemples d’applications sont donnés.

Cette conférence se propose de dire si vraiment l’IA a ce haut potentiel disruptif que les nouveaux prophètes de la technologie annoncent.

 

La Conférence

Pour progresser cliquez dans la diapositive, mais pas pas sur un lien

  1. Andrew

    Great article. Artificial Intelligence is scary for a lot of people but in this ever-changing world, a shift to Artificial Intelligence is inevitable. Exciting time ahead.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *