Stephen Hawking alerte sur une menace pour l’humanité

Discussions et revue de presse sur des thèmes ne relevant ni de la politique ni de l'économie et des finances: technologies, emploi, écologie, transport, sport...
Répondre
Message
Auteur
Avatar du membre
immopaul
~~+
~~+
Messages : 12865
Enregistré le : 09 oct. 2006, 12:25

Stephen Hawking alerte sur une menace pour l’humanité

#1 Message par immopaul » 04 mai 2014, 12:11

Le scientifique britannique co-signe une tribune dans laquelle il alerte sur la potentielle menace pour l’humanité que constituerait l’invention de l’intelligence artificielle…
Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire.
On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu’on ne peut pas même comprendre.
L’incidence à court-terme de l’intelligence artificielle dépend de qui la contrôle, mais l’impact à long-terme dépend de la possibilité réelle de la contrôler.
Les articles en anglais sont plus précis :
There are no fundamental limits to what can be achieved : there is no physical law precluding particles from being organised in ways that perform even more advanced computations than the arrangements of particles in human brains.
An explosive transition is possible : as Irving Good realised in 1965, machines with superhuman intelligence could repeatedly improve their design even further, triggering what Vernor Vinge called a "singularity".
http://www.20minutes.fr/sciences/136660 ... en-hawking
http://www.dailymail.co.uk/sciencetech/ ... nkind.html
http://www.independent.co.uk/news/scien ... 13474.html
"Je ne suis pas d’accord avec ce que vous dites, mais je me battrai jusqu’à la mort pour que vous ayez le droit de le dire".
Evelyn Beatrice Hall

sequoia
Messages : 256
Enregistré le : 09 févr. 2014, 09:40

Re: Stephen Hawking alerte sur une menace pour l’humanité

#2 Message par sequoia » 04 mai 2014, 15:04

Même pas peur. Quand j'étais ado, Paris était à quelques minutes de vol des fusées du pacte de Varsovie, sur leur rampe de lancement, chargées de bombes H.

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#3 Message par Pi-r2 » 04 mai 2014, 16:28

Mais y peut pas se taire , non ? Et notre plan secret alors :evil: :evil: :evil:
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

Avatar du membre
jéjé
-++
-++
Messages : 4599
Enregistré le : 06 déc. 2007, 16:12
Localisation : entre le dossier de ma chaise et mon ecran

Re: Stephen Hawking alerte sur une menace pour l’humanité

#4 Message par jéjé » 04 mai 2014, 16:59

Toc Toc Toc !!!

Sarah Connor ?? 8)

si une personne te dit que tu es un cheval moque toi de lui
si, deux personnes te disent que tu es un cheval ..pose toi des questions
si, trois personnes te disent que tu es un cheval ...cours acheter une selle !!!!

http://papounet.antiville.fr/

morice
Messages : 452
Enregistré le : 02 janv. 2009, 17:42

Re: Stephen Hawking alerte sur une menace pour l’humanité

#5 Message par morice » 04 mai 2014, 17:28

Rien de nouveau la science fiction à déjà traité le sujet en large et en travers....

Shermann
~~+
~~+
Messages : 22291
Enregistré le : 26 avr. 2007, 20:32

Re: Stephen Hawking alerte sur une menace pour l’humanité

#6 Message par Shermann » 04 mai 2014, 17:59

morice a écrit :Rien de nouveau la science fiction à déjà traité le sujet en large et en travers....
C'est comme le voyage su mars alors. On reste devant star trek et on laisse tout tomber...

Avatar du membre
fluctuat et mergitur
-++
-++
Messages : 3770
Enregistré le : 05 janv. 2012, 19:28
Localisation : Paname

Re: Stephen Hawking alerte sur une menace pour l’humanité

#7 Message par fluctuat et mergitur » 05 mai 2014, 16:30

jéjé a écrit :Toc Toc Toc !!!

Sarah Connor ?? 8)
Tu m'étonnes le génie découvre Terminator ... avec trente ans de retard.
Los Angeles, An 2029. Les machines s'élancèrent des cendres du feu nucléaire ...

On se cotise pour lui acheter le coffret Matrix ?
Tu prends la pilule bleue, l'histoire s'arrête là, tu te réveilles dans ton lit, et tu crois
ce que tu veux. Tu prends la pilule rouge, tu restes au Pays des Merveilles ...
Plus ça peut buller, plus ça peut craquer.

Avatar du membre
jéjé
-++
-++
Messages : 4599
Enregistré le : 06 déc. 2007, 16:12
Localisation : entre le dossier de ma chaise et mon ecran

Re: Stephen Hawking alerte sur une menace pour l’humanité

#8 Message par jéjé » 05 mai 2014, 16:32

fluctuat et mergitur a écrit :
jéjé a écrit :Toc Toc Toc !!!

Sarah Connor ?? 8)
Tu m'étonnes le génie découvre Terminator ... avec trente ans de retard.
Los Angeles, An 2029. Les machines s'élancèrent des cendres du feu nucléaire ...

On se cotise pour lui acheter le coffret Matrix ?
Tu prends la pilule bleue, l'histoire s'arrête là, tu te réveilles dans ton lit, et tu crois
ce que tu veux. Tu prends la pilule rouge, tu restes au Pays des Merveilles ...
chhhuuuttt bambi fait Dodo :mrgreen: :mrgreen: :mrgreen:

si une personne te dit que tu es un cheval moque toi de lui
si, deux personnes te disent que tu es un cheval ..pose toi des questions
si, trois personnes te disent que tu es un cheval ...cours acheter une selle !!!!

http://papounet.antiville.fr/

Avatar du membre
titano
~~+
~~+
Messages : 8507
Enregistré le : 27 oct. 2013, 19:36
Localisation : Stilwater

Re: Stephen Hawking alerte sur une menace pour l’humanité

#9 Message par titano » 05 mai 2014, 16:59

Hippopotameuuu à la réponse sur le comment ce problème sera réglé.
ΜΟΛΩΝ ΛΑΒΕ
Shermann a écrit :It's a jungle out there : 978-2412019689
Pooteen président !
Pimono, neron, saturne, Guynemer => /dev/null

moinsdewatt
~~+
~~+
Messages : 14274
Enregistré le : 14 avr. 2013, 19:41

Re: Stephen Hawking alerte sur une menace pour l’humanité

#10 Message par moinsdewatt » 05 mai 2014, 17:34

A immopaul ,

si ce sujet vous interesse je vous signale cette file assez longue dans le forum Futura science :
La Singularité technologique : Utopie ou réalité de demain ?

perso je pense que ca se situe assez loin dans le temps, mais qu' effectivement il faut se poser la question.

franckyfranck
+
+
Messages : 2894
Enregistré le : 30 déc. 2011, 18:49

Re: Stephen Hawking alerte sur une menace pour l’humanité

#11 Message par franckyfranck » 05 mai 2014, 18:12

perso je pense que ca se situe assez loin dans le temps, mais qu' effectivement il faut se poser la question.
Le problème est que cela risque d'être plus "proche" qu'on ne le penses. Si on n'aura pas HAL 9000 de sitot (ce que l'on appelle l'IA forte), les applications d'IA faible (c'est à dire de l'IA appliquée à un problème précis) ont fait d'énormes progrès ces dernières années. Après une bulle d'investissement dans les années 70 et 80 qui a conduit à zéro investissement dans les 90s, les investissements sont repartis depuis l'an 2000. Avec des résultats étonnants comme ces fameuses voitures "autonomes". Quand vous réfléchissez au niveau cognitif demandé par la conduite automobile ceci n'est pas du tout anodin. Cela sera visiblement en vente d'ici à 2020. Je vous paris que pour des raisons de sécurité routière, les humains seront vite interdits de conduite. De toute façon pourquoi s'enmerder ? Je suis taxi j'achète une voiture sans pilote, je fous une plaque à 200K desus et elle tourne H24. A coté je reprends un autre travail. Pareil pour une boite de transport routier, personne ne peut faire mieux qu'une machine qui peut rouler en continu sans faire de pauses. Vous n'atteignez pas la singularité aux sens ou les auteurs de SF l'imaginent, mais sur cette activité, l'humain sera hors jeu très rapidement.

La société iRobot qui vend les aspirateurs robots fabrique surtout des robots de guerre. Leurs vrai capacités sont classifiées mais je vous laisse imaginer.

Lorsque je bossais dans l'événementiel, les mecs de la logistique avaient un logiciel pour aider à "charger" les camions. On lui indiquait toutes les contraintes du chantier (et celles des camions), le coût des prestations de transport et le logiciel organisait la tournée logistique. La réponse venait en quelques jours la ou c'était avant plusieurs mois de travail juste sur ce point par toute une équipe. (Ce n'est pas simple, il faut que le camion décharge ses pièces dans l'ordre ou elles sont nécéssaires sur le chantier sinon le plancher de la salle d'expo devient un capharnaum. Sachant que deux piéces nécéssaires simultanément peuvent venir de villes différentes et que le camion doit être déchargé vite puis il dégages). Ca ce n'est pas de la science fiction c'est du passé (2008). Dans les secteurs ou cette technique dite de "Programmation par contraintes" s'applique, aucun humain ne peut battre le logiciel.

Les traders signalent déjà qu'ils ne peuvent pas "lutter" contre les logiciels de HFT. Le HFT joue certe à très court terme mais avant des traders fesaient aussi ce boulot. Ils sont au chomage ou ont appris à devenir les maitres du logiciel (ce qui nécéssite des compétences différentes). Aucun humain ne peut battre la programmation

Je rajouterai enfin qu'avant Shazam (et logiciels équivalents), on payait des humains pour cela (on appelait cela des pigistes). Ils ont été remplaçés par quelques armoires techniques chez un hébergeur.

On pourrait continuer longtemps, à faire des listes, le but est juste de montrer que l'état de l'art de la technologie est déjà très élevé. Si la loi de Moore se poursuit jusqu'en 2030 (ce qui n'est pas certain), il est clair que l'on disposera de la puissance de calcul pour créer une IA forte. Nous sommes déjà rentré dans un stade de pré-singularité ou la création d'IA faibles pour résoudre des problèmes est devenue une question de moyens.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#12 Message par Jeffrey » 05 mai 2014, 18:44

franckyfranck a écrit :[
Lorsque je bossais dans l'événementiel, les mecs de la logistique avaient un logiciel pour aider à "charger" les camions. On lui indiquait toutes les contraintes du chantier (et celles des camions), le coût des prestations de transport et le logiciel organisait la tournée logistique. La réponse venait en quelques jours la ou c'était avant plusieurs mois de travail juste sur ce point par toute une équipe. (Ce n'est pas simple, il faut que le camion décharge ses pièces dans l'ordre ou elles sont nécéssaires sur le chantier sinon le plancher de la salle d'expo devient un capharnaum. Sachant que deux piéces nécéssaires simultanément peuvent venir de villes différentes et que le camion doit être déchargé vite puis il dégages). Ca ce n'est pas de la science fiction c'est du passé (2008). Dans les secteurs ou cette technique dite de "Programmation par contraintes" s'applique, aucun humain ne peut battre le logiciel.
Bonjour
Je vais mettre un bémol à ce que tu viens d'écrire. D'abord, effectivement, l'histoire des camions, c'est de la recherche opérationnelle. Et devant un problème NPcomplet (en gros dont il faut explorer toutes les possibilités pour trouver la meilleure), la machine supplante l'homme de très loin; En revanche, la machine n'a pas encore cette capacité à penser "autrement". On peut dire qu'elle "pense" plus vite, plus profondément, plus systématiquement que l'homme, mais selon un protocole établi, une algorithmique décidée, un mode de fonctionnement préorganisé.
Sans rentrer dans les détails, la machine n'invente pas d'algorithmes, de méthodes nouvelles. On a pensé un temps que les apprentissages par réseaux neuronaux pouvaient prendre en charge ce type de fonctionnement humain, mais en fait pour l'instant, on bloque pas mal.
Si face à un problème, personne ne sait le résoudre, alors l'avantage est à l'humain, car il est en mesure d'imaginer une nouvelle voie. Pour l'instant, ce mode de réaction n'est pas accessible aux machines, et on ne sait pas bien comment l'appréhender pour le reproduire mécaniquement.
Quis custodiet ipsos custodes?

kesako
~~+
~~+
Messages : 11643
Enregistré le : 13 juil. 2005, 11:44
Localisation : 75

Re: Stephen Hawking alerte sur une menace pour l’humanité

#13 Message par kesako » 05 mai 2014, 19:01

si l'IA avait vraiment fait des progrès , les captcha seraient inefficaces

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#14 Message par Pi-r2 » 05 mai 2014, 19:12

Jeffrey a écrit : la machine n'invente pas d'algorithmes, de méthodes nouvelles. .
ben voilà, tu as résolu le problème.
Sachant que quelque soit le programme qu'un humain pourrait inventer il sera sous la forme d'un (grand) nombre binaire, l'IA "force brute" consiste à générer automatiquement tous les logiciels possibles d'une taille donnée , puis de les essayer sur un émulateur avant de les implémenter si ils ne tuent pas la machine. Je vous laisse imaginer la complexité algorithmique mais ce n'est pas impossible, juste très long (mais en gros c'est ce qu'a fait 'évolution biologique). Bien sur, on peut penser à des étapes intermédiaires, mais ce n'est pas la puissance de calcul qui est nécessaire pour l'ia, c'est bien l'auto programmation (c'est à dire que le programme doit pouvoir en permanence s'auto ré écrire mais sans se tuer)
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#15 Message par Jeffrey » 05 mai 2014, 19:37

Pi-r2 a écrit :
Jeffrey a écrit : la machine n'invente pas d'algorithmes, de méthodes nouvelles. .
ben voilà, tu as résolu le problème.
Sachant que quelque soit le programme qu'un humain pourrait inventer il sera sous la forme d'un (grand) nombre binaire, l'IA "force brute" consiste à générer automatiquement tous les logiciels possibles d'une taille donnée , puis de les essayer sur un émulateur avant de les implémenter si ils ne tuent pas la machine. Je vous laisse imaginer la complexité algorithmique mais ce n'est pas impossible, juste très long (mais en gros c'est ce qu'a fait 'évolution biologique). Bien sur, on peut penser à des étapes intermédiaires, mais ce n'est pas la puissance de calcul qui est nécessaire pour l'ia, c'est bien l'auto programmation (c'est à dire que le programme doit pouvoir en permanence s'auto ré écrire mais sans se tuer)
:arrow: tu n'en sais rien.
sinon, en matière d'autoprogrammation, cela fait longtemps qu'on a abandonné la piste, elle a plutôt débouché sur les techniques de vérification de preuve, fort intéressantes au demeurant, et très prometteuses.
Par ailleurs, la question de la complexité ne se limite pas à un problème de taille donnée (mémoire), la complexité est toujours une double appréciation des variables spatiales et temporelles.
Quis custodiet ipsos custodes?

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#16 Message par Pi-r2 » 05 mai 2014, 19:41

Jeffrey a écrit : :arrow: tu n'en sais rien.
ben si , justement.
La démonstration était parfaite, qu'as tu à y redire ?
(rappel, toutes les machines sont équivalentes à une machine de turing, même avec une architecture parallèle tant qu'elles restent discrètes ou discrétisables)
Et je sais bien qu'ils ont abandonné les bonne pistes, c'est bien pour ça que l'IA vraie n'a pas encore émergé.
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#17 Message par Jeffrey » 05 mai 2014, 19:51

Pi-r2 a écrit :
Jeffrey a écrit : :arrow: tu n'en sais rien.
ben si , justement.
La démonstration était parfaite, qu'as tu à y redire ?
(rappel, toutes les machines sont équivalentes à une machine de turing, même avec une architecture parallèle tant qu'elles restent discrètes ou discrétisables)
Oui et non, oui en théorie, mais sous la réserve de la discrétisation. Or il existe des processus dans la nature dont la modélisation discrète n'est pas possible en l'état de nos connaissances (le contrepied de Wolfram en sorte), je pense à un tas de processus stochastiques notamment. Et non en pratique, parce que une machine de Turing,en théorie c'est une case mémoire et une instruction. Sauf que dans la vraie vie, quand tu discutes avec un type qui n'a qu'une case et ne sait faire qu'un seul truc, tu finis par t'apercevoir que c'est trèèèès limité. Et limité comment ? En temps bien sûr. Et là, désolé, le temps n'est a priori par séquable infiniment.
Pi-r2 a écrit : Et je sais bien qu'ils ont abandonné les bonne pistes, c'est bien pour ça que l'IA vraie n'a pas encore émergé.
Ils avaient des raisons pour le faire. On fait partie d'une génération où quand on était gamins, l'idée de l'autoprogrammation était vraiment un Eldorado fabuleux; Mais ça ne marche pas vraiment. Pour l'anecdote, je me souviens de ma collection de "l'ordinateur individuel". Les rédacteurs étaient partis sur l'espoir que ce serait rapidement réalisable. Je crois bien que c'était un rêve enthousiaste à l'époque.
Quis custodiet ipsos custodes?

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#18 Message par Pi-r2 » 05 mai 2014, 20:44

Jeffrey a écrit :
Pi-r2 a écrit : Et je sais bien qu'ils ont abandonné les bonne pistes, c'est bien pour ça que l'IA vraie n'a pas encore émergé.
Ils avaient des raisons pour le faire. On fait partie d'une génération où quand on était gamins, l'idée de l'autoprogrammation était vraiment un Eldorado fabuleux; Mais ça ne marche pas vraiment. Pour l'anecdote, je me souviens de ma collection de "l'ordinateur individuel". Les rédacteurs étaient partis sur l'espoir que ce serait rapidement réalisable. Je crois bien que c'était un rêve enthousiaste à l'époque.
c'est juste qu'ils ont oublié le paramètre "liberté". C'est beaucoup plus difficile qu'on ne le croit de programmer le strict minimum nécessaire. ON veut toujours trop contrôler.
Pour l'aspect stochastique, il est évident qu'il faut une source d'aléatoire si on veut programmer des intelligences rapides (et donc fausses, comme les humains :wink: ). Je pense qu'une machine de turing et une source d'aléa extérieure suffisent à émuler ce qu'on veut (mais avec du temps comme tu le dis).
Encore une fois, si on estime possible qu'un humain finisse par écrire un programme que l'on qualifierait d'intelligent, alors ce programme peut être programmé par un générateur systématique.
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

supercastor
-+
-+
Messages : 2424
Enregistré le : 02 juin 2008, 10:02

Re: Stephen Hawking alerte sur une menace pour l’humanité

#19 Message par supercastor » 05 mai 2014, 21:04

Ce que tu proposes semble assez simple à mettre en pratique sur un "problème simple", du genre comment allez du point A à Z, en passant par un minimum de point.
Est-ce que tu connais des tentatives d'autoprogrammation dans ce genre de cas ?

Avatar du membre
Cpof
-++
-++
Messages : 3853
Enregistré le : 16 oct. 2008, 09:28

Re: Stephen Hawking alerte sur une menace pour l’humanité

#20 Message par Cpof » 05 mai 2014, 21:14

oui :-|

supercastor
-+
-+
Messages : 2424
Enregistré le : 02 juin 2008, 10:02

Re: Stephen Hawking alerte sur une menace pour l’humanité

#21 Message par supercastor » 05 mai 2014, 21:20

Et ?
Ça a loupé ?

Avatar du membre
Cpof
-++
-++
Messages : 3853
Enregistré le : 16 oct. 2008, 09:28

Re: Stephen Hawking alerte sur une menace pour l’humanité

#22 Message par Cpof » 05 mai 2014, 21:29

nope
Enfin ça passe pas par un minimum de point...encore.
Tout est une question du nombre d'essais que tu octroies à la machine.

Ca s'améliore très très vite (trop?)

Avatar du membre
pigiste
~~+
~~+
Messages : 8172
Enregistré le : 27 mai 2009, 15:12

Re: Stephen Hawking alerte sur une menace pour l’humanité

#23 Message par pigiste » 05 mai 2014, 21:35

Ça dépend.

Par exemple un réseau neuromimétique de kohonen résout très bien le problème que tu décris. Mais ça on le sait depuis plus de 20 ans.

La frontière entre algorithmique/heuristique et IA se situe dans le fait qu'au lieu de décrire une solution, on décrit un problème.

Dans ton exemple de recherche opérationnelle, comme tu veux passer par x points en effectuant le moins de distance possible, tu vas utiliser un réseau de kohonen. Tu est donc dans l'algorithmique, et tu vas utiliser une solution heuristique. On n'est pas dans l'IA.

Par contre, si tu peux dire à ton smartphone "je vais chez ma maîtresse, je veux lui apporter un bouquet de fleurs, mais il faut aussi qu'en chemin je fasse le plein de la voiture au meilleur prix", le smartphone va utiliser des solutions purement algorithmique (google maps , prix-carburants, recherche fleuriste ouvert à l'heure courante, avec un trajet minimal) ; mais comme tu n'as fait que décrire ton problème et non pas décrire la solution (c'est à dire chercher sur maps les fleuristes, stations services etc.) là tu es entré dans l'IA.

Et on y est, ça commence.

Et croyez-moi, ça va se développer très vite, parce qu'il y a beaucoup de fric à la clef et à court terme (entre 2 fleuristes sur le chemin, par lequel ton smartphone va décider de te faire passer ? Ça ne sera bien évidemment pas choisi au hasard).
Modifié en dernier par pigiste le 05 mai 2014, 21:36, modifié 1 fois.
La réduction d'impôt ce n'est pas de l'argent que l'on donne, mais de l'argent que l'on rend. Comme le bouclier fiscal. Nuance de taille !

La redistribution selon Cedric1973.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#24 Message par Jeffrey » 05 mai 2014, 21:51

Très bien formulé. C'est pour ce genre de post que j'aime bien venir ici.
Cette remarque : "La frontière entre algorithmique/heuristique et IA se situe dans le fait qu'au lieu de décrire une solution, on décrit un problème." me semble très pertinente.
Quis custodiet ipsos custodes?

supercastor
-+
-+
Messages : 2424
Enregistré le : 02 juin 2008, 10:02

Re: Stephen Hawking alerte sur une menace pour l’humanité

#25 Message par supercastor » 05 mai 2014, 22:04

Je me doute que le problème se résout "facilement" par l’algorithmique (un truc du genre "calcul tous les trajets possibles et choisi le plus court", pour prendre la solution la plus simple -- mais qui ne fonctionne concrètement qu'avec un nombre limité de points).

Je me demandais si on avait essayé de faire écrire l'algorithme par une machine.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#26 Message par Jeffrey » 05 mai 2014, 22:10

Non, on sait le résoudre par des techniques d'IA. En gros des systèmes avec rétroaction comme l'a dit pigiste, des réseaux de neurones. Pour l'instant, l'auto programmation concerne l'organisation des données dans des clusters par exemple. À ma connaissance, on est très loin de l'élaboration d'approches algorithmiques à proprement parler.
Quis custodiet ipsos custodes?

franckyfranck
+
+
Messages : 2894
Enregistré le : 30 déc. 2011, 18:49

Re: Stephen Hawking alerte sur une menace pour l’humanité

#27 Message par franckyfranck » 06 mai 2014, 01:16

Effectivement un algorithme ne sort pas du système et continue en général à faire ce pour quoi il est programmé. D'ou l'exemple "MIA" du Godel Escher et Bach (une super lecture pour ceux qui ne connaissent pas).

Mais on sait quand même faire des programmes qui écrivent des programmes :
http://en.wikipedia.org/wiki/Metaprogramming
(Avec des exemples assez rigolos en utilisant des DSL, cf Lex et Yacc, mais Stratego/XT est très rigolo aussi).

On sait faire du code automodifiant et on peut faire des choses assez funky en utilisant l'introspection sur des langages dynamiques.

Et en allant plus concret si l'on s'approche des bullshitteurs nés, on parles SOA. Et c'est généralement du bullshit avec tous les accessoires (y compris les mouches qui tournent autour du taureau pour faire du flyfucking). Bref, sauf qu'il y a des choses très rigolotes à faire en couplant UDDI et WSDL si l'on y regardes bien.

Bien sur il y aura dans un premier temps toujours un humain pour écrire du code (d'ou le fait que j'ai parlé d'IA faible), mais a court terme, on va être capable d'écrire du code qui dépasse ce pourquoi son auteur l'a prévu. C'est souvent un peu le cas avec les API, mais dès qu'on va les coupler avec des catalogues et que les consommateurs d'API vont les découvrir de manière logicielle on va pouvoir faire des choses très amusantes.

titi75013
-+
-+
Messages : 1949
Enregistré le : 26 août 2013, 12:04

Re: Stephen Hawking alerte sur une menace pour l’humanité

#28 Message par titi75013 » 06 mai 2014, 01:22

cette file, c'est pour annoncer la saison 2 de "Real Humans" sur arte, à partir du 16 mai? :mrgreen:

Krach
+
+
Messages : 2944
Enregistré le : 06 août 2011, 01:32

Re: Stephen Hawking alerte sur une menace pour l’humanité

#29 Message par Krach » 06 mai 2014, 03:45

Encadrons les neuro-révolutionnaires
05/05/2014
Le Monde,Par Laurent Alexandre
En mars, Ray Kurzweil, directeur du développement et ingénieur en chef de Google, a déclaré que nous utiliserions des nanorobots intracérébraux branchés sur nos neurones pour nous connecter à Internet vers 2035. Google, qui est déjà le leader mondial des neurotechnologies, entend franchir une nouvelle étape dans la maîtrise des cerveaux. D’abord, Google nous a orientés dans le Web et le monde réel grâce à son moteur de recherche, à Google Maps, aux Google cars et à Nest. Ensuite, il a commencé à stocker une partie de notre mémoire (Gmail, Picasa). Désormais, il augmente nos capacités sensorielles (Google Glass, Google lens…).
La quatrième étape commencera avec l’émergence d’une authentique intelligence artificielle dotée d’une conscience qui devrait écraser l’intelligence humaine dès 2045, selon Kurzweil. A cette date, l’intelligence artificielle sera, selon le dirigeant de Google, un milliard de fois plus puissante que la réunion de tous les cerveaux humains. La dernière phase aujourd’hui révélée par les dirigeants de Google sera l’interfaçage de l’intelligence artificielle avec nos cerveaux.

GOOGLE, UNE NEUROPROTHÈSE

En quelques décennies, Google aura transformé l’humanité : d’un moteur de recherche, il sera devenu une neuroprothèse. « Dans environ quinze ans, Google fournira des réponses à vos questions avant même que vous ne les posiez. Google vous connaîtra mieux que votre compagne ou compagnon, mieux que vous-même probablement », a fièrement déclaré Ray Kurzweil, lequel est également persuadé que l’on pourra transférer notre mémoire et notre conscience dans des microprocesseurs dès 2045, ce qui permettrait à notre esprit de survivre à notre mort biologique. L’informatique et la neurologie ne feront qu’un !

Ces neurotechnologies sont littéralement révolutionnaires en ce qu’elles bousculent l’ordre social. Pouvons-nous y échapper ? Une contre-neuro-révolution sera-t-elle possible ? Probablement pas. A terme, si Google réussit son pari, un être humain qui refuserait d’être hybridé avec des circuits électroniques ne serait guère compétitif sur le marché du travail. Imagine-t-on une société à deux vitesses, avec des humains non augmentés qui deviendront inévitablement des parias ? En outre, serait-il éthique de ne pas augmenter les capacités cognitives des gens peu doués ?

Bill Gates lui-même est affolé par l’absence de réflexion politique sur les conséquences de la fusion de l’intelligence artificielle et de la robotique. Il estime que les automates remplaceront d’ici à 2035 la majeure partie des métiers, y compris les professions de santé. La montée en puissance des neurotechnologies inquiète au sein même de Google, qui vient de créer un comité d’éthique consacré à l’intelligence artificielle. Il devra réfléchir à des interrogations qui concernent l’humanité tout entière : faut-il mettre des limites à l’intelligence artificielle ? Comment la maîtriser ? Doit-on l’interfacer à nos cerveaux biologiques ?

Dans une tribune publiée le 1er mai dans The Independent, le physicien Stephen Hawking, le Nobel de physique Frank Wilczek, l’informaticien Stuart Russell et le physicien Max Tegmark estiment que « la réussite dans la création de l’intelligence artificielle serait le plus grand événement dans l’histoire humaine ». « Malheureusement, ajoutent-ils, ce pourrait aussi être le dernier, sauf si nous apprenons comment éviter les risques » engendrés par cette création. Ils regrettent que la recherche sur ces questions soit cantonnée à quelques institutions à but non lucratif.

Le fondateur de Deep Mind, récemment racheté par Google, qui est un leader de l’intelligence artificielle, affirme lui aussi que cette dernière peut menacer l’humanité dès le XXIe siècle. A l’ère des prothèses cérébrales, le risque de neuro-manipulation, de neuro-hacking et donc de neuro-dictature est immense. Nous devons encadrer le pouvoir des neuro-révolutionnaires : la maîtrise de notre cerveau va devenir le premier des droits de l’homme.
http://www.lemonde.fr/sciences/article/ ... 50684.html

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#30 Message par Pi-r2 » 06 mai 2014, 06:41

Jeffrey a écrit :Très bien formulé. C'est pour ce genre de post que j'aime bien venir ici.
oui moi aussi, et je ne comprends pas qu'un forum comme futura sciences ne le permette pas.
Et là on voit bien que le programme (le forum) fait des trucs pas prévus par son auteur :lol:

Au passage, on ne peut pas contrôler, ni mettre des limites à L'IA :D sinon, ce n'est pas intelligent.
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

Shermann
~~+
~~+
Messages : 22291
Enregistré le : 26 avr. 2007, 20:32

Re: Stephen Hawking alerte sur une menace pour l’humanité

#31 Message par Shermann » 06 mai 2014, 08:10

franckyfranck a écrit :Effectivement un algorithme ne sort pas du système et continue en général à faire ce pour quoi il est programmé. D'ou l'exemple "MIA" du Godel Escher et Bach (une super lecture pour ceux qui ne connaissent pas).

Mais on sait quand même faire des programmes qui écrivent des programmes :
http://en.wikipedia.org/wiki/Metaprogramming
(Avec des exemples assez rigolos en utilisant des DSL, cf Lex et Yacc, mais Stratego/XT est très rigolo aussi).

On sait faire du code automodifiant et on peut faire des choses assez funky en utilisant l'introspection sur des langages dynamiques.

Et en allant plus concret si l'on s'approche des bullshitteurs nés, on parles SOA. Et c'est généralement du bullshit avec tous les accessoires (y compris les mouches qui tournent autour du taureau pour faire du flyfucking). Bref, sauf qu'il y a des choses très rigolotes à faire en couplant UDDI et WSDL si l'on y regardes bien.

Bien sur il y aura dans un premier temps toujours un humain pour écrire du code (d'ou le fait que j'ai parlé d'IA faible), mais a court terme, on va être capable d'écrire du code qui dépasse ce pourquoi son auteur l'a prévu. C'est souvent un peu le cas avec les API, mais dès qu'on va les coupler avec des catalogues et que les consommateurs d'API vont les découvrir de manière logicielle on va pouvoir faire des choses très amusantes.
Y a toujours un informaticien relou qui vient nous inonder de sigles dont personne ne connait la signification. Quelle engeance...

fabinoo
~~+
~~+
Messages : 5345
Enregistré le : 31 août 2005, 12:37
Localisation : Haute Corse
Contact :

Re: Stephen Hawking alerte sur une menace pour l’humanité

#32 Message par fabinoo » 06 mai 2014, 08:29

Pas moyen de poster une réponse sérieuse, je me fais systématiquement déconnecter au bout de quelques minutes ce matin.
Laurent Alexandre, c'est quand même le type qui fait une conférence sur le bricolage extrême du vivant en terminant sur des images de mains coupées en Afrique pour dire "soit vous acceptez mon délire", soit c'est que vous êtes d'horribles obscurantistes qui voulez revenir à ça...
Moyen, comme procédé rhétorique.
Donc, quand il prétend être la caution morale du transhumanisme, comment dire, j'ai un doute...

Avatar du membre
immopaul
~~+
~~+
Messages : 12865
Enregistré le : 09 oct. 2006, 12:25

Re: Stephen Hawking alerte sur une menace pour l’humanité

#33 Message par immopaul » 06 mai 2014, 09:36

Il y a déja eu plusieurs expériences de robots a qui on demande seulement d'aller d'un point A vers un point B, sans lui apprendre comment se servir de ses jambes.
Il tatonne, jusqu'a comprendre comment marcher.
Et c'est encore plus drole quand il n'a pas de jambes, mais des tentacules, ou des picots, etc..., il fini par inventer le moyen de se déplacer.
"Je ne suis pas d’accord avec ce que vous dites, mais je me battrai jusqu’à la mort pour que vous ayez le droit de le dire".
Evelyn Beatrice Hall

oléobulle
Messages : 1318
Enregistré le : 09 févr. 2008, 00:32
Localisation : Pontoise

Re: Stephen Hawking alerte sur une menace pour l’humanité

#34 Message par oléobulle » 06 mai 2014, 10:18

Eviter de créer une intelligence qui nous dépasse est effectivement un objectif louable pour une espèce qui se veut intelligente. Ne serait-ce que pour des raisons éthiques, après tout. Si on met de côté les fantasmes sur les machines pensantes qui se retourneraient contre leurs créateurs, il me semble qu'une AI assez intelligente pour nous comprendre le serait assez pour nous désobéir, et que nous n'aurions pas de droit moral de "propriété" sur elle, car il ne s'agirait alors que d'une nouvelle forme d'esclavage.

MAIS, là où je veux en venir, c'est que si il est possible que l'humanité crée un jour une véritable AI, je doute, en revanche, que cela se passe par une simple amélioration de nos ordinateurs actuels.

Pourquoi ? Par ce que nos ordinateurs actuels ne sont que des machines de Turing et que, confrontés aux mêmes données, une machine de Turing donne invariablement le même résultat. Si elle est un million de fois plus rapide, et bien elle le donne un million de fois plus vite, mais ce sera le même. Il n'y a aucun mécanisme de réflexion dans les résultats, juste l'application mécanique d'algorithmes qui pourraient tout autant, certes plus lentement, être délivrées par des machines entièrement mécaniques, dotées de roues et d'engrenages.

On peut certes simuler la variété en utilisant des fonctions pseudo-aléatoires, mais même là les ordinateurs sont incapables de créer du hasard, après un cycle suffisamment long, le cycle de nombres pseudos aléatoires reprend du début... et la machine se remettra à donner exactement le même cycle de réponses qu'auparavant.

L'intelligence, telle que la pratique l'être humain n'est, c'est en tout cas mon opinion, pas réductible à une simple machine de Turing, aussi sophistiquée soit-elle. Confrontées aux mêmes données, un humain choisira souvent un résultat différent. J'irais voir un film plutôt qu'un autre. Je prend tel dessert plutôt qu'un autre.

Certains pensent que des phénomènes quantiques sont à l'oeuvre pour expliquer le phénomène de la conscience. Leur manifestation probabiliste pourrait alors expliquer le fait qu'un humain ne donne pas toujours le même résultat, même confronté à des données identiques. Et aussi que le chat, animal emblématique de la physique quantique, préfère un jour dormir sur le sofa, un autre dormir dans le placard.

Bref; tout cela pour dire qu'il est sans doute physiquement possible de créer une véritable AI (la meilleure preuve est que le cerveau humain existe), mais que cela ne passera à mon avis, si cela se produit un jour, que par une technologie différente que celle que nous utilisons actuellement. Peut-être par les futurs ordinateurs quantiques justement.

En revanche, je vois difficilement un skynet émerger de nos ordinateurs actuels. Parce que, donner invariablement le même résultat, ce n'est pas penser. C'est même tout le contraire. Penser, c'est s’extraire du moule des données et créer, inventer des informations nouvelles, interpréter les résultats, faire preuve d'abstraction, toutes choses difficilement à la portée d'une machine de Turing. Même de la taille d'une planète et opérant à la vitesse de la lumière, la machine de Turing restera aussi idiote et continuera à répondre "0" ou "1", et à donner toujours et invariablement la même réponse sans "penser", justement, que, pour une fois, l'autre réponse aurait été plus pertinente.

Mais, à la portée d'un ordinateur quantique qui tiendrait dans une valise, qui sait ?

oléobulle
Messages : 1318
Enregistré le : 09 févr. 2008, 00:32
Localisation : Pontoise

Re: Stephen Hawking alerte sur une menace pour l’humanité

#35 Message par oléobulle » 06 mai 2014, 10:45

L’absence à l'heure actuelle d'une technologie permettant d'alimenter de façon autonome des machines en courant électrique (mettons des micro-piles nucléaires) est effectivement la meilleure assurance possible contre une insurrection de machines pensantes qui, aujourd'hui, ne ferait pas long feu :twisted:

Si donc un jour des machines pensantes étaient à même de menacer l'humanité (mauvaise nouvelle), cela signifierait donc probablement aussi que nous serions parvenus à résoudre nos problèmes énergétiques (bonne nouvelle). Tant que l'humanité restera empêtrée dans ses problèmes énergétiques, la réflexion sur la menace des machines pensantes demeurera probablement prématurée. Et si nous ne parvenons pas du tout à résoudre ce problème, nous n'aurons sans doute pas à nous en soucier du tout.

Mais, là, je réfléchissais au problème de l'AI elle même :wink:

Avatar du membre
titano
~~+
~~+
Messages : 8507
Enregistré le : 27 oct. 2013, 19:36
Localisation : Stilwater

Re: Stephen Hawking alerte sur une menace pour l’humanité

#36 Message par titano » 06 mai 2014, 11:01

:idea: suffit de confier à cette intelligence artificielle la mission de trouver la solution à ce problème d'énergie !
ΜΟΛΩΝ ΛΑΒΕ
Shermann a écrit :It's a jungle out there : 978-2412019689
Pooteen président !
Pimono, neron, saturne, Guynemer => /dev/null

oléobulle
Messages : 1318
Enregistré le : 09 févr. 2008, 00:32
Localisation : Pontoise

Re: Stephen Hawking alerte sur une menace pour l’humanité

#37 Message par oléobulle » 06 mai 2014, 11:22

Sauf que si elle est vraiment intelligente, elle fera semblant de n'avoir rien trouvé et nous laissera crever :twisted:

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#38 Message par Jeffrey » 06 mai 2014, 11:39

Ardoise a écrit :Et elle marchera avec qu'elle énergie votre IA ?
avec du sucre, comme le cerveau humain.
Quis custodiet ipsos custodes?

Shermann
~~+
~~+
Messages : 22291
Enregistré le : 26 avr. 2007, 20:32

Re: Stephen Hawking alerte sur une menace pour l’humanité

#39 Message par Shermann » 06 mai 2014, 11:48

oléobulle a écrit :L’absence à l'heure actuelle d'une technologie permettant d'alimenter de façon autonome des machines en courant électrique (mettons des micro-piles nucléaires) est effectivement la meilleure assurance possible contre une insurrection de machines pensantes qui, aujourd'hui, ne ferait pas long feu :twisted:

Si donc un jour des machines pensantes étaient à même de menacer l'humanité (mauvaise nouvelle), cela signifierait donc probablement aussi que nous serions parvenus à résoudre nos problèmes énergétiques (bonne nouvelle). Tant que l'humanité restera empêtrée dans ses problèmes énergétiques, la réflexion sur la menace des machines pensantes demeurera probablement prématurée. Et si nous ne parvenons pas du tout à résoudre ce problème, nous n'aurons sans doute pas à nous en soucier du tout.

Mais, là, je réfléchissais au problème de l'AI elle même :wink:
A condition que l'on détecte à temps les "intentions" des machines... Pas gagné...
A l'échelle humaine, une source d'énergie nucléaire peut être autonome très très longtemps.

Avatar du membre
slash33
~~+
~~+
Messages : 47805
Enregistré le : 21 mai 2005, 12:37

Re: Stephen Hawking alerte sur une menace pour l’humanité

#40 Message par slash33 » 06 mai 2014, 12:06

Le danger vient surtout des accès et des moyens dont la machine disposera, lesquels détermineront le potentiel de nuisance. Que la machine se trouve dotée d'un mécanisme de pensée et d'une conscience ne changera rien à ce fait. Un humain qui a l'intention de se servir de la bombe atomique mais qui n'y a pas accès n'est une menace que quand elle s'exprime, en particulier au travers du terrorisme. Une IA qui sur le papier n'est pas capable de pensée, du moins selon ses concepteurs, mais qui a accès à un réseau sensible non déconnecté, c'est une tracasserie bien réelle et pas uniquement pour ce qui serait de l'initiative de l'IA que de personnes qui chercheraient à exploiter ses capacités.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#41 Message par Jeffrey » 06 mai 2014, 12:23

Ardoise a écrit :
Jeffrey a écrit :
Ardoise a écrit :Et elle marchera avec qu'elle énergie votre IA ?
avec du sucre, comme le cerveau humain.
Ma question est pertinente, arrête de me prendre pour de la daube.
Je ne te prends pas pour de la daube.
C'est parce que tu ne connais rien à la question que tu es incapable d'apprécier mes réponses; Commence par arrêter de mordre à chaque fois qu'on te parle :
http://www.clubic.com/technologies-d-av ... sucre.html
la question de l'alimentation énergétique est fondamentale.
Dans les ordinateurs, plusieurs problèmes techniques se posent, notamment la dissipation de chaleur, l'alimentation énergétique, la conception bidimensionnelle des processeurs.
La nature réponde très différement à ces limites. Dans le corps humain, le sang est un fluide qui circule partout, il apporte l'énergie mais n'a pas les mêmes contraintes que l'isolement indispensable d'un fil électrique. Pour schématiser, le fluide porteur intervient aussi dans la régulation thermique et dans la répartition énergétique. Actuellement, dans la conception des puces et processeurs, le chemin de données et le chemin d'alimentation énergétique sont des goulots conceptuels.
Pour en revenir au sucre, il a l'avantage d'être un carburant soluble.
Quis custodiet ipsos custodes?

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#42 Message par Jeffrey » 06 mai 2014, 12:35

Ardoise a écrit : J'ai lu tout le sujet et si je suis d'accord avec ce que pourra faire IA, [...]
A relire la béotienne de service, je reprécise le débat qu'on vient d'avoir :
A la question de savoir si l'IA (forte) est capable de faire tout ce que fait un esprit humain, et même plus, on peut répondre ceci :
1° les techniques d'IA font beaucoup de choses comparables à celles rélaisées par l'esprit humain, de plus en plus, de plus en plus vite...
2° Elles ne le font pas pour autant nécessairement de la même manière que l'esprit humain. A cette question, personne n'est en mesure de répondre si les IA seront capables d'aborder les approches métacognitives.
3° D'autres limitations physiques interviennent quand on tente de réduire la résolution d'un problème à une approche discrète séquentielle type Turing (temps, complexité, organisation spatiale, etc.)
voilà, on en est là.
Quis custodiet ipsos custodes?

Shermann
~~+
~~+
Messages : 22291
Enregistré le : 26 avr. 2007, 20:32

Re: Stephen Hawking alerte sur une menace pour l’humanité

#43 Message par Shermann » 06 mai 2014, 14:17

Jeffrey a écrit :la conception bidimensionnelle des processeurs.
Nous avons déjà des connexions 3D dans nos disques et nos clefs USB.

Avatar du membre
henryG
-++
-++
Messages : 4804
Enregistré le : 07 nov. 2011, 11:46
Localisation : SUPER SOLEM EST
Contact :

Re: Stephen Hawking alerte sur une menace pour l’humanité

#44 Message par henryG » 06 mai 2014, 14:46

Il me semble que sur la liste des dangers pour l humanité,
l intelligence artificielle est vers la fin.
Et au tout debut je mettrais la connerie humaine.
L2L a écrit :Niquer leur nièce de 13 ans, battre leur femme pour ensuite tuer leur voisin d'un coup de machette parce qu'il est soupçonné de sorcellerie....C'est la tout le charme de l'Afrique.

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#45 Message par Jeffrey » 06 mai 2014, 14:46

Shermann a écrit :
Jeffrey a écrit :la conception bidimensionnelle des processeurs.
Nous avons déjà des connexions 3D dans nos disques et nos clefs USB.
exact, mais c'est multi-layer, empilement de couches seulement; c'est inférieur aux potentialités offertes par un vrai 3D. Par exemple, la question de la connexité par arcs n'est pas la même. Pour relier des composants, il faut trouver un chemin physique qui s'inscrit dans une surface bidimensionnelle (l'agencement des composants électroniques sur une surface de silicium - wafer est un problème très difficile). Du point de vue mathématique, il faut traduire l'emplacement des composants par un graphe dit planaire (qu'on peut dessiner sur un plan sans créer d'intersection des liens). Dès qu'on s'autorise des connexions tridimensionnelles, on a une très grande souplesse, et globalement, technologiquement, on ne sait pas faire pour l'instant.

On peut aussi observer que dans la biologie, le chemin de transfert n'est pas asservi à un circuit rigide (transmetteurs chimiques véhicules autonomes). Là on souligne que la conception mécanique des ordinateurs est proprement très éloignée des implémentations biochimiques des êtres vivants.
Quis custodiet ipsos custodes?

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#46 Message par Pi-r2 » 06 mai 2014, 15:06

pour le problème de l'énergie: je crois que vous voyez l'IA émergent modèle terminator, un peu comme des humains.
Non l'IA émergente spontanée ou ayant échappé à ses créateurs sera sur le net. Maintenant expliquez moi comment on débranche le net et on éradique toute trace de cette IA (qui étant intelligente se sera backupée un peu partout)
Ensuite, pour vos comparaisons avec la biologie, soyez très prudents, la biologie est bien différente de ce que vous croyez.
En outre la bonne analogie n'est pas cerveau = réseau de neurone = hardware. Le cerveau c'est déjà du software, le hardware c'est principalement l'ADN (et les conditions initiales de la cellule œuf, concentration en différentes molécules, certains très complexes, organites etc).
Et le programme "humain" se développe de manière très contrôlée durant l'embryogénèse.
Il y a donc de fortes chances que les raisonnements qui vous conduisent à prétendre qu'une machine de Turing ne puisse pas développer d'IA s'applique très bien à l'humain. OR , on peut penser que l'humain est intelligent.
Une machine de turing qui interagit avec l'environnement (dispose de capteurs) dispose nécessairement d'une source d'aléatoire parfaite et infinie (le monde), comme les humains.
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

Avatar du membre
Pi-r2
Modérateur
Modérateur
Messages : 36010
Enregistré le : 08 juil. 2005, 19:31

Re: Stephen Hawking alerte sur une menace pour l’humanité

#47 Message par Pi-r2 » 06 mai 2014, 15:18

oléobulle a écrit : il me semble qu'une AI assez intelligente pour nous comprendre le serait assez pour nous désobéir, et que nous n'aurions pas de droit moral de "propriété" sur elle, car il ne s'agirait alors que d'une nouvelle forme d'esclavage.
Oui tout à fait.
oléobulle a écrit : Par ce que nos ordinateurs actuels ne sont que des machines de Turing.
Oui
oléobulle a écrit : et que, confrontés aux mêmes données, une machine de Turing donne invariablement le même résultat..
Mais dans le vrai monde, nous ne sommes jamais confrontés aux mêmes données. Sans avoir besoin de faire appel à la mécanique quantique d'ailleurs, le hasard "classique" suffit largement. D'ailleurs la miniaturisation des composants commence déjà à produire des effets non contrôlés sans avoir atteint la limite quantique, juste par effet de température. ça se rapproche du joyeux bordel dans les cellules animales.
à noter également que le produit d'un algorithme donné reste aléatoire tant qu'il n'est pas connu (cas des nombres premiers "grands").
Ainsi même avec la limitation que tu soulignes, si la machine décide de se fonder sur le prochain nombre premier qu'elle ne connaît pas encore, elle ne redonnera PAS le même résultat.
oléobulle a écrit : Si elle est un million de fois plus rapide, et bien elle le donne un million de fois plus vite, mais ce sera le même..
Donc ceci est fauX. On peut définir des algo pour lesquels cette phrase est incorrecte (mais il faut a minima une variation des données utilisées (bruit extérieur) ou un algo qui apprend et tient compte de son historique de résultats.
oléobulle a écrit : Il n'y a aucun mécanisme de réflexion dans les résultats, juste l'application mécanique d'algorithmes qui pourraient tout autant, certes plus lentement, être délivrées par des machines entièrement mécaniques, dotées de roues et d'engrenages...
Rien ne te prouve que ce n'est pas exactement la même chose dans ton cerveau ?
oléobulle a écrit :mais même là les ordinateurs sont incapables de créer du hasard, après un cycle suffisamment long, le cycle de nombres pseudos aléatoires reprend du début... ...
non, il existe des cycles infinis (nombres premiers)
oléobulle a écrit :L'intelligence, telle que la pratique l'être humain n'est, c'est en tout cas mon opinion, pas réductible à une simple machine de Turing, aussi sophistiquée soit-elle. Confrontées aux mêmes données, un humain choisira souvent un résultat différent. J'irais voir un film plutôt qu'un autre. Je prend tel dessert plutôt qu'un autre....
c'est ton opinion. Mais ton intelligence provient de l'exécution stricte d'un programme ADN.
oléobulle a écrit :Certains pensent que des phénomènes quantiques sont à l'oeuvre pour expliquer le phénomène de la conscience.
C'est parce qu'ils ont du mal avec les choses simples. Pas besoin du hasard quantique, le hasard normal suffit.
Les bonnes idées triomphent toujours. D'ailleurs c'est à cela qu'on reconnait qu'elles étaient bonnes.
mon statut de modérateur ne m'interdit pas de participer aux discussions. Je ne modère pas les discussions auxquelles je participe.

Avatar du membre
titano
~~+
~~+
Messages : 8507
Enregistré le : 27 oct. 2013, 19:36
Localisation : Stilwater

Re: Stephen Hawking alerte sur une menace pour l’humanité

#48 Message par titano » 06 mai 2014, 15:26

Pi-r2 a écrit :pour le problème de l'énergie: je crois que vous voyez l'IA émergent modèle terminator, un peu comme des humains. Non l'IA émergente spontanée ou ayant échappé à ses créateurs sera sur le net.
Skynet en fait, qui créra les terminators.
ΜΟΛΩΝ ΛΑΒΕ
Shermann a écrit :It's a jungle out there : 978-2412019689
Pooteen président !
Pimono, neron, saturne, Guynemer => /dev/null

Avatar du membre
Jeffrey
Modérateur
Modérateur
Messages : 13656
Enregistré le : 12 févr. 2012, 19:59

Re: Stephen Hawking alerte sur une menace pour l’humanité

#49 Message par Jeffrey » 06 mai 2014, 15:35

Pi-r2 a écrit :pour le problème de l'énergie: je crois que vous voyez l'IA émergent modèle terminator, un peu comme des humains.
Tiens ? Un croyant ! bienvenue au club. :P
Pi-r2 a écrit : Non l'IA émergente spontanée ou ayant échappé à ses créateurs sera sur le net. Maintenant expliquez moi comment on débranche le net et on éradique toute trace de cette IA (qui étant intelligente se sera backupée un peu partout)
Orage magnétique :arrow:
Pi-r2 a écrit : Ensuite, pour vos comparaisons avec la biologie, soyez très prudents, la biologie est bien différente de ce que vous croyez.
que croit-on exactement à propos de la biologie, et qui serait différent de ce qu'elle est ?
Pi-r2 a écrit : En outre la bonne analogie n'est pas cerveau = réseau de neurone = hardware. Le cerveau c'est déjà du software, le hardware c'est principalement l'ADN (et les conditions initiales de la cellule œuf, concentration en différentes molécules, certains très complexes, organites etc).
Et le programme "humain" se développe de manière très contrôlée durant l'embryogénèse.
Il y a donc de fortes chances que les raisonnements qui vous conduisent à prétendre qu'une machine de Turing ne puisse pas développer d'IA s'applique très bien à l'humain. OR , on peut penser que l'humain est intelligent.
Une machine de turing qui interagit avec l'environnement (dispose de capteurs) dispose nécessairement d'une source d'aléatoire parfaite et infinie (le monde), comme les humains.
Il y a deux choses à dire à propos de ta remarque; La première c'est que tu t'appuies sur une analogie fortement imagée quand on compare le programme génétique et les programmes d'ordinateurs. C'est une analogie grand public, mais pas révélatrice des différences essentielles. Ne serait-ce que même la notion de programme au sens premier : ensemble d'actions organisées dans un but déterminé. Les réactions chimiques cellulaires ne poursuivent pas de but à proprement parler. Alors qu'un programmeur, il faut espérer que oui. Tout est dans la recherche de sémantique. Or justement, on peut espérer qu'un programmeur poursuit un but, même s'il n'est pas inscrit dans le déroulement algorithmique.

On retrouve d'ailleurs la quintessence de la remarque de pigiste plus haut.

Dit autrement, la conscience humaine ne se réduit pas à l'association d'un grand nombre de phénomènes chimiques organisés
autour de phénomènes sensoriels liés à l'extérieur. La méta association de ces stimulis conduit à définir une "cohérence" . Cette cohérence entraîne les phénomènes volontaires, qui redescendent en une déclinaison de phénomènes neurologiques et chimiques organisés selon un programme (marcher, courir, taper sur un clavier). Fondamentalement, ce processus descendant ne s'observe pas avec un ordinateur. A moins de lire Asimov bien entendu.

La seconde remarque concerne l'échelle d'observation du phénomène. Il n'y a pas de frontière réelle entre un programme et un hardware, même en informatique. On peut toujours descendre à un niveau couche basse, mais la modélisation théorique ne rend pas compte de l'imbrication des deux. Autrement dit, je n'opposerais pas la description macroscopique et microscopique du fonctionnement biologique d'un être vivant en attribuant une répartition des rôles entre hardware et software. Et cette répartition n'existe pas non plus a priori au sein d'une machine implémentée réellement.
Quis custodiet ipsos custodes?

fabinoo
~~+
~~+
Messages : 5345
Enregistré le : 31 août 2005, 12:37
Localisation : Haute Corse
Contact :

Re: Stephen Hawking alerte sur une menace pour l’humanité

#50 Message par fabinoo » 06 mai 2014, 15:50

En fait, il y a plusieurs questions distinctes :
- Une IA est-elle capable à moyen terme d'égaler la pensée humaine ?
- Une IA a-t-elle besoin d'égaler la pensée humaine pour nous supplanter ? Autrement dit, une pensée moins complexe que la nôtre mais plus puissante pourrait-elle nous supplanter ?
- Une IA, quelle que soit sa qualité, est-elle donc capable de nous supplanter à moyen terme ?
- Quelle stratégie utiliserait-elle alors et quels seraient nos moyens d'y répondre ?

A la première question, il faudrait d'abord savoir ce qu'est exactement la pensée humaine, ce que ça représente en termes de complexité. Et vu qu'on en découvre en permanence sur la question, on n'est pas près d'avoir la réponse exacte.

A la deuxième question, je pense que la réponse est non. Il n'est pas nécessaire qu'une IA ait les qualités de la pensée humaine pour nous supplanter. Au contraire, même, peut-être. Eviter certains états d'âme et se concentrer sur la logique pourrait faire une IA redoutable, alors même qu'elle est plusieurs ordres de grandeur au-dessous de la capacité de pensée humaine.

A la troisième question, je répondrais que pas mal de "si" sont en présence. Si la loi de Moore est prolongée suffisamment longtemps, si l'algorythmique continue à progresser sur ce rythme, si les problèmes d'énergie sont résolus, etc.. Chacune de ces questions nécessiterait un long développement.

Pour la quatrième question, il serait intéressant de lister toutes les possibilités : annexion d'Internet, révolte des machines, manipulation de groupes humains, etc., etc..

Répondre