Re: Recyclage en Intelligence Artificielle
Posté : 20 juil. 2019, 16:42
https://www.journaldugeek.com/2019/07/2 ... rend-rien/1-0 pour l’humain : ces images auxquelles l’IA ne comprend rien
Forum de discussion concernant l'immobilier
http://www.bulle-immobiliere.org/forum/
http://www.bulle-immobiliere.org/forum/viewtopic.php?f=206&t=96208
https://www.journaldugeek.com/2019/07/2 ... rend-rien/1-0 pour l’humain : ces images auxquelles l’IA ne comprend rien
c'est la même chose que le watermark, mais appliqué inversement je pense.Parsifal a écrit : ↑20 juil. 2019, 16:45C'est plus profond que cela : il est démontré (mathématiquement) que les méthodes de classement imparfaites (comme les réseaux de neurones) peuvent être trompés en modifiant relativement peut l'image de manière artificielle. Le défi actuel est de faire que les cas litigieux soient plus ou moins les mêmes que pour les humains.
Dans les deux cas, on exploite la différence entre ce que perçoit un humain et ce que "perçoit" un ordinateur. Mais la difficulté de la génération de contenu adverse, c'est qu'on a pas la maitrise de l'algo de perception par exemple c'est le constructeur automobile qui décide du programme de reconnaissance de panneaux de signalisation dans une voiture, pas celui qui veut généré un panneau perçu comme un 60 par un humain et comme un 90 par une voiture, alors que c'est celui qui met un watermaking sur une image qui décide du programme utilisé pour récupérer le watermark. C'est vrai que dans le dernier cas on ne maitrise pas les programmes de (re-)compression éventuellement utilisés, mais ils doivent par définition coller aux perceptions humaines.Jeffrey a écrit : ↑20 juil. 2019, 22:02c'est la même chose que le watermark, mais appliqué inversement je pense.Parsifal a écrit : ↑20 juil. 2019, 16:45C'est plus profond que cela : il est démontré (mathématiquement) que les méthodes de classement imparfaites (comme les réseaux de neurones) peuvent être trompés en modifiant relativement peut l'image de manière artificielle. Le défi actuel est de faire que les cas litigieux soient plus ou moins les mêmes que pour les humains.
moinsdewatt a écrit : ↑20 juil. 2019, 16:42https://www.journaldugeek.com/2019/07/2 ... rend-rien/1-0 pour l’humain : ces images auxquelles l’IA ne comprend rien
Le coeur est effectivement que les données sont en grande dimension mais sont placées sur une variété riemannienne non linéaire (manifold dans la suite pour faire plus court). Du coup en utilisant les degrés de liberté introduits par les dimensions "inutiles" de l'espace initial (ie en modifiant les pixels, alors que l'information contenue dans l'image perçue par un humain est plus faible que celle contenue dans les niveaux des pixels) il devient nécessaire possible d'obtenir des résultats surprenant pour nous humains.Jeffrey a écrit : ↑21 juil. 2019, 01:06En fait’ je faisais uniquement référence à une extension possible de ce qui est dit par Parsifal.
Le mot clé est Stéganalyse .
https://pdfs.semanticscholar.org/8460/b ... a239fc.pdf
c'est bien comme cela que je comprends la chose. Pour faire un lien avec des termes un peu moins techniques et sachant que ton domaine de spécialité n'est pas le mien, je dirais pour expliciter que :Parsifal a écrit : ↑21 juil. 2019, 10:58Le coeur est effectivement que les données sont en grande dimension mais sont placées sur une variété riemannienne non linéaire (manifold dans la suite pour faire plus court). Du coup en utilisant les degrés de liberté introduits par les dimensions "inutiles" de l'espace initial (ie en modifiant les pixels, alors que l'information contenue dans l'image perçue par un humain est plus faible que celle contenue dans les niveaux des pixels) il devient nécessaire possible d'obtenir des résultats surprenant pour nous humains.Jeffrey a écrit : ↑21 juil. 2019, 01:06En fait’ je faisais uniquement référence à une extension possible de ce qui est dit par Parsifal.
Le mot clé est Stéganalyse .
https://pdfs.semanticscholar.org/8460/b ... a239fc.pdf
Edit: Dans le cas de la classification dans les régions hors du manifold mais proches, la classe peut-être à peu près n'importe quoi. Intuitevement c'est un peu comme avoir fait une tessellation avec certaines cellules énormes car "loin, mais pas trop" de la zone des données réelles.
Pour se "protéger" de ces attaques une idée naturelle est alors de détecter la sortie du manifold, mais cette détection est impossible si l'on arrive à rester au niveau de bruit "naturel" des données, hors en étant malin en grande dimension il est possible de sortir avec un bruit du même ordre (le tout étant basé sur les théorèmes de concentration de la mesure et plus particulièrement les log Sobolev inequalities).
Ca c'est plutôt ma vision de fonction localement linéaire. Pour moi linéaire c'est que collecter des informations locales permettant de séparer deux classes (linéairement) permet de gagner de l'information sur l'ensemble de l'espace (avec un bémol pour les espaces de très grande dimensions, tels ceux induits par certains noyaux)Jeffrey a écrit : ↑21 juil. 2019, 11:43c'est bien comme cela que je comprends la chose. Pour faire un lien avec des termes un peu moins techniques et sachant que ton domaine de spécialité n'est pas le mien, je dirais pour expliciter que :
- une variété est un truc, une forme, une chose, sur lequel on peut en tout endroit repérer ce qui est "à côté" avec des coordonnées (des cartes).
- une variété linéaire est une variété telle que dès qu'on a deux points proches, le milieu est aussi pas loin (en fait c'est une histoire de sous espace stable par barycentre)
Oui mais quand on veut catégoriser (apprendre à reconnaître les images de chats) le jeu devient de savoir placer les frontières. C'est (si on a bien bossé) facile dans l'espace du manifold (linéaire en fait), mais dans l'espace initial les frontières peuvent être un peu folles.- il existe plusieurs géométries sur des ensembles de cartes, c'est à dire des manières distinctes d'exprimer une distance, on parle de métrique. L'idée étant que deux points de la chose donnent lieu à deux jeux de coordonnées locales de ce qui est autour, et que dans les coordonnées locales, on peut calculer la distance de plein de façons différentes.
- si on prend une image et qu'on modifie un tout petit peu chaque bit de poids faible de chaque pixel, en utilisant un premier jeu de cartes, on a deux images pas très différentes.
- si on utilise un jeu de cartes qui ne rend pas compte de la proximité des pixels, mais s'appuie sur une métrique qui ne fait pas de la variété une variété linéaire, alors la "distance" entre deux images peut être calculée de manière complètement différente, de sorte que le rendu proximal dans le premier cas n'ait aucun rapport avec le deuxième cas.
Pour la moyenne, assez curieusement ce n'est pas si clair que l'image ne sera pas celle d'un chat. En tout cas si l'image obtenue n'est pas naturelle, je suis prêt à parier un petit billet que les textures seront celles que l'on retrouve sur les chats. Sur les visages les résultats "moyens" sont assez bluffants. D'autant plus si une partie du loss d'entrainement est "adverse" (comme dans les GANs).- par exemple, si je photographie un chat assis, et sur une deuxième image le chat dans une autre pose, alors la distance exprimée en pixels entre les deux images est très grande. Mais une reconnaissance par réseaux de neurones leur attribuera une distance faible. Si je moyenne pixel par pixel les deux images, cela ne ressemble absolument plus à un chat.
Je ne suis pas certain de comprendre la question : l'on travaille sur un compact de R^d et on apprend (peu importe comment) une fonction f bornée de R^d dans R^k. L'on utilise ensuite la distance euclidienne dans R^k , l'on a donc une métrique dans l'espace des embeddings qui est celui qui nous intéresse réellement. En effet en toute généralité ce n'est pas forcément une métrique sur R^d.Enfin, tout cela reste empirique, je me demande comment on fait pour être certain que tu construises bien une variété non linéaire (ça ok), mais que tu la munis bien d'une métrique ?
Ok, je suis parti sur une approche plus générale de la notion de variété, et je pensais que tu parlais de sous variété affine, donc stable par barycentration. Notre vocabulaire ne coïncidait pas exactement.Parsifal a écrit : ↑21 juil. 2019, 18:27Ca c'est plutôt ma vision de fonction localement linéaire. Pour moi linéaire c'est que collecter des informations locales permettant de séparer deux classes (linéairement) permet de gagner de l'information sur l'ensemble de l'espace (avec un bémol pour les espaces de très grande dimensions, tels ceux induits par certains noyaux)Jeffrey a écrit : ↑21 juil. 2019, 11:43c'est bien comme cela que je comprends la chose. Pour faire un lien avec des termes un peu moins techniques et sachant que ton domaine de spécialité n'est pas le mien, je dirais pour expliciter que :
- une variété est un truc, une forme, une chose, sur lequel on peut en tout endroit repérer ce qui est "à côté" avec des coordonnées (des cartes).
- une variété linéaire est une variété telle que dès qu'on a deux points proches, le milieu est aussi pas loin (en fait c'est une histoire de sous espace stable par barycentre)
A partir de là, je peux réexprimer ma question en réinterprétant l'approche:Parsifal a écrit : [...]Je ne suis pas certain de comprendre la question : l'on travaille sur un compact de R^d et on apprend (peu importe comment) une fonction f bornée de R^d dans R^k. L'on utilise ensuite la distance euclidienne dans R^k , l'on a donc une métrique dans l'espace des embeddings qui est celui qui nous intéresse réellement. En effet en toute généralité ce n'est pas forcément une métrique sur R^d.Enfin, tout cela reste empirique, je me demande comment on fait pour être certain que tu construises bien une variété non linéaire (ça ok), mais que tu la munis bien d'une métrique ?
fort intéressant, merci.WolfgangK a écrit : ↑21 juil. 2019, 12:06Pour les gens qui aiment les petits dessins : http://colah.github.io/posts/2014-03-NN ... -Topology/
Mais pourquoi cela serait il désirable que f transporte la métrique de l'espace de départ ? Le but c'est d'obtenir une nouvelle représentation dans laquelle la distance euclidienne se comporte "mieux" que la métrique initiale.Jeffrey a écrit : ↑23 juil. 2019, 13:01Et donc effectivement, même en considérant que l'ensemble des images des chats puisse être interprété comme une variété dans R^d - ce qui n'est pas gagné - ton homéomorphisme f (ça non plus c'est pas gagné) ne transporte pas ta métrique sur ta variété de l'espace de départ.
Au fait, pq on a pas de https://en.wikipedia.org/wiki/Curse_of_dimensionality avec ces espaces de grandes dimensions ?Parsifal a écrit : ↑23 juil. 2019, 16:00Mais pourquoi cela serait il désirable que f transporte la métrique de l'espace de départ ? Le but c'est d'obtenir une nouvelle représentation dans laquelle la distance euclidienne se comporte "mieux" que la métrique initiale.Jeffrey a écrit : ↑23 juil. 2019, 13:01Et donc effectivement, même en considérant que l'ensemble des images des chats puisse être interprété comme une variété dans R^d - ce qui n'est pas gagné - ton homéomorphisme f (ça non plus c'est pas gagné) ne transporte pas ta métrique sur ta variété de l'espace de départ.
La (non) réponse se trouve dans la vidéo que j'ai posé juste avant. Les explications sérieuses les moins lointaines sont celles des neural tangent kernels.WolfgangK a écrit : ↑23 juil. 2019, 16:10Au fait, pq on a pas de https://en.wikipedia.org/wiki/Curse_of_dimensionality avec ces espaces de grandes dimensions ?
Déjà je peux te dire que justement, je me demandais comment la transformation pouvait correspondre à une métrique de départ. Donc j'ai déjà compris avec ta réponse que ce n'était pas le but, et ça me rassure. Enfin, disons que je comprends les attendus de cette transformation, mais pour autant, ça laisse songeur sur l'efficacité de l'approche.Parsifal a écrit : ↑23 juil. 2019, 16:00Mais pourquoi cela serait il désirable que f transporte la métrique de l'espace de départ ? Le but c'est d'obtenir une nouvelle représentation dans laquelle la distance euclidienne se comporte "mieux" que la métrique initiale.Jeffrey a écrit : ↑23 juil. 2019, 13:01Et donc effectivement, même en considérant que l'ensemble des images des chats puisse être interprété comme une variété dans R^d - ce qui n'est pas gagné - ton homéomorphisme f (ça non plus c'est pas gagné) ne transporte pas ta métrique sur ta variété de l'espace de départ.
Oui, il n'y a aucune chance que ce soit un homéomorphisme à y réfléchir deux minutes, cela supposerait que tu aies trouvé exactement la dimension de l'espace local des "images de chat".Parsifal a écrit : En fait en pratique on se fiche même que cela soit un homéomorphisme car curieusement avoir trop de paramètres libres ne nuit pas autant que prévu.
Les algos stochastiques sont surprenants. On sait qu'ils lissent les irrégularités du gradient. Par contre, si je me souviens bien, les améliorations de la méthode de base -Robbin Monro - posent des problèmes de gestion de la mémoire il me semble.Parsifal a écrit : Au passage, une question que je trouve super intéressante sur la SGD dans un espace surparamétrisé est donnée à partir de la 10e minute de cette vidéo
Je ne connaissais pas, je regarderai et on en discutera (autour d'une bière peut être ?)Parsifal a écrit : Mais peut-être as tu en tête les algos façons t-SNE ou le but est de trouver une nouvelle représentation en dimension plus faible telle que les distances "faibles" soient préservées dans la nouvelle représentation ? https://lvdmaaten.github.io/tsne/
Et c'est très exactement ce qu'il faut faire puisque c'est l'algorithme utilisée par la biologie à toutes les échelles incluant le développement embryonnaire et le développement du cerveau, mais aussi l'évolution des espèces et le comportement des cellules, c'est du hasard contrôlé.
Deep learning techniques have become the method of choice for researchers working on algorithmic aspects of recommender systems. With the strongly increased interest in machine learning in general, it has, as a result, become difficult to keep track of what represents the state-of-the-art at the moment, e.g., for top-n recommendation tasks. At the same time, several recent publications point out problems in today's research practice in applied machine learning, e.g., in terms of the reproducibility of the results or the choice of the baselines when proposing new models. In this work, we report the results of a systematic analysis of algorithmic proposals for top-n recommendation tasks. Specifically, we considered 18 algorithms that were presented at top-level research conferences in the last years. Only 7 of them could be reproduced with reasonable effort. For these methods, it however turned out that 6 of them can often be outperformed with comparably simple heuristic methods, e.g., based on nearest-neighbor or graph-based techniques. The remaining one clearly outperformed the baselines but did not consistently outperform a well-tuned non-neural linear ranking method. Overall, our work sheds light on a number of potential problems in today's machine learning scholarship and calls for improved scientific practices in this area.
Client: We'd like to do what big AI labs like OpenAI and DeepMind are doing.
Me: You mean getting into a $1B debt?
Client:
Me:
Client: So is there any free pretrained model that you suggest that we use?
Ce que je vais dire va faire pédant, mais c'est pour situer la question que je pose aprèsPi-r2 a écrit : ↑08 août 2019, 09:53dire que pour développer une vraie IA il suffirait d'une ordinateur de base...
Il suffit de trouver le bon algo, celui qu'utilise la nature pour coder sur environ 6Gb tout ce qui est nécessaire pour faire fonctionner un cerveau humain, y compris l'alimentation et les périphériques
Eh bien, la réponse là me convient tout à fait. La capacité de produire une classification de formes perçues en vertu de leur affinité, de leur répétition, ou de n'importe quel autre principe, oui, c'est certainement une action intelligente.
Ce que tu décris est une "simple" processus de compression de données, processus indispensable pour une entité intelligente (sinon la quantité d'information est trop rapidement quasi infinie ), mais ce n'est qu'un des processus nécessaire à l'intelligence. Il serait réalisé mais seul, tu ne considérerais pas le résultat comme intelligent.saturne a écrit : imaginons un algorithme qui s'avère capable, à partir de textes alphanumériques :
WolfgangK a écrit :Pour certains, j'ai l'impression que c'est obligatoirement lié à une conscience
Le mec parle d'intelligence mais à une tête d'idiot : ca ne colle pas !Parsifal a écrit : ↑23 juil. 2019, 16:00Mais pourquoi cela serait il désirable que f transporte la métrique de l'espace de départ ? Le but c'est d'obtenir une nouvelle représentation dans laquelle la distance euclidienne se comporte "mieux" que la métrique initiale.Jeffrey a écrit : ↑23 juil. 2019, 13:01Et donc effectivement, même en considérant que l'ensemble des images des chats puisse être interprété comme une variété dans R^d - ce qui n'est pas gagné - ton homéomorphisme f (ça non plus c'est pas gagné) ne transporte pas ta métrique sur ta variété de l'espace de départ.
En fait en pratique on se fiche même que cela soit un homéomorphisme car curieusement avoir trop de paramètres libres ne nuit pas autant que prévu. Au passage, une question que je trouve super intéressante sur la SGD dans un espace surparamétrisé est donnée à partir de la 10e minute de cette vidéo
Mais peut-être as tu en tête les algos façons t-SNE ou le but est de trouver une nouvelle représentation en dimension plus faible telle que les distances "faibles" soient préservées dans la nouvelle représentation ? https://lvdmaaten.github.io/tsne/
Haha l'on dévie largement, mais pour moi la frontière du gauchisme (notion fluctuante au cours de l'histoire) est à l'heure actuel au niveau de la reconnaissance de l'importance de l'effort personnel et de l'acceptation du fait que les capacités intellectuelles sont dans leur développement pas si différentes des capacités musculaires. Le gauchiste donne l'impression de croire que répéter une idée suffisamment la rend vraie et ne s'embarrasse pas avec les éléments contrevenant à son idéologie.
Non, pas du tout.saturne a écrit : ↑11 août 2019, 01:51Eh bien, la réponse là me convient tout à fait. La capacité de produire une classification de formes perçues en vertu de leur affinité, de leur répétition, ou de n'importe quel autre principe, oui, c'est certainement une action intelligente.
Mais la video ci-dessus opère réllement une classification ?
Ou bien est-ce simplement une reconnaissance des images, en vue d'une classification donnée d'avance ?
Ce que j'avais compris de l'exemple de la video, c'est que la classification est toujours donnée d'avance: 10 chiffres. On sait d'avance qu'on ne peut reconnaître que 10 chiffres.
Il y a des méthodes qui font exactement ce que vous décrivez, dans d’autres problématiques contextuelles.saturne a écrit : On demande alors à l'algorithme de discerner dans la masse de images les formes qui peuvent rentrer dans la classification. Les autres formes (par exemple des lettres) ne seront simplement pas reconnues, puisque la classification est donnée, ce n'est pas le programme lui-même qui "produit" un classement de 10 chiffres.
Le programme si j'ai bien compris, ne fait que reconnaître les formes qu'on lui a donné à discerner. D'ailleurs, il produit seulement des statistiques de réussite.
S'il avait produit un classement, on se serait attendu à ce qu'il produise le classement de 10 chiffres !
Votre problème est que vous ne faites pas la distinction entre l’acte sémantique et la codification de représentation.saturne a écrit : Un action proprement intelligente serait plutôt celle qui est capable de _construire_ la classification (d'identifier 10 formes homogènes -- nos chiffres -- dans l'agregat de formes qu'on lui propose en entrée), et donc à la fin de dire : "ces images peuvent être classées et ramenées à 10 "concepts" correspondants à nos 10 chiffres -- dans le système décimal).
Pour montrer la différence que je fais entre une simple reconnaissance de formes (orientée par avance) et une classification proprement intelligente (où des formes, non classées ni donc identifiées d'avance, seront dégagées par le programme d'I.A), imaginons un algoritme qui s'avère capable, à partir de textes alphanumériques :
-- de discerner dans la forme brute des pages en noir et blanc, des paragraphes, puis dans ces paragraphes, des mots, enfin des lettres. A chaque fois, ce sont des formes noir sur blanc plus ou moins délimitées. Mais la répétition de certaines des formes atomiques lui permet ainsi d'identifier nos "lettres"
-- ensuite, dans ces formes atomiques, il conclut que certaines formes comme { à á ä } sont en fait des variantes de la forme atomique 'a' : il construit donc un sous-classement de lettres accentuées, et même de toutes les accentuations possibles pour certaines lettres -- voyelles -- mais pas pour d'autres -- consonnes --)
-- ensuite, il arrive à conclure que les formes { A , a } puis { B , b } sont des déclinaisons de |a|. Car de mêmes formes-"mots" homogènes utilisent les 2 déclinaisons de lettres. Donc c'est la même lettre, avec 2 déclinaisons de forme
-- ensuite, il arrive à distinguer les chiffres comme un ensemble distinct des lettres, simplement parce que les chiffres se regroupent ensemble. les lettres aussi mais de leur côté.
-- etc.
J'ai expliqué plus haut pourquoi votre description d'un attendu n'a pas de sens absolu, mais se réfère à un déroulé implicite qui exprime que vous n'avez pas extrait avec précision ce que vous décririez comme un acte intelligent. D'autant qu'encore une fois, vous procédez à partir d'un exemple. On ne définit pas un concept par une situation où il s'applique.saturne a écrit : Bref, après mille et une manière de raisonner, suivant certains principes logiques (=principes qu'on inscrit comme règle à suivre par le programme) le programme m'affiche alors (=il me transmet donc ses conclusions) :
-- qu'il a été capable de reconnaître et de classer à partir du texte 26 lettres (notre alphabet), dont certaines avec des variantes (accentuées)
-- qu'il a été capable de reconnaître que les minuscules et les majuscules correspondent aux mêmes lettres du classement précédent.
-- mais qu'il n'a pas été capable de classer les autres agrégats de formes (il reconnaît des mots. des paragraphes, mais il ne peut pas les "classer"). Autrement dit, il a besoin de meilleures règles de spécification et de "construction" pour arriver à un classement pour les "mots", pour les "paragraphes", etc.
C'est ce que fait l'IA précisément dans le cadre des techniques de reconnaissance de caractères. Mais on n'a même pas besoin d'IA pour ça, c'est de la classification topologique de base. ça existe et ça marche très bien depuis cinquante ans.saturne a écrit : Alors dans ce cas, oui, cette action-là serait une classification intelligente. Et on peut étudier des procédés d'apprentissage.
Surtout, on peut étudier les "principes" de la démarche d'intelligence, à la manière de règles : spécification de formes, homogénéité de formes, regroupement de formes, répétition de formes, succession de formes etc, (ce qu'on appelle le "schématisme" de la réflexion, en fait)
Modèle non supervisé.Il y a des modèles non supervisés.
Mais les Romains savaient compter. Et on ne demande pas à l'IA de savoir compter (seulement de reproduire une technique, celui qui compte, c'est l'humain).Jeffrey a écrit : Votre problème est que vous ne faites pas la distinction entre l’acte sémantique et la codification de représentation.
Par exemple les romains n’associaient pas un symbole spécifique à un entier de 1 à 9 pour repérer un nombre et ensuite organiser une disposition de ces symboles successifs pour identifier une numération de l’ensemble des entiers. Ils ne disposaient pas du zéro
A Pir2: Prenez cette proposition : "Une machine n'est pas intelligente au sens où un humain (de naissance) est intelligent" -- on est tous d'accord ? Alors vous n'avez pas besoin de partir d'une définition de l'intelligence: le critère du vrai et du faux, c'est vous ! Ensuite, rien ne vous empêche de décomposer les fondements logiques, et pratiques qui vous assurent que la proposition précédente est nécessairement, et universellement vraie. Ça s'appelle une "critique" et il suffit de l'avoir faite intégralement une fois dans l'histoire, ce qui n'empêche pas ceux qui veulent s'en assurer de recommencer (c'est vrai que ça serait bien d'avoir des versions plus "modernisées" de Kant, c'est pour ça que je suis curieux de ce qu'on fait en I.A.: il y a des cours de formation qui se perdent, j'ai l'impression[1])PiR2 a écrit :Nous n'avons pas encore de définition précise de ce qu'est l'intelligence*
Je pense que si nous arrivions à cette définition précise , il suffirait de la convertir en algorithme pour créer une IA "vraie".
Ça n'a rien à voir avec du marketing d'AI. c'est juste que les classes sont définies en fonction d'une métrique dans l'espace de représentation pour minimiser les distances intra-classe et maximiser les distances interclasses (mettre les éléments le plus proches ensemble), plutôt que d'avoir a priori des exemples annotés pour lesquels ont connaît les classes.saturne a écrit : ↑13 août 2019, 00:43Modèle non supervisé.Il y a des modèles non supervisés.
https://fr.wikipedia.org/wiki/Apprentis ... rvis%C3%A9
Merci. Des sources que vous savez intéressantes ? (papers , si possible)
P.S. : Je savais bien qu'on n'appellerait pas la chose par son nom. Ça en dit long, d'ailleurs, sur le délire marketing autour de l'IA., d'appeler "non supervisé" un modèle qui cherche à reproduire l'intelligence. En même temps, c'est bien trouvé.
Vous confondez non-supervisé (distances plutôt qu'exemples classés) et "black-box" (par exemple réseaux de neurones) pour lesquels il n'est pas évident d'avoir une définition en intention (contra par extension) de la classification obtenue. Notez que même pour une algo de classement de type "black-box" on sait comment le modèle est arrivé à sa classification (e.g. en descendant un gradient), on sait pas bien où il est arrivé ☺.saturne a écrit : ↑13 août 2019, 00:43Donc, à la fin du premier temps, un modèle sans supervision est-il capable d'expliquer par quel procédé il est arrivé à sa classification ?
Je vais voir. Si vous m'orientez un peu, peut-être que je pourrai revenir plus vite avec de nouvelles confusions à me corriger
Ça n'a pas vraiment se sens. Les définitions sont juste des modèles. On observe des comportements, on induit des capacités qui les expliquent, on classifie certains comportement dans une classe "comportements intelligents" et on les explique par une capacité "intelligence". L'existence précède l'essencePiR2 a écrit :Nous n'avons pas encore de définition précise de ce qu'est l'intelligence*
Je pense que si nous arrivions à cette définition précise , il suffirait de la convertir en algorithme pour créer une IA "vraie".
Pourquoi demander à une machine plus que ce que l'on demande à un humain. Peux tu expliquer par quel mécanisme tu en vient à te poser des questions sur l'IA ?
Non, je ne suis pas d'accord.
Affirmation gratuite.
Oui
Vu qu'il y a plusieurs '' intelligences'' on est pas rendu.
Vous écrivez ça comme si c'était vrai.moinsdewatt a écrit : ↑13 août 2019, 07:29Vu qu'il y a plusieurs '' intelligences'' on est pas rendu.
https://fr.m.wikipedia.org/wiki/Th%C3%A ... _multiples
Vous avez une approche négative et émotionnelle. Vous n'examinez pas les concepts de manière objective, mais en partant à chaque fois d'une formulation négative de ce que fait la machine. "les romains savaient compter, pas l'ia".saturne a écrit : ↑13 août 2019, 00:43Mais les Romains savaient compter. Et on ne demande pas à l'IA de savoir compter (seulement de reproduire une technique, celui qui compte, c'est l'humain).Jeffrey a écrit : Votre problème est que vous ne faites pas la distinction entre l’acte sémantique et la codification de représentation.
Par exemple les romains n’associaient pas un symbole spécifique à un entier de 1 à 9 pour repérer un nombre et ensuite organiser une disposition de ces symboles successifs pour identifier une numération de l’ensemble des entiers. Ils ne disposaient pas du zéro
C'est exactement le contraire de ce que je viens d'expliquer. J'ai écrit : "Votre problème est que vous ne faites pas la distinction entre l’acte sémantique et la codification de représentation."De toutes façons, si opérer un classement relève de l'acte sémantique,
Si vous voyez par terre un cailloux et une pomme, vous aller ramasser la pomme et la croquer. Mais même si vous ramassez le cailloux, vous n'allez pas croquer dedans. Si je vous demande pourquoi, qu'allez vous me répondre ? Que le cailloux ne se mange pas ? Ce ne sera pas une réponse qui expliquera votre classification. Le "sens" que vous donnez à votre classification, c'est à dire ce que vous semblez entendre par "expliquer le procédé" n'est en rien une explication de la classification, il opère en aval et n'est en aucune manière la cause de la classification, c'est à dire son explication.saturne a écrit : vos explications sous-entendent que les concepts "dégagés sans supervision" en un premier temps, soient utilisables dans un second temps pour procéder à la classification de nouveaux matériaux (sur un nouveau stock d'images).
Donc, à la fin du premier temps, un modèle sans supervision est-il capable d'expliquer par quel procédé il est arrivé à sa classification ?
Encore une affirmation totalement péremptoire (et de surcroît fausse, c'est un test bien connu dans le domaine de l'informatique :reconnaitre un interlocuteur humain d'une machine). Et c'est drôle, parce que là, vous parlez de 'confusément', alors que depuis le début, vous insistiez sur le fait que l'essence de l'activité intellectuelle réside dans la capacité à expliquer le processus .saturne a écrit : Bref, tout être humain est capable de différencier l'IA. de l'intelligence humaine, plus ou moins confusément, mais pas avec moins d'assurance ou de vérité logique.
vous devriez relire Spinozasaturne a écrit : Une machine ne peut simplement pas se choisir une fin (elle est déjà conçue en fonction d'une fin utile). Le concept d'une fin implique celui de la liberté. Ça n'empêche pas que le travail de "modélisation" de l'I.A., avec des fins établies par avance (qui ne sont pas libres) permet de mettre au point des techniques de calcul au service de l'intelligence humaine qui, elle, est assurément libre.
"celui qui compte c'est l'humain"Jeffrey a écrit : ↑13 août 2019, 09:50Vous avez une approche négative et émotionnelle. Vous n'examinez pas les concepts de manière objective, mais en partant à chaque fois d'une formulation négative de ce que fait la machine. "les romains savaient compter, pas l'ia".saturne a écrit : ↑13 août 2019, 00:43Mais les Romains savaient compter. Et on ne demande pas à l'IA de savoir compter (seulement de reproduire une technique, celui qui compte, c'est l'humain).Jeffrey a écrit : Votre problème est que vous ne faites pas la distinction entre l’acte sémantique et la codification de représentation.
Par exemple les romains n’associaient pas un symbole spécifique à un entier de 1 à 9 pour repérer un nombre et ensuite organiser une disposition de ces symboles successifs pour identifier une numération de l’ensemble des entiers. Ils ne disposaient pas du zéro
Qu'est ce que savoir compter ? poser une opération, procéder à un certain nombre de manipulations qui conduisent à une transformation d'un groupe de nombres en un autre, par exemple associer les nombres 2 et 3 à 8, par l'opération 2^3=8... les machines savent le faire, et bien mieux que les romains de l'antiquité.
"celui qui compte c'est l'humain" est une affirmation, pas une définition ni une observation argumentée.
Oui, la nature sait compter, donc les être humains aussi, mais seul l'humain-qui-a-l'intelligence construit la machine (un boulier ou un ordinateur ou un cours d'arithmétique) qui "sait-comment-compter" mais ne-sait-pourquoi-elle-compte : l'humain-qui-est-intelligent sait non seulement compter (comme tout être naturel), mais il sait aussi construire un outil ou un raisonnement pour le faire faire : pour "faire compter".
Faut que j'aille voir où me conduit Wikipedia (faute d'autes références). Mais définir une métrique dans un espace pour déterminer des distances afin de spécifier ou au contraire grouper des éléments, ça suppose déjà des règles.Ça n'a rien à voir avec du marketing d'AI. c'est juste que les classes sont définies en fonction d'une métrique dans l'espace de représentation pour minimiser les distances intra-classe et maximiser les distances interclasses (mettre les éléments le plus proches ensemble), plutôt que d'avoir a priori des exemples annotés pour lesquels ont connaît les classes.
C'est pour cela que je parlais de "critique" et non de "définition" de l'intelligence. La connaissance consiste, à partir d'une perception quelconque, mais confuse, à dégager par voie logique et expérimentale les principes et les limites sur lesquels se savoir se fonde.Jeffrey a écrit : ↑13 août 2019, 09:50Encore une affirmation totalement péremptoire (et de surcroît fausse, c'est un test bien connu dans le domaine de l'informatique :reconnaitre un interlocuteur humain d'une machine). Et c'est drôle, parce que là, vous parlez de 'confusément', alors que depuis le début, vous insistiez sur le fait que l'essence de l'activité intellectuelle réside dans la capacité à expliquer le processus .saturne a écrit : Bref, tout être humain est capable de différencier l'IA. de l'intelligence humaine, plus ou moins confusément, mais pas avec moins d'assurance ou de vérité logique.
Et pourquoi ça ne serait pas vrai ?WolfgangK a écrit : ↑13 août 2019, 09:22Vous écrivez ça comme si c'était vrai.moinsdewatt a écrit : ↑13 août 2019, 07:29Vu qu'il y a plusieurs '' intelligences'' on est pas rendu.
https://fr.m.wikipedia.org/wiki/Th%C3%A ... _multiples
Je ne crois pas que la psychométrie reconnaisse ces capacités, si elles existent vraiment, comme des formes d'intelligences.