Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 103
Temps de recherche: 0.0656s

homme-machine

Pourquoi l’IA commence à devenir un serpent qui se mord la queue ?

Il est fascinant de constater combien l’avancée technologique influence le paysage numérique. L’IA se tient à la proue de cette révolution contemporaine. Mais, à mesure que l’IA progresse, elle semble devenir le reflet de l’ouroboros, ce serpent antique qui se mord la queue.

Le monde virtuel subit une transformation. Partout sur Internet, le contenu généré par l’IA gagne du terrain. Cette évolution peut sembler une menace pour les futurs modèles d’IA. Pourquoi ? Parce que des modèles comme ChatGPT se basent sur des informations glanées en ligne pour se former. Si cette source est polluée par du contenu " synthétique ", cela peut entraîner ce que l’on appelle un " effondrement du modèle ".

Le danger est tel que le filtrage de ces données synthétiques est devenu un champ de recherche crucial. Les experts s’y penchent, car l’ampleur du contenu de l’IA ne cesse de grandir.

L’IA, la queue qu’elle poursuit sans cesse

L’ouroboros, serpent ancien se dévorant lui-même, devient le symbole par excellence de l’IA actuelle. L’émergence massive du contenu éditorial produit par l’IA alarme de nombreux spécialistes. Mais le problème central, c’est la potentialité des erreurs qui s’insèrent dans ces contenus.

En se nourrissant de l’Internet, l’IA, telle un serpent mordant sa propre queue, risque d’intégrer des erreurs, créant une spirale infinie d’imperfections. Une récente étude met en exergue ce phénomène : après plusieurs cycles de formation sur du contenu synthétique, les résultats devenaient incompréhensibles.

Par ailleurs, une autre recherche montre que les images générées par l’IA, lorsqu’elles sont uniquement basées sur des données d’IA, finissent par être floues et non identifiables. Ces erreurs, bien qu’apparemment bénignes, pourraient amplifier des biais discriminatoires, rendant la tâche encore plus ardue.

Pour contrer cela, nous devons miser sur des données non corrompues par du contenu synthétique. Comme l’évoque Alex Dimakis de l’Institut national de l’IA, la qualité intrinsèque des modèles est tributaire de la qualité des données. Même une modeste quantité de données de haute qualité pourrait surpasser un vaste ensemble synthétique.

Ainsi, les ingénieurs restent sur le front, veillant à ce que l’IA ne s’entraîne pas sur des données qu’elle a elle-même produites. Car, malgré les prouesses de l’IA, la touche humaine demeure irremplaçable. 

 

Auteur: Internet

Info: https://www.lebigdata.fr, Nirina R., 24 octobre 2023

[ intelligence artificielle ] [ générative ] [ cercle vicieux ] [ sophisme ] [ logique hors-sol ] [ tri nécessaire ] [ épuration ] [ savoirs ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

L'IA de DeepMind peut construire une vision du monde à partir de plusieurs images.
L'intelligence artificielle peut maintenant se mettre à la place de quelqu'un d'autre. DeepMind a développé un réseau neuronal qui lui a appris à "imaginer" une scène à partir de différents points de vue, à partir d'une image seulement.
Avec une image 2D d'une scène - par exemple, une pièce avec un mur de brique et une sphère et un cube de couleur vive sur le sol - le réseau neuronal peut générer une vue 3D à partir d'un point de vue différent, rendant les côtés opposés des objets et modifiant l'endroit où les ombres tombent pour maintenir la même source de lumière.
Le système, nommé Generative Query Network (GQN), peut extraire des détails d'images statiques pour deviner les relations spatiales, y compris la position de la caméra.
"Imaginez que vous regardez l'Everest et que vous bougez d'un mètre - la montagne ne change pas de taille, ce qui vous dit quelque chose sur sa distance", dit Ali Eslami qui a dirigé le projet à Deepmind.
"Mais si vous regardez une tasse, elle changera de position. C'est semblable à la façon dont cela fonctionne."
Pour former le réseau neuronal, lui et son équipe lui ont montré des images d'une scène à partir de différents points de vue, utilisés pour prédire à quoi ressemblerait quelque chose depuis derrière ou du côté. Le système s' auto enseigne aussi via le contexte, les textures, les couleurs et l'éclairage. Ce qui contraste avec la technique actuelle de l'apprentissage supervisé, dans lequel les détails d'une scène sont étiquetés manuellement et transmis à l'IA.
L'IA peut également contrôler des objets dans l'espace virtuel, en appliquant sa compréhension des relations spatiales à un scénario où elle déplace un bras robotique pour ramasser une balle. Elle apprend beaucoup comme nous, même si nous ne le réalisons pas, dit Danilo Rezende de DeepMind, qui a également travaillé sur le projet.
En montrant au réseau neuronal de nombreuses images en formation, l'IA peut identifier les caractéristiques d'objets similaires et s'en souvenir. "Si vous regardez à l'intérieur du modèle, nous pouvons identifier des groupes de neurones artificiels, des unités dans le graphique de calcul, qui représentent l'objet ", dit Rezende.
Le système se déplace autour de ces scènes, faisant des prédictions sur l'endroit où les choses devraient être et à quoi elles devraient ressembler, en s'ajustant quand ses prédictions sont incorrectes.
Il a pu utiliser cette capacité pour élaborer la disposition d'un labyrinthe après avoir vu quelques photos prises de différents points de vue.

Auteur: Whyte Chelsea

Info: https://www.newscientist.com, 14 juin 2018

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

ChatGPT : Qu’est-ce qui se passe de si spécial dans un transformer ?

Sebastien Bubeck explique cela très bien : la machine, contrairement à nous, ne succombe pas au biais inductif. Si dans une série qui semble à première vue homogène, il existe certaines configurations qui permettent un raccourci vers la solution, la machine le découvrira, alors que nous, pauvres humains, victimes du biais inductif, nous allons considérer que comme la série a l’air homogène, elle l’est nécessairement et … nous ne trouverons pas les raccourcis cachés dans certaines configurations … faute d’avoir même supposé que de tels raccourcis pouvaient exister.

 (explication vidéo des transformers)

Ok, j’explique ce que cela veut dire sur deux exemples.

Vous vous souvenez sans doute (ou seulement peut-être) de cette vidéo historique de 2014 où Demis Hassabis, fondateur de DeepMind, présentait une IA jouant à casse-briques ? Ce qu’il nous montrait, c’était que l’IA découvrait au bout d’un moment que la tactique la plus payante, ce n’était pas d’attaquer le mur de front, mais de le prendre à revers en passant latéralement et en allant faire rebondir le projectile sur lui à partir du plafond. À cela, les humains n’avaient pas pensé*, ils imaginaient que les configurations étaient homogènes : qu’elles se valaient toutes.

Un bon exemple de biais inductif, ce serait de généraliser en disant : "Quand on examine la suite des nombres entiers, 1, 2, 3 …, on observe que pour chacun de ces nombres …", alors que certains d’entre eux ont des propriétés particulières que les autres n’ont pas. Ainsi, 1, 2, 3, 5, 7… ne sont divisibles que par 1 et par eux-mêmes : ce sont des nombres premiers ; 4 et 9 sont des carrés, ils résultent de la multiplication par lui-même d’un nombre avant eux dans la liste ; 8 est un cube : un nombre avant lui dans la liste multiplié par lui-même à deux reprises, etc.

Le premier à avoir noté cela à notre connaissance, c’est Diophante (200-284). Il est le premier à avoir laissé entendre à propos de la suite des entiers : "Ne vous y fiez pas : certains d’entre eux sont des gens très ordinaires, mais d’autres sont de drôles de paroissiens !". Diophante, le premier à avoir attiré notre attention sur le fait que 4, 8, 9… permettent des raccourcis qui sont fermés aux autres entiers. Or aux yeux de l’IA d’aujourd’hui, avec le temps dont elle dispose en quantité quasi-illimité, il n’y a pas de raccourci nous étant resté inaperçu, qu’elle ne  parvienne à découvrir. Du coup, elle nous fait honte. Nous pouvons lui rappeler : "N’oublie pas que je suis ton père (ou ta mère) !", mais vous connaissez les enfants…

Auteur: Jorion Paul

Info: Sur son blog, 14 avril 2023 à propos des transformers. * Il y a bien eu sur le Blog de PJ quelques commentateurs fanfarons pour dire : "Fastoche ! Même ma grand-mère savait ça !", mais ce sont les mêmes frimeurs qui, neuf ans plus tard, sévissent toujours sur le blog [a https://www.toupie.org/Biais/Probleme_induction.htm]

[ intelligence artificielle ] [ surhumaine compréhension ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

L'argument de la chambre chinoise de John Searle remet en question l'idée que les ordinateurs puissent véritablement comprendre le langage. Il présente un scénario dans lequel une personne dans une pièce suit des instructions en anglais pour répondre à des symboles chinois, sans réellement comprendre la signification de ces symboles. Selon Searle, cette situation est similaire à la manière dont les ordinateurs traitent l'information : ils manipulent les symboles sur la base de règles prédéfinies, mais ne les comprennent pas vraiment. Il estime que la compréhension nécessite une conscience et une intentionnalité que les machines ne possèdent pas. En substance, l'argument de Searle suggère que les ordinateurs peuvent simuler le traitement du langage, mais qu'ils ne comprennent pas vraiment le sens des symboles qu'ils manipulent. En résumé :

Un ordinateur programmé pour parler chinois ne comprend pas le chinois. Il ne fait que suivre des règles.

L'intelligence humaine comprend le chinois.

- L'intelligence artificielle ne peut donc pas être confondue avec l'intelligence humaine.


Ainsi, selon cette triple perspective : celle de chatGPT4, le point de vue "FLP post Peirce", ainsi que les règles de notre application... ce concept de chambre chinoise implique qu'une race organique comme les humains, nécessite une priméité commune, un monde partagé, afin de pouvoir réellement communiquer-traduire avec ses semblables lorsqu'ils parlent un autre idiome. Dit autrement lors d'un échange-transposition, via l'utilisation de mots symboles (qui sont des univers en eux-mêmes), les entités organiques d'une même espèce doivent partager le même univers source - même si cette idée peut apparaitre come un truisme.

Il sera certes possible d'affiner très avant tous les concepts possibles pour une machine, mais il manquera toujours à pareil logiciel hors-sol un certain nombres de compétences-capacités-attributs que possèdent les êtres organiques-grégaires. Dans le désordre : La capacité poétique, le sens du jeu avec les mots (univers eux-mêmes), du contrepied sémantique et de l'humour... Une souplesse d'adaptation tous azimuts en fonction des contextes, humeurs, vitesse du vent, etc...  Et probablement, par dessus tout, la capacité de mentir, de jouer avec les apparences.

Il est certain que lA dominera l'humain dans beaucoup de domaines hyper-complexes - où elle devra être utilisée comme outil spécialisé. Mais, pour ce qui est d'une " prise avec le réel ", d'une capacité à saisir tel ou tel langage corporel dans l'instant, de communiquer-interagir sensuellement avec un chat ou même un végétal... On demande à voir.

Ces problématiques seront probablement analysables avec un surcroit d'acuité le jour d'une rencontre avec des organiques évolués non-humains et non-issus de Gaïa.  Apprenons d'abord à mieux nous intégrer dans cette dernière, probablement par l'usage d'une nouvelle logique, tétravalente... moins dépendante de son langage... preuve en étant apportée par les capacités d'expansion-adaptation des constructions permises par le carbone tétravalent.

Auteur: Mg

Info:

[ machine-homme ] [ chatbot tiercité hors-sol ] [ apprentissage automatique ] [ transposition ] [ xénolinguistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Elisa Vianello, chercheuse au CEA et coordinatrice du programme Edge AI, a reçu une subvention de 3 millions d'euros du Conseil européen de la recherche (ERC) dans le but de développer des dispositifs de mémoire sur silicium à l'échelle nanométrique inspirés du système nerveux des insectes. Un des objectifs de ce projet ambitieux est la mise au point de la toute première puce intelligente associée à un module neuronal local capable de traiter les données sensorielles en temps réel. Cette innovation trouve des applications dans la robotique grand public, les puces implantables pour le diagnostic médical et l'électronique portable.

La communauté de l'intelligence artificielle (IA) a récemment proposé de puissants algorithmes qui devraient permettre aux machines d'apprendre par l'expérience et d'interagir de manière autonome avec leur environnement. 

Toutefois, pour concrétiser cette ambition, des nanosystèmes dotés d'architectures de pointe de moins en moins énergivores, et dont la mémoire devra être à très haute densité, à haute résolution et dotée d’une endurance illimitée, doivent être mis en place. Si cette capacité n'existe pas encore aujourd'hui, le projet d’Elisa Vianello pourrait en ouvrir la voie : elle a découvert que différentes fonctions du système nerveux de l'insecte ressemblent étroitement aux fonctions assurées par les mémoires déterministes, probabilistes, volatiles et non volatiles.

"Comme la mémoire idéale n'existe pas aujourd'hui, le projet vise à construire une synapse hybride qui intègre différentes technologies de mémoire." Elle précise pour ce faire, s’être appuyée sur les grillons qui pour échapper à leurs prédateurs, "prennent des décisions justes à partir de données peu fiables, imprécises et lentes envoyées par leurs neurones et synapses. En examinant de près leur structure biologique, nous avons identifié une diversité de fonctions de type mémoire impliquées dans leurs systèmes sensoriels et nerveux. En combinant ces différentes fonctions, le système de traitement interne du criquet parvient à atteindre des performances remarquables et efficaces energétiquement." 

Elisa et son équipe fabriqueront des réseaux de dispositifs de mémoires physiques à l'échelle nanométrique avec l’objectif de traduire les principes biologiques des insectes en principes physiques. Ceci permettra l’apprentissage à partir d'un volume très limité de données bruitées, telles que les données mesurées en temps réel par différents capteurs (caméras, radars, capteurs cardiaques (ECG), capteurs musculaires (EMG), flux de bio-impédance et potentiellement aussi de signaux cérébraux par le biais de capteurs EEG et de sondes neuronales). 

"Les travaux d'Elisa permettront d’ouvrir de nouvelles perspectives de recherche vers des projets d’intelligence embarquée moins énergivore et capable d'apprendre en ligne", a déclaré Jean-René Lequepeys, directeur adjoint et technique du CEA-Leti, laboratoire duquel dépend Elisa Vianello. "Il s'agit d'une véritable rupture technologique et applicative qui combinera les derniers développements de la microélectronique en utilisant de nouvelles générations de mémoires non volatiles et en s'inspirant du monde vivant. Ce travail de recherche s'inscrit pleinement dans les priorités de l'institut et ouvrira de belles perspectives de premières mondiales et de commercialisation."

Auteur: Internet

Info: Sur http:wwwcea. Fr, Mars 2022. Elle obtient une bourse pour développer des mémoires à l'échelle nanométrique inspirées du système nerveux des insectes

[ épigénétique ] [ logique floue ] [ homme-animal ] [ heuristique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Illustrer l'apprentissage par renforcement à partir de commentaires humains (RLHF*)

Les modèles de langage ont montré des capacités impressionnantes au cours des dernières années en générant des textes variés et convaincants à partir d'entrées humaines. Cependant, il est difficile de définir ce qu'est un "bon" texte, car c'est subjectif et ça dépend du contexte. Il existe de nombreuses applications telles que l'écriture d'histoires où l'on recherche la créativité, des textes informatifs qui doivent être véridiques, ou des extraits de code que l'on veut exécutables.

Rédiger une fonction de perte** pour capturer ces attributs semble impossible et la plupart des modèles de langage sont encore entraînés avec une simple perte de prédiction du prochain jeton (par exemple, l'entropie croisée). Pour compenser les lacunes de la perte elle-même, les gens définissent des métriques conçues pour mieux capturer les tropismes humains, telles que BLEU ou ROUGE. Bien qu'elles soient mieux adaptées que la fonction de perte elle-même pour mesurer les performances, ces mesures comparent simplement le texte généré à des références avec des règles simples et sont donc également limitées. Ne serait-il pas formidable d'utiliser le retour d'information humain sur le texte généré comme mesure de la performance ou d'aller encore plus loin et d'utiliser ce retour d'information comme perte pour optimiser le modèle ? C'est l'idée de l'apprentissage par renforcement à partir du feedback humain (RLHF)

Le RLHF a permis aux modèles de langage de commencer à aligner un modèle formé sur un corpus général de données textuelles sur celui de valeurs humaines complexes.

Le succès le plus récent de RLHF a été son utilisation dans ChatGPT. Compte tenu des capacités impressionnantes de ChatGPT, nous lui avons demandé de nous expliquer la RLHF :  

- Peux-tu m'expliquer comment le RL (reinforcement learning) avec retour d'information humain usant un modèle linguistique comme si j'avais 5 ans.

- Bien sûr, imagine que j'ai un robot nommé Rufus qui veut apprendre à parler comme un humain.  Rufus a un modèle linguistique qui l'aide a comprendre les mots et les phrases.

Tout d'abord Rufus va dire quelque chose en usant d'un modèle de langage, par exemple en disant :  - je suis un robot

Ensuite un humain va écouter ce qu'il a dit et va donner un avis pour dire si la réponse ressemble à langage naturel d'humain. Il pourra dire, par exemple. C'est pas très bon Rufus, un humain ne dit pas de manière générale "je suis un robot" mais plutôt "j'suis un robot" ou "je suis une machine".

Rufus va prendre en compte ce retour et l'utuiliser pour améliorer son modèle de langage, il va essayer de redire la phrase en utilisant  cette correction et va dire "j'suis un robot".

Ensuite l'humain va continuer de donner des retours de ce genre et petit à petit Rufus va commencer à s'exprimer comme un humain le fait en général.

Ici Chatgtp se débrouille étonnamment bien, mais ne couvre pas tout. Nous nous chargeons de combler ces lacunes !  (La suite sur le site en Info)

Auteur: Internet

Info: Sur guithub : https://huggingface.co/blog/rlhf, Nathan Lambert, Louis Castricato guest , Leandro von Werra, Alex Havrilla guest. Le 9 décembre 2022 *Reinforcement Learning from Human Feedback ... **Courbe de perte ? (loss function) À la base, une fonction de perte est très simple : c'est une méthode permettant d'évaluer dans quelle mesure votre algorithme modélise votre ensemble de données. Si vos prédictions sont totalement erronées, votre fonction de perte affichera un chiffre élevé. Si elles sont assez bonnes, elle affichera un chiffre plus bas.  C'est une pénalité pour  mauvaise prédiction. En d'autres termes, la perte (loss) est un nombre qui indique à quel point la prédiction du modèle est mauvaise sur un seul exemple. Si la prédiction du modèle est parfaite, la perte est nulle ; elle affichera le chiffre zéro.

[ apprentissage automatique ] [ idiome consensuel ] [ anti-poésie ] [ objectivation linguistique ] [ polysémie contextualisée ] [ mathématisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les conférences Macy élaborent ainsi le projet d’une collaboration interdisciplinaire de diverses expertises, mathématiques, anthropologie, psychologie, psychanalyse non freudiennne, économie, logique…, en vue d’édifier une "science générale du fonctionnement de l’esprit". Les mathématiques et la logique sont bien entendu les références majeures de ces conférences. On y retrouve l’ancêtre auto-régulateur à boules de James Watt dans le concept principal qui nourrit leurs réflexions, et qui reste la part privilégiée de Wiener : "Feedback Mechanisms and Circular Causal Systems in Biological and Social Systems". La causalité circulaire, appréhendée dans le phénomène de feedback ou "rétroaction", est définie comme "processus dans lequel un effet intervient aussi comme agent causal sur sa propre origine, la séquence des expressions de la cause principale et des effets successifs formant une boucle dite boucle de rétroaction". Une autre formulation, par Heinz von Foerster à partir des années cinquante, est celle de "mécanismes qui produisent eux-mêmes leur unité (self-integrating mechanisms)". C’est là, pendant ces conférences Macy que se formalise et se conceptualise l’idée littéralement folle d’un auto-entrepreneuriat de l’homme par l’homme.

La 5e conférence, en 1948, qui porte le même intitulé que la 1re et la 4e : Circular Causal and Feedback Mechanisms in Biological and Social Systems, est consacrée à la structure du langageRoman Jakobson y participe. C’est la même année que McCulloch déclare que "du point de vue de l’analyse qu’on peut en faire, ‘‘il n’y a pas de différence entre le système nerveux et une machine informatique’’".

À partir de 1949, le terme "Cybernétique" est officiellement appliqué à la série des conférences, comme condensé de l’intitulé initial : Cybernetics : Circular Causal and Feedback Mechanisms in Biological and Social Systems. Comme d’habitude, le style de ces grands délirants les trahit d’avantage que toutes leurs équations. Deux participants à la 7e conférence en 1950, Pitts et Stroud, évoquent "l’immense perte d’information" entre les organes des sens et notre "computer" mental. C’est la dernière conférence à laquelle assistent Wiener et Von Neumann, qui passent la main au mathématicien Claude Shannon, père de la "théorie de l’information". Psychiatres et psychologues, spécialistes de l’hypnose et Gestalt thérapistes accompagnent depuis le début cette aventure qui ressemble à s’y méprendre à l’Académie d’exaltés dingos de Lagado décrite par Swift dans ses Voyages de Gulliver.

Voici par exemple comment Willard Rappleye, le président de la fondation Macy, résume en 1955 leurs découvertes : "Les conflits sociaux sont en réalité les symptômes de causes sous-jacentes : la psychiatrie nous enseigne la nature de ces causes. Par conséquent, les Insights et les méthodes de la psychiatrie, de la psychologie et de l’anthropologie culturelle élucident les perturbations émotionnelles du monde."

Une société qui va mal n’est donc pas une société où le riche exploite le pauvre, comme on l’imagine depuis la plus haute Antiquité jusqu’aux Gilets Jaunes. C’est une société "émotionnellement perturbée" dont la Psychiatrie est à même de résoudre tous les symptômes.

Freud y est banni d’emblée. Lors de la conférence de 1946, toujours sous l’égide du même intitulé : "Mécanismes de rétroaction et Systèmes causaux circulaires dans les Systèmes biologiques et sociaux", Norbert Wiener remet en cause le concept freudien de Libido, sous prétexte que "l’information est un concept de base plus approprié pour décrire des évènements psychologiques.".

Pourquoi ? Comment ? Bien malin qui le dira.

Auteur: Zagdanski Stéphane

Info: https://lundi.am/La-Cybernetique-a-l-assaut-de-l-Homme?

[ historique ] [ dépolitisation ] [ révisionnisme freudien ] [ critique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Enfin, même si on découvrait des phénomènes quantiques dans le cerveau, leur caractère strictement imprévisible ne permettrait pas d'expliquer notre conception du libre arbitre. Comme l'a bien montré le philosophe Daniel Dennett, l'aléatoire pur ne confère à nos cerveaux "aucune forme valable de liberté" ("any kind of freedom worth having"). Souhaitons-nous vraiment que nos corps soient secoués de mouvements aléatoires et incontrôlables engendrés au niveau subatomique, qui rapprocheraient nos décisions des convulsions et des tics des patients souffrants du syndrome de Gilles de La Tourette, la fameuse "Danse de Saint-Guy" ? Rien n'est plus éloigné de notre conception de la liberté. La maladie de Tourette ne rend pas libre, bien au contraire. Jamais un coup de dés n'engendrera d'esprit libre.
Lorsque nous parlons du "libre arbitre", nous pensons à une forme beaucoup plus intéressante de liberté. Notre croyance en un libre arbitre résulte d'une observation élémentaire : dans des circonstances normales, nous prenons nos décisions en toute indépendance, en nous laissant seulement guider par nos idées, nos croyances et notre expérience passée, et en contrôlant nos pulsions indésirables. Nous exerçons notre libre arbitre chaque fois que nous avons la possibilité d'examiner les choix qui s'offrent à nous, d'y réfléchir posément et d'opter pour celui qui nous parait le meilleur. Une part de hasard entre dans nos choix volontaires, mais elle n'en constitue pas un élément indispensable. La plupart du temps, nos actions volontaires n'ont rien d'aléatoire : elles résultent d'un examen attentif des options disponibles, suivi du choix délibéré de celle qui emporte notre préférence.
Cette conception du libre arbitre n'a nul besoin de la physique quantique - elle pourrait être simulée par un ordinateur standard. Elle exige simplement un espace de travail qui recueille les informations en provenance des sens et de la mémoire, en fasse la synthèse, évalue les conséquences de chaque option, y consacre autant de temps que nécessaire et utilise cette réflexion pour guider notre choix. Voilà ce que nous appelons une décision volontaire, délibérée, prise "en toute conscience". En bref, l'intuition du libre arbitre doit être décomposée.
Elle recouvre, d'une part, l'idée que nos décisions sont fondamentalement indéterminées, non contraintes par la physique (une idée fausse) ; et d'autre part, celle que nous les prenons en toute autonomie (une idée respectable). Nos états cérébraux sont nécessairement déterminés par des causes physiques, car rien de ce qui est matériel n'échappe aux lois de la nature. Mais cela n'exclut pas que nos décisions soient réellement libres, si l'on entend par là qu'elles s'appuient sur une délibération consciente, autonome, qui ne rencontre aucun obstacle et qui dispose du temps suffisant pour évaluer le pour et le contre avant de s'engager. Quand toutes ces conditions sont remplies, nous avons raison de dire que nous avons exercé notre libre arbitre et pris une décision volontaire - même si celle-ci est toujours, en dernière analyse, déterminée par nos gènes, notre histoire et les fonctions de valeurs qui sont inscrites dans nos circuits neuronaux. Les fluctuations de l'activité spontanée de ces réseaux rendent nos décisions imprévisibles, y compris à nos propres yeux. Cependant, ce caractère imprévisible ne devrait pas être retenu comme l'un des critères essentiels du libre arbitre, ni ne devrait être confondu avec l'indétermination fondamentale de la physique quantique. Ce qui compte pour qu'une décision soit libre, c'est l'autonomie de la délibération.
Une machine pourvue d'un libre arbitre n'est absolument pas une contradiction dans les termes, juste une définition de ce que nous sommes.

Auteur: Dehaene Stanislas

Info: Le code de la conscience

[ miroir ]

 

Commentaires: 0

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0

homme-machine

Quand la plupart des gens pensent aux risques potentiels de l'intelligence artificielle et du machine learning, leur esprit va immédiatement vers "Terminator" - cet avenir où les robots, selon une vision dystopique, marcheraient dans les rues en abattant tous les humains sur leur passage.

Mais en réalité, si l'IA a le potentiel de semer le chaos et la discorde, la manière dont cela peut se produire est moins excitante qu'un "Skynet" réel. Les réseaux d'IA qui peuvent créer de fausses images et de fausses vidéos - connues dans l'industrie sous le nom de "deepfakes" - impossibles à distinguer du réel, qui pourraient engendrer des risques.

Qui pourrait oublier cette vidéo du président Obama ? Inventée et produite par un logiciel d'intelligence artificielle, une vidéo quasi impossible à distinguer de vraies images.

Eh bien, dans une récente présentation des capacités de l'IA dans un avenir pas si lointain, un chroniqueur de TechCrunch a mis en avant une étude présentée à une conférence importante de l'industrie en 2017. Les chercheurs y expliquent comment un réseau d'opposition générationnelle (Generative Adversarial Network) - l'une des deux variétés courantes d'opérateur de machine learning - a résisté aux intentions de ses programmeurs et a commencé à produire des cartes synthétiques après avoir reçu l'ordre de faire correspondre des photographies aériennes aux cartes routières correspondantes.

L'objectif de l'étude était de créer un outil permettant d'adapter plus rapidement les images satellites aux cartes routières de Google. Mais au lieu d'apprendre à transformer les images aériennes en cartes, l'opérateur de machine learning a appris à coder les caractéristiques de la carte sur les données visuelles de la carte topographique.

L'objectif était de permettre à l'opérateur d'interpréter les caractéristiques de l'un ou l'autre type de carte et de les faire correspondre aux caractéristiques de l'autre. Mais ce sur quoi l'opérateur était noté (entre autres choses), c'était la proximité de correspondance d'une carte aérienne par rapport à l'original et la clarté de la carte topographique.

Il n'a donc pas appris à faire l'une à partir de l'autre. Il a appris à coder subtilement les caractéristiques de l'une dans les "modèles de bruit" de l'autre. Les détails de la carte aérienne sont secrètement inscrits dans les données visuelles réelles de la carte des rues : des milliers de petits changements de couleur que l'œil humain ne remarquera pas, mais que l'ordinateur peut facilement détecter.

En fait, l'ordinateur est si bon à glisser ces détails dans les plans qu'il a appris à encoder n'importe quelle carte aérienne dans n'importe quel plan de rues ! Il n'a même pas besoin de faire attention à la "vraie" carte routière - toutes les données nécessaires à la reconstitution de la photo aérienne peuvent être superposées sans danger à une carte routière complètement différente, comme l'ont confirmé les chercheurs :

Cette pratique d'encodage des données en images n'est pas nouvelle ; il s'agit d'une science établie appelée stéganographie, et elle est utilisée tout le temps pour, disons, filigraner des images ou ajouter des métadonnées comme les réglages de caméra. Mais un ordinateur qui crée sa propre méthode stéganographique pour éviter d'avoir à apprendre à exécuter la tâche à accomplir c'est plutôt nouveau.

Au lieu de trouver un moyen d'accomplir une tâche qui dépassait ses capacités, l'opérateur de machine learning a développé sa propre méthode pour tricher.

On pourrait facilement prendre cela comme un pas vers l'idée "les machines deviennent plus intelligentes", mais la vérité est que c'est presque le contraire. La machine, qui n'est pas assez intelligente pour faire le travail difficile de convertir ces types d'images sophistiqués les unes avec les autres, a trouvé un moyen de tricher que les humains ont de la peine à détecter. Cela pourrait être évité avec une évaluation plus rigoureuse des résultats de l'opérateur, et il ne fait aucun doute que les chercheurs vont poursuivre dans cette voie.

Et même si ces chercheurs sophistiqués ont failli ne pas le détecter, qu'en est-il de notre capacité à différencier les images authentiques de celles qui fabriquées par simulation informatique ?

Auteur: Internet

Info: Zero Hedges 4 janvier 2018

[ vrai du faux ]

 

Commentaires: 0

Ajouté à la BD par miguel