Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 31
Temps de recherche: 0.0471s

raisonnements

Tous les biais cognitifs simples dans une seule infographie.
Le cerveau humain est capable de choses incroyables, mais il est aussi souvent extrêmement imparfait.
La science a montré que nous avons tendance à faire toutes sortes d'erreurs mentales, appelées "contraintes cognitives", qui peuvent affecter notre pensée et nos actions. Ces biais, comme le souligne Jeff Desjardinsde Visual Capitalist, peuvent nous amener à extrapoler des informations provenant de mauvaises sources, à chercher à confirmer les croyances existantes ou à ne pas nous souvenir d'événements comme ils se sont réellement passés!
Tout ceci fait bien sûr partie de l'être humain, mais ces biais cognitifs peuvent également avoir un effet profond sur nos efforts, nos investissements et notre vie en général. Pour cette raison, cette infographie de DesignHacks.co est particulièrement pratique. Elle montre et regroupe les 188 biais de confirmation connus existants.
QU'EST-CE QU'UN BIAS COGNITIF?
Les humains ont tendance à penser de certaines manières qui peuvent conduire à des écarts systématiques d'une prise de jugement rationnel.
Ces tendances proviennent habituellement de :
- Raccourcis de traitement de l'information
- Capacité de traitement limitée du cerveau
- Motivations émotionnelles et morales
- Distorsions dans le stockage et la récupération des souvenirs
- Influence sociale
Les biais cognitifs ont été étudiés durant des décennies par des universitaires dans les domaines de la science cognitive, de la psychologie sociale et de l'économie comportementale, mais ils sont particulièrement pertinents dans le monde de l'information. Ils influencent la façon dont nous pensons et agissons, et de tels raccourcis mentaux irrationnels peuvent conduire vers toutes sortes de problèmes dans l'entrepreneuriat, l'investissement ou la gestion.
EXEMPLES DE BIAS COGNITIFS
Voici quatre exemples de la façon dont ces types de biais peuvent affecter les gens dans le monde des affaires:
- Biais de familiarité: un investisseur met son argent dans "ce qu'il connait", plutôt que de rechercher les avantages évidents d'une diversification de portefeuille. Juste parce qu'un certain type d'industrie ou de sécurité est familier n'en fait pas une sélection logique.
- Le biais de l'auto-attribution: un entrepreneur attribue excessivement le succès de sa société à lui-même, plutôt qu'à d'autres facteurs (équipe, chance, tendances de l'industrie). Quand les choses ne vont pas, il blâme ces facteurs externes pour avoir stoppé sa progression.
- Ancrage de partialité : un employé lors d'une négociation de salaire dépend trop du premier chiffre mentionné dans les négociations plutôt qu'examiner de façon rationnelle une gamme d'options.
- Le biais de survie: l'esprit d'entreprise semble facile, car il y a tant d'entrepreneurs prospères. C'est pourtant bien un biais cognitif: les entrepreneurs prospères sont les meilleurs, ceux qui ont survécu, alors que les millions qui ont échoué sont parti pour faire d'autres choses.

Auteur: Internet

Info: Zero Hedge, 29 sept 2017

[ réflexion ] [ réfléchir ]

 

Commentaires: 0

imagination

Quelle structure cérébrale est impliquée dans la compréhension visuelle de la causalité ? Aucune: c'est notre système visuel et non un mécanisme cognitif complexe qui nous permet de comprendre qu'un objet bouge à cause d'un autre objet (par exemple lorsqu'une boule de billard se déplace parce qu'une autre boule de billard l'a poussée). C'est ce que vient de découvrir une équipe internationale de chercheurs. A tout moment, nous réalisons des jugements visuels rapides de causalité - une balle renverse un verre sur une table -, de reconnaissance (entre par exemple une chose inerte ou vivante), ou de compréhension des intentions d'autrui. Ces raisonnements sont complexes, c'est pourquoi la plupart des scientifiques pensent que des structures cognitives importantes sont nécessaires pour les réaliser. D'un autre côté, ils se font tellement rapidement et sans effort, qu'ils pourraient finalement être "intuitifs". Les équipes de Patrick Cavanagh (Université Paris Descartes, CNRS), Rolfs, (Université Humboldt de Berlin), Michael Dambacher (Université de Constance) ont mis fin à cette question: la causalité peut être interprétée seulement par le système visuel. "Nous avons démontré que nos yeux peuvent évaluer rapidement une situation de cause à effet sans l'aide de notre système cognitif", explique Patrick Cavanagh, professeur dans le laboratoire de psychologie de la perception (Université Paris Descartes, CNRS, ENS). Deux composantes sont nécessaires pour définir une situation de causalité, par exemple une boule de billard en touche une autre qui se déplace ensuite. Les événements doivent se succéder rapidement et nécessitent généralement un contact. De plus, ils doivent être perçus comme un seul événement: plutôt que de voir un objet bouger puis s'arrêter et un autre objet se déplacer par lui-même, il y a une continuité du mouvement qui est transféré du premier objet au second. Pour tester comment le cerveau détermine la causalité, les scientifiques ont utilisé un procédé dit d'adaptation, souvent utilisé dans les études du mécanisme neuronal impliqué dans les facultés visuelles. Une expérience optique de ce type est bien connue: en fixant une tâche rouge, pendant quelques secondes, puis un mur blanc, on voit une tâche verte, l'oeil s'est "adapté" à la tâche rouge. Les chercheurs ont constaté qu'après une exposition répétée à des événements de causalité - ici collisions de deux objets - les épreuves test apparaissent comme ayant moins de lien de causalité. A l'inverse, l'adaptation avec des événements non-causals a eu peu d'effet. Cela indique que certains jugements de causalité seraient déterminés par le système visuel et ne feraient pas appel à des mécanismes cognitifs complexes. De plus, le test bouge quand les yeux bougent, exactement comme pour la tâche verte qui apparaît suite à l'exposition à une tâche rouge. Seul le processus visuel et non un mécanisme cognitif peut expliquer cette spécificité. "Il reste à distinguer les types de jugements qui demandent un processus cognitif particulier de ceux qui ne font appel qu'au système visuel" précise Martin Rolfs, professeur à l'Université Humboldt de Berlin.

Auteur: Dambacher Michael

Info: Visual Adaptation of the Perception of Causality, current Biology, 10 January 2013. Ecrit avec Martin Rolfs et Patrick Cavanagh

[ réflexion ] [ penser ] [ sciences ]

 

Commentaires: 0

sciences

La pratique de la méditation modifie l'organisation du cerveau
Les adeptes de la méditation de pleine conscience apprennent dans leur pratique à accueillir les sensations, les émotions et les états d'esprit sans leur résister ni les juger. Ils cherchent simplement à être dans le moment présent.
Plusieurs études ont démontré que ce type de méditation pouvait avoir des effets bénéfiques à long terme sur la stabilité émotionnelle et, par conséquent, sur des désordres comme l'anxiété et la dépression majeure. Une nouvelle recherche révèle que cet entrainement de l'esprit aurait une influence sur le réseau cérébral par défaut chez des personnes ayant une longue expérience de la méditation quand elles sont au repos. Les différences sur le plan cérébral indiqueraient que la méditation favorise la concentration et la réflexion de manière plus objective par rapport à soi.
"Nous avons étudié le cerveau de 13 adeptes de méditation ayant plus de 1000 heures d'entrainement et celui de 11 débutants à l'aide d'analyses de connectivité fonctionnelle", dit Véronique Taylor, première auteure de cette recherche publiée dans la revue Social Cognitive and Affective Neuroscience Advance Access en mars dernier et réalisée dans le laboratoire du professeur Mario Beauregard, de l'Université de Montréal.
La connectivité fonctionnelle fait référence à la synchronisation entre deux ou plusieurs régions cérébrales qui changent dans le temps, soit pendant une tâche concrète ou au repos. Cette méthode d'analyse peut s'appliquer à des données d'imagerie par résonance magnétique fonctionnelle. "Les participants demeuraient quelques minutes dans le scanner et on leur demandait de ne rien faire", explique Mme Taylor, qui termine actuellement son doctorat en psychologie sous la direction du professeur Pierre Rainville.
Ces analyses ont permis aux chercheurs de repérer le réseau cérébral par défaut des sujets, c'est-à-dire un ensemble de régions s'activant au repos, lorsque la personne n'effectue aucune activité particulière.
"Nous voulions ainsi vérifier si les effets de la méditation de pleine conscience persistaient au-delà de la pratique, poursuit la doctorante. Selon notre hypothèse, le réseau cérébral par défaut des adeptes de la méditation serait structuré autrement. Le réseau par défaut est associé à la rêverie, aux pensées relatives à soi quand nous ne faisons "rien". En fait, nous pensions y trouver une organisation différente parce que ces individus sont habitués à être dans le moment présent et leurs pensées ne partent donc pas dans tous les sens lorsqu'ils sont au repos."
Effectivement, les résultats obtenus font voir une plus faible synchronisation entre les cortex préfrontaux ventro-médian et dorso-médian. "La partie dorsale est engagée dans les processus cognitifs associés au soi et la partie ventrale concerne plutôt l'évaluation émotive du soi, mentionne Véronique Taylor. Le fait que ces zones sont moins inter reliées montre que ces personnes réfléchiraient sur elles-mêmes de façon plus objective." Elle ajoute que plus les participants avaient de l'expérience en méditation, plus cette connexion était faible, ce qui, selon elle, "donne du poids à ces résultats".
Fait curieux et intéressant: ces mêmes sujets présentaient une plus forte synchronisation entre certaines zones qui convergent toutes vers le lobe pariétal droit. "Cette région est reconnue pour avoir un rôle déterminant dans l'attention, ce qui indiquerait peut-être un effet bénéfique à long terme de la méditation, mais qui reste à être prouvé par des recherches étudiant spécifiquement les processus attentionnels", signale l'étudiante.
Bien que les sujets aient été testés au repos, Véronique Taylor constate par elle-même les retombées tangibles de la méditation de pleine conscience au quotidien. "Je pratique la méditation depuis quelques années et je remarque que mon attention est plus soutenue, plus suivie lorsque je me concentre."
Il y a encore beaucoup à découvrir sur le pouvoir de la méditation, croit-elle. En attendant, elle suggère à tous de s'y mettre. "Cela ne coute rien et on peut méditer n'importe où et n'importe quand... et les avantages sont réels!"

Auteur: Internet

Info:

[ méditation ] [ zen ] [ parapsychologie ]

 

Commentaires: 0

sciences

Les ordinateurs peuvent-ils être créatifs? Le projet WHIM ("What-if Machine"), financé par l'UE, génère non seulement des scénarios fictifs mais évalue également leur potentiel attractif et d'utilisation. Il représente une avancée majeure dans le domaine de la créativité informatique. La science ignore bien souvent le monde du fantastique, mais les choses changent avec le projet WHIM qui porte bien son nom (en anglais, "whim" signifie fantaisie). Ce projet ambitieux élabore un système logiciel capable d'inventer et d'évaluer des idées imaginaires. "WHIM est un antidote à l'intelligence artificielle traditionnelle, qui est obsédée par la réalité", déclare Simon Colton, coordinateur du projet et professeur en créativité informatique au Goldsmiths College, à l'université de Londres. "Nous faisons partie des premiers à appliquer l'intelligence artificielle à la fiction". L'acronyme du projet signifie What-If Machine. C'est également le nom du premier logiciel de conception de fictions au monde, par un processus d'idéation (processus créatif de production, de développement et de communication de nouvelles idées) développé dans le cadre du projet. Le logiciel génère des mini-récits fictifs en utilisant des techniques de traitement du langage et une base de données des faits trouvés sur le web (qui sert de référentiel de faits "réels"). Le logiciel intervertit ou déforme ensuite les faits pour créer des scripts hypothétiques. Le résultat est souvent absurde: "Que se passerait-il si une femme se réveillait dans une allée après avoir été transformée en chat, mais tout en étant toujours capable de faire du vélo ?" Les ordinateurs peuvent-ils juger la créativité ? WHIM est bien plus qu'une simple machine génératrice d'idées. Le logiciel cherche également à évaluer le potentiel d'utilisation ou la qualité des idées générées. En effet, ces dernières sont destinées à un usage par le public, et les impressions du public ont été sondées avec des expériences participatives (crowdsourcing). Par exemple, les personnes interrogées ont fait part de leurs impressions générales, précisant également aux chercheurs du projet WHIM si les scripts imaginaires produits étaient, selon elles, innovants et avaient un bon potentiel narratif. Au moyen de techniques d'apprentissage automatique, conçues par des chercheurs de l'institut Jozef Stefan de Ljubljana, le système acquiert progressivement une compréhension plus précise des préférences du public. "On pourrait dire que la fiction est subjective, mais il existe des schémas communs", déclare le professeur Colton. "Si 99 % du public pense qu'un humoriste est amusant, alors nous pourrions dire que l'humoriste est amusant, au moins selon la perception de la majorité". Ce n'est que le début Générer des mini-récits fictifs ne constitue qu'un aspect du projet. Des chercheurs de l'Universidad Complutense Madrid transforment les mini-récits en scripts narratifs complets, qui pourraient mieux convenir pour l'intrigue d'un film par exemple. Parallèlement, des chercheurs de l'University College Dublin tentent d'entraîner les ordinateurs à produire des idées et paradoxes métaphoriques en inversant et opposant des stéréotypes trouvés sur le web, tandis que des chercheurs de l'Université de Cambridge explorent l'ensemble du web à des fins de création d'idées. Tous ces travaux devraient engendrer de meilleures idées imaginaires plus complètes. Plus qu'une simple fantaisie Bien que les idées imaginaires générées puissent être fantaisistes, WHIM s'appuie sur un processus scientifique solide. Il fait partie du domaine émergent de la créativité informatique, une matière interdisciplinaire fascinante située à l'intersection de l'intelligence artificielle, la psychologie cognitive, la philosophie et les arts. WHIM peut avoir des applications dans plusieurs domaines. Une des initiatives envisage de transformer les récits en jeux vidéo. Une autre initiative majeure implique la conception informatique d'une production de théâtre musicale: le scénario, le décor et la musique. Le processus complet est en cours de filmage pour un documentaire. WHIM pourrait également s'appliquer à des domaines non artistiques. Par exemple, il pourrait être utilisé par des modérateurs lors de conférences scientifiques pour sonder les participants en leur posant des questions destinées à explorer différentes hypothèses ou cas de figure. L'UE a accordé 1,7 million d'euros de financement au projet WHIM, actif d'octobre 2013 à septembre 2016.

Auteur: Internet

Info:

[ homme-machine ] [ informatique ] [ créativité ]

 

Commentaires: 0

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

Des chercheurs japonais ont eu la brillante idée de confronter des pigeons à des photographies de tableaux de grands maîtres, comme Monet et Picasso. Et les oiseaux sont parvenus à différencier les toiles cubistes des impressionnistes.

On prend souvent les oiseaux pour des animaux plutôt stupides. Pourtant, comme le montre cette étude, les pigeons peuvent différencier un tableau de Monet de celui de Picasso. Ce n'est malgré tout qu'une piètre prestation à côté des corvidés (corbeaux, pies, geais...) capables de résoudre des tâches très complexes. Des corneilles se servent d'outils tandis que les pies se reconnaissent dans le miroir. 

Pourquoi obliger des pigeons à contempler une toile de maître ? L'idée des scientifiques de l'université Keio, au Japon, paraît complètement délirante. Pour preuve, cette recherche leur a valu un prix : le fameux IgNobel de psychologie en 1995.  

Monet et Picasso figurent parmi les peintres les plus célèbres. Le premier est devenu le fer de lance de l'impressionnisme, dont l'un des tableaux le plus célèbre, Impression soleil levant, a donné le nom au mouvement pictural. Celui-ci se caractérise par des scènes quotidiennes mises en image d'une manière personnelle, sans rétablir la stricte vérité du paysage mais en mettant en lumière la beauté et la surprise de la nature.

Il tranche nettement avec le cubisme, apparu quelques décennies plus tard, sous le pinceau de deux génies, Georges Braque et Pablo Picasso. Ce courant en termine avec le réalisme et y préfère la représentation de la nature par des formes étranges et inconnues.

Une simple éducation picturale permet à n'importe quel être humain de différencier les deux mouvements. Mais qu'en est-il des pigeons ? 

Ce n'est pas tout à fait avec cette idée que des chercheurs de l'université de Keiro, au Japon, se sont lancés dans une expérience troublante, à savoir si ces oiseaux à la mauvaise réputation pouvaient différencier un Monet d'un Picasso. Ils souhaitaient simplement étudier la discrimination visuelle chez ces volatiles et tester leur perception du monde. Les résultats sont livrés dans Journal of the Experimental Analysis of Behaviour daté de mars 1995.

L’étude : les pigeons sont-ils impressionnistes ou cubistes ?

Pour le bon déroulement de l'expérience, les scientifiques disposaient de pigeons dits "naïfs", c'est-à-dire que leurs sujets n'avaient jamais suivi des études d'art appliqué. Il fallait donc les trouver. Malgré la difficulté de la tâche, huit cobayes ont participé aux tests.

Les oiseaux étaient classés en deux groupes. Dans l'un d'eux, les quatre volatiles recevaient des graines de chanvre (la plante à partir de laquelle on tire le cannabis) dès qu'une peinture de Monet apparaissait, mais rien face à une œuvre de Pablo Picasso. Bien évidemment, le même renforcement positif existait pour les quatre autres pigeons, cette fois quand on les confrontait à une toile du maître cubiste. Les scientifiques ont eu la gentillesse d'éviter les pièges et de choisir des peintures caractéristiques de chaque courant pictural.

La deuxième partie est intéressante car elle vise à généraliser le concept. Ainsi on confrontait nos nouveaux critiques d'art à des tableaux de leur maître préféré qu'ils n'avaient encore jamais vus. Les volatiles ne se sont pas laissé impressionner et ont de suite compris le stratagème. En appuyant du bec sur une touche située devant eux, ils pouvaient manifester leur choix et être récompensés le cas échéant.

Quasiment aucune erreur dès le premier essai. De même pour les suivants. Mieux, les adeptes du cubisme réclamaient à manger quand ils voyaient un tableau de Georges Braque tandis que les autres appuyaient frénétiquement sur le bouton à la vue d'un tableau de Cézanne ou Renoir, deux autres impressionnistes. 

Enfin, l'épreuve ultime. Qu'est-ce que ça donne si on met Monet et Picasso la tête à l'envers ? Cette fois, il faut reconnaître que les résultats sont plus mitigés. Si l'expérience n'a pas affecté les performances des pigeons cubistes, il n'en a pas été de même pour l'autre groupe, incapable d'y voir les œuvres pour lesquelles ils avaient tant vibré.

Les auteurs de ce travail suggèrent alors que leurs cobayes à plumes impressionnistes reconnaissaient dans les toiles des objets réels et devenaient incompétents quand leur univers était représenté à l'envers. De l'autre côté, les fans de Pablo Picasso s'habituaient à discriminer des formes inédites, qui le restaient même retournées. La preuve que les pigeons maîtrisent eux aussi l'art de la catégorisation. 

L’œil extérieur : de l'intérêt de l’art chez les pigeons

Certes, cette découverte ne révolutionnera pas le monde mais en dit davantage sur les performances cognitives des pigeons. Après tout, il n'y a pas que notre intelligence qui compte ! Voyons-le comme une manière de sortir de l'anthropocentrisme, même si le parallèle avec l'être humain se fait toujours.

Cette recherche s'inscrit surtout dans un contexte où les oiseaux étaient testés dans leur sensibilité à l'art. Car si ce travail focalise son attention sur les génies de la peinture, d'autres scientifiques avaient affirmé en 1984 que ces mêmes animaux pouvaient différencier du Bach et du Stravinsky (évidemment, on parle de musique). D'autres études (tout aussi passionnantes...) montrent la façon dont les scientifiques ont habitué les pigeons à l'image de Charlie Brown, un personnage de bande dessiné inventé en 1950.

Est-ce vraiment mieux ? La seule différence est qu'à cette époque, les prix IgNobel n'existaient pas encore...

Auteur: Internet

Info: https://www.futura-sciences.com/, Janlou Chaput, juin 2012

[ vision ] [ identification de modèles ] [ cognition ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Les découvertes sur la conscience des animaux doivent nous faire réagir

Le 19 avril, la Déclaration de New York soulignait le vaste consensus scientifique sur l’existence d’une conscience chez les animaux. Pour l’auteur de cette tribune, il s’agit maintenant d’en tirer des conséquences concrètes. 

Les pieuvres peuvent-elles ressentir de la souffrance et du plaisir ? Et les poissons, les crabes, les crevettes ou les grillons ? Ces questions ont longtemps été négligées par la science, mais un nouveau domaine interdisciplinaire plein de vitalité émerge aujourd’hui pour les aborder. Il s’appuie sur l’expertise des neurosciences, de la psychologie, de la biologie évolutive, des sciences vétérinaires et de l’étude des comportements animaux. Bien que de nombreuses incertitudes subsistent, certains points de consensus sont apparus. 

La Déclaration de New York sur la conscience animale, publiée le 19 avril et cosignée par les plus grands experts du domaine, affirme la capacité des oiseaux et des mammifères à vivre des expériences conscientes. Avec prudence, les scientifiques établissent également une présomption raisonnable de subjectivité chez tous les autres vertébrés ainsi que chez de nombreux invertébrés, parmi lesquels les pieuvres, les crustacés et les insectes.

Des formes d’expérience qui nous font défaut

Qu’est-ce que la conscience ? Il peut s’agir d’expériences sensorielles ( celle, par exemple, d’un toucher, d’une odeur, d’une vue, d’un goût particuliers) et d’expériences agréables ou désagréables (l’expérience du plaisir, de la douleur, de l’espoir ou de la peur, notamment). L’expérience subjective exige plus que la simple aptitude à détecter des stimuli ; cependant, elle ne nécessite pas de facultés sophistiquées.

Bien sûr, des capacités linguistiques et rationnelles humaines permettent d’avoir des formes d’expérience que d’autres animaux n’ont probablement pas. Mais, de même, de nombreux animaux peuvent avoir des formes d’expérience qui nous font défaut, qu’elles soient sensorielles ou possiblement émotionnelles.

Pour accompagner la Déclaration de New York, les auteurs listent les surprenants résultats des dix dernières années d’études sur la cognition et les comportements animaux.

(Photo : Les couleuvres d’eau peuvent identifier leur propre odeur.)

Les couleuvres d’eau passent une forme de test de conscience de soi que la plupart d’entre nous ne réussiraient pas, en reconnaissant leur propre odeur et en remarquant ses changements. Le labre nettoyeur, petit poisson d’une dizaine de centimètres, réagit avec agressivité face à un miroir, puis il semble comprendre qu’il lui montre son image et il en étudie le reflet.

Si un expérimentateur lui place une tâche sur le corps, il essaie alors de la retirer en la frottant contre une surface. Chez les humains, un tel comportement de reconnaissance de soi n’est observé qu’à partir de l’âge de 18 mois. 

Les pieuvres ont une aversion durable pour les lieux où elles ont reçu une injection douloureuse et gardent un penchant pour ceux où l’on a soulagé leur douleur avec un anesthésiant local.

Les rats, les iguanes et les crabes font des compromis subtils entre plusieurs préoccupations. Exemple : si la lumière extérieure devient trop vive, les crabes se réfugient dans un abri, mais ils y renoncent s’ils y ont subi un choc électrique par le passé. Leur décision dépend de l’intensité du choc, dont ils gardent la mémoire, et de la force de la luminosité. Cet arbitrage entre des priorités concurrentes suggère qu’ils ont une faculté similaire à la nôtre de soupeser et de gérer des besoins de nature très différente.

Souffrances inimaginables

Du côté des insectes, les bourdons semblent apprécier de jouer avec des billes de bois, d’autant plus s’ils sont en situation de détente. Et, comme les humains, les mouches drosophiles connaissent diverses phases de sommeil, mais ont un repos perturbé si on les place en isolement social.

Les dernières découvertes nous montrent que nous avons amplement sous-estimé les capacités cognitives et émotionnelles des animaux. Ce genre d’erreur n’est pas nouveau, mais a des conséquences morales dramatiques. Jusque dans les années 1970, il était par exemple courant de penser que les bébés humains ne ressentaient pas la douleur, ce qui amenait à les opérer sans anesthésie. De nos jours, les femmes et les patients noirs subissent encore des discriminations face au traitement de leurs douleurs.

La croyance en une différence significative entre les ressentis des humains et ceux des autres animaux, davantage issue de notre culture religieuse et d’un mécanisme d’évitement de la culpabilité plutôt que de résultats scientifiques concrets, nous a aussi amenés à tolérer la création d’industries provoquant des souffrances inimaginables à un nombre colossal d’animaux. 

(Photo : Des découvertes récentes ont permis de prouver que les iguanes étaient capables d’effectuer des compromis pour prendre leurs décisions.)

En France, des centaines de milliers d’animaux soumis à l’expérimentation animale des laboratoires subissent des douleurs intenses et prolongées. Les poissons sont trente à quarante fois plus nombreux que les animaux terrestres à mourir pour l’industrie alimentaire et quasiment rien n’est fait pour atténuer leurs souffrances.

" Renoncer à des habitudes spécistes "

De nouveaux types d’élevages industriels, dont nous nous passions bien jusqu’ici, sont à l’étude en France et en Europe. Des milliards d’insectes seront bientôt réduits en farine chaque année pour nourrir de nouveaux élevages intensifs de saumons. Des projets d’élevage de pieuvres promettent l’exploitation intensive à ces animaux solitaires et particulièrement intelligents, dont l’alimentation dépendra principalement de la pêche d’animaux sauvages, aux dépens de la vie marine.

En 2022, des centaines de chercheurs internationaux ayant dédié leur carrière à l’étude de l’éthique avertissaient du caractère foncièrement injuste de faire subir des violences non nécessaires à des animaux. Dans la Déclaration de Montréal sur l’exploitation animale, ils s’accordaient sur " la nécessité de condamner l’ensemble des pratiques qui supposent de traiter les animaux comme des choses ou des marchandises " et d’œuvrer au développement d’une agriculture végétale.

" Ceci requiert en particulier, poursuivaient-ils, de renoncer à des habitudes spécistes bien ancrées et de transformer […] certaines de nos institutions. " Posons-nous sincèrement la question : nos préférences collectives pour les plats carnés et les poissons justifient-elles les souffrances que l’industrie alimentaire inflige aux animaux ?

Auteur: Riberolles Gautier

Info: https://reporterre.net/ - 13 mai 2024

[ entendement ] [ comparaison ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel