Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 453
Temps de recherche: 0.0573s

humain miroir

La perception humaine de l'espace s'étend tout comme l'univers réel !

Le cerveau humain a une façon intéressante d'évaluer la proximité ou la distance d'un objet dans l'espace. Si vous regardez la nuit depuis votre voiture, il y a de fortes chances que la Lune vous paraisse se déplacer à vos côtés. Une nouvelle étude neuroscientifique a permis de découvrir pourquoi la zone de la mémoire de notre cerveau perçoit les images proches et lointaines et comment ces exagérations peuvent créer davantage de connexions cérébrales à mesure que nous vieillissons.

L'hippocampe est une zone du cerveau impliquée dans l'apprentissage et la mémoire. Dans l'étude actuelle, les auteurs ont constaté que les neurones associés à la planification, à la mémoire et à la navigation spatiale transforment l'espace en une forme géométrique hyperbolique non linéaire - pensez à un sablier en expansion qui grossit à mesure que vous vous en éloignez. Pour en revenir à l'exemple de la lune, les jeunes enfants ont pu constater que la lune les suivait ou qu'elle était suffisamment proche pour qu'ils l'attrapent.

Bien sûr, la Lune ne se déplace pas et sa taille est déformée par sa distance. Les résultats ont montré que la taille de l'image augmente avec le temps passé dans un lieu. La taille perçue par notre cerveau est également directement liée à la quantité d'informations qu'il peut traiter : les jeunes cerveaux sont peut-être plus enclins à naviguer et à percevoir l'espace de manière linéaire. Avec de nouvelles expériences, l'hippocampe est capable d'affiner ses connexions neuronales et de traiter davantage d'informations sur l'image.

Le cerveau "s'élargit" avec l'expérience

Comprendre comment les réseaux neuronaux du cerveau traitent la navigation spatiale pourrait aider à étudier les troubles neurocognitifs. La maladie d'Alzheimer, par exemple, est une maladie dans laquelle l'hippocampe est l'une des premières zones du cerveau à être détruite, ce qui affecte la mémoire de la personne.

"Notre étude démontre que le cerveau n'agit pas toujours de manière linéaire. Au contraire, les réseaux neuronaux fonctionnent le long d'une courbe en expansion, qui peut être analysée et comprise à l'aide de la géométrie hyperbolique et de la théorie de l'information", explique l'auteur principal, Tatyana Sharpee, professeur à l'Institut Salk et titulaire de la chaire Edwin K. Hunter, dans un communiqué de presse. "Il est passionnant de constater que les réponses neuronales dans cette région du cerveau forment une carte qui s'élargit avec l'expérience, en fonction du temps passé dans un lieu donné. L'effet s'est même maintenu pour des écarts de temps minuscules, lorsque l'animal courait plus lentement ou plus rapidement dans l'environnement."

L'équipe de recherche a utilisé des méthodes informatiques avancées pour comprendre le fonctionnement du cerveau. L'une de ces techniques consiste à utiliser la géométrie hyperbolique pour disséquer les signaux biologiques. Des travaux antérieurs ont utilisé la géométrie hyperbolique pour étudier le fonctionnement des molécules odorantes et de la perception des odeurs.

La géométrie hyperbolique s'est avérée efficace pour comprendre les réponses neuronales et pour cartographier les molécules et les événements sensoriels. Les chercheurs ont recueilli leurs informations auprès de rats qui ont passé du temps à explorer un nouvel environnement. Plus le rat passe de temps dans une zone, plus il acquiert d'informations sur l'espace qui l'entoure. Cela a permis à leur carte neuronale de s'étendre et de se développer.

"Ces résultats offrent une nouvelle perspective sur la manière dont les représentations neuronales peuvent être modifiées par l'expérience", explique Huanqiu Zhang, étudiant diplômé du laboratoire de M. Sharpee. "Les principes géométriques identifiés dans notre étude peuvent également guider les futurs efforts de compréhension de l'activité neuronale dans divers systèmes cérébraux.

Auteur: Internet

Info: Nature Neuroscience, repris par Jocelyn Solis-Moreira ,7 janvier 2023

[ horizon grégaire intégré ] [ vieillir grandir ]

 

Commentaires: 0

Ajouté à la BD par miguel

perceptions

Une première étude d’imagerie cérébrale sur les effets du LSD
"Ces travaux sont aux neurosciences ce que le boson de Higgs a été pour la physique des particules".
Cette déclaration, pour le moins accrocheuse, vient de David Nutt, neuropsychopharmacologue et chercheur sénior de l’étude en question qui vient d’être publiée dans la revue PNAS en mars dernier. Et un peu comme pour le boson de Higgs, les résultats ont confirmé la théorie, à savoir que les modifications d’activité cérébrale qui ont été observées rendent très bien compte de ce qu’un "trip à l’acide" peut provoquer comme état mental !
Le protocole expérimental conçu par l’équipe de Nutt a fait appel à une vingtaine de sujets qui venaient deux journées différentes au laboratoire. Dans un cas le sujet recevait 75 microgrammes de LSD intraveineux, et dans l’autre cas un placebo, c’est-à-dire rien d’autre qu’un liquide physiologique. On a pu ainsi comparer les effets réels du LSD versus toute autre modification (produites par exemple par des attentes, des conditionnements, etc.) chez la même personne.
Le protocole est assez impressionnant en termes d’instruments utilisés pour ne rien manquer aux effets de l’acide lysergique diéthylamide (le nom complet du LSD). Trois techniques complémentaires ont ainsi été utilisées : l’ASL (ou "arterial spin labelling", l’IRMf ou imagerie de résonnance magnétique fonctionnelle, et la magnétoencéphalographie (les deux premières étant des lectures indirectes de l’activité nerveuse basées sur le flux sanguin dans les capillaires cérébraux).
L’analyse des résultats obtenus avec ces différentes techniques combinées a permis de mieux comprendre deux grands types d’effets associés à la prise de LSD : les hallucinations visuelles et le sentiment de dissolution du soi.
Dans le premier cas, les trois techniques utilisées ont mis en évidence une augmentation du débit sanguin dans le cortex visuel, une diminution de la puissance des rythmes alpha, et une beaucoup plus grande connectivité fonctionnelle. Trois modifications dont l’importance était corrélée avec l’intensité des expériences subjectives rapportées par les sujets.
Comme le rapporte l’auteur principal de l’étude, Robin Carhart-Harris, c’est un peu comme si les sujet voyaient, mais avec leurs yeux fermés. Autrement dit, c’est l’activité intrinsèque ou endogène de leur cerveau, leur imagination pourrait-on dire, qui alimente alors fortement le système visuel et non plus le monde extérieur. Et de fait, les scientifiques ont pu observer beaucoup de régions cérébrales (liées à l’audition, l’attention, le mouvement) interagir non seulement avec les régions visuelles mais entre elles sous l’influence du LSD. Il y avait donc cet aspect plus "unifié" du cerveau favorisé par la drogue.
Mais en même temps, il y avait aussi un aspect plus "fragmenté" dans d’autres réseaux cérébraux, preuve de plus qu’une même substance peut avoir différents effets dans différents endroits du cerveau, a fortiori une substance aux effets complexes comme le LSD. La baisse de connectivité a surtout été observée entre deux structures cérébrales, le gyrus parahippocampique et le cortex rétrosplénial (une partie du cortex cingulaire postérieur). Et l’intensité de cette "déconnexion" était corrélée au niveau subjectif à celle de l’impression de dissolution du soi et de l’altération du sens des choses.
Encore une fois ici, l’impression de devenir un avec les autres, avec la nature ou même avec l’univers rapportée par des décennies d’utilisation de cette substance trouve ici un corrélat neuronal intéressant. D’autant plus que ces impressions, qui sont souvent interprétées dans un cadre spirituel ou religieux, semblent être associées à des améliorations du bien-être durant un certain temps après que les effets immédiats de la drogue se soient dissipés.
C’est d’ailleurs l’objet d’une autre étude de la même équipe publiée cette fois en février dernier dans Psychological Medicine, et qui montre qu’une certaine "fluidité cognitive" pourrait être conservée un certain temps après l’utilisation de LSD, ouvrant ainsi la voie à un usage thérapeutique, notamment pour la dépression et la rumination mentale qui lui est associée.

Auteur: Internet

Info: http://www.blog-lecerveau.org, 25 avril 2016

[ cognition ]

 

Commentaires: 0

sciences

Les ordinateurs peuvent-ils être créatifs? Le projet WHIM ("What-if Machine"), financé par l'UE, génère non seulement des scénarios fictifs mais évalue également leur potentiel attractif et d'utilisation. Il représente une avancée majeure dans le domaine de la créativité informatique. La science ignore bien souvent le monde du fantastique, mais les choses changent avec le projet WHIM qui porte bien son nom (en anglais, "whim" signifie fantaisie). Ce projet ambitieux élabore un système logiciel capable d'inventer et d'évaluer des idées imaginaires. "WHIM est un antidote à l'intelligence artificielle traditionnelle, qui est obsédée par la réalité", déclare Simon Colton, coordinateur du projet et professeur en créativité informatique au Goldsmiths College, à l'université de Londres. "Nous faisons partie des premiers à appliquer l'intelligence artificielle à la fiction". L'acronyme du projet signifie What-If Machine. C'est également le nom du premier logiciel de conception de fictions au monde, par un processus d'idéation (processus créatif de production, de développement et de communication de nouvelles idées) développé dans le cadre du projet. Le logiciel génère des mini-récits fictifs en utilisant des techniques de traitement du langage et une base de données des faits trouvés sur le web (qui sert de référentiel de faits "réels"). Le logiciel intervertit ou déforme ensuite les faits pour créer des scripts hypothétiques. Le résultat est souvent absurde: "Que se passerait-il si une femme se réveillait dans une allée après avoir été transformée en chat, mais tout en étant toujours capable de faire du vélo ?" Les ordinateurs peuvent-ils juger la créativité ? WHIM est bien plus qu'une simple machine génératrice d'idées. Le logiciel cherche également à évaluer le potentiel d'utilisation ou la qualité des idées générées. En effet, ces dernières sont destinées à un usage par le public, et les impressions du public ont été sondées avec des expériences participatives (crowdsourcing). Par exemple, les personnes interrogées ont fait part de leurs impressions générales, précisant également aux chercheurs du projet WHIM si les scripts imaginaires produits étaient, selon elles, innovants et avaient un bon potentiel narratif. Au moyen de techniques d'apprentissage automatique, conçues par des chercheurs de l'institut Jozef Stefan de Ljubljana, le système acquiert progressivement une compréhension plus précise des préférences du public. "On pourrait dire que la fiction est subjective, mais il existe des schémas communs", déclare le professeur Colton. "Si 99 % du public pense qu'un humoriste est amusant, alors nous pourrions dire que l'humoriste est amusant, au moins selon la perception de la majorité". Ce n'est que le début Générer des mini-récits fictifs ne constitue qu'un aspect du projet. Des chercheurs de l'Universidad Complutense Madrid transforment les mini-récits en scripts narratifs complets, qui pourraient mieux convenir pour l'intrigue d'un film par exemple. Parallèlement, des chercheurs de l'University College Dublin tentent d'entraîner les ordinateurs à produire des idées et paradoxes métaphoriques en inversant et opposant des stéréotypes trouvés sur le web, tandis que des chercheurs de l'Université de Cambridge explorent l'ensemble du web à des fins de création d'idées. Tous ces travaux devraient engendrer de meilleures idées imaginaires plus complètes. Plus qu'une simple fantaisie Bien que les idées imaginaires générées puissent être fantaisistes, WHIM s'appuie sur un processus scientifique solide. Il fait partie du domaine émergent de la créativité informatique, une matière interdisciplinaire fascinante située à l'intersection de l'intelligence artificielle, la psychologie cognitive, la philosophie et les arts. WHIM peut avoir des applications dans plusieurs domaines. Une des initiatives envisage de transformer les récits en jeux vidéo. Une autre initiative majeure implique la conception informatique d'une production de théâtre musicale: le scénario, le décor et la musique. Le processus complet est en cours de filmage pour un documentaire. WHIM pourrait également s'appliquer à des domaines non artistiques. Par exemple, il pourrait être utilisé par des modérateurs lors de conférences scientifiques pour sonder les participants en leur posant des questions destinées à explorer différentes hypothèses ou cas de figure. L'UE a accordé 1,7 million d'euros de financement au projet WHIM, actif d'octobre 2013 à septembre 2016.

Auteur: Internet

Info:

[ homme-machine ] [ informatique ] [ créativité ]

 

Commentaires: 0

langages comparés

Voici quelques généralisations pas nécessairement très exactes, mais qui donnent un aperçu de ce que les bots synthétisent sur le sujet en début de l'an 2024.  Sont ici recensées certaines perceptions d'ensemble et d'habitudes, surtout émergentes par comparaisons, de quelques uns parmi les grands idiomes humains.

Le Latin est une langue flexionnelle*, ce qui signifie que les mots changent de forme pour indiquer leur rôle dans la phrase, Le latin est consdéré comme l'idiome de l'analyse. De plus en tant que langue classique, il est souvent associé à la rigueur et à la précision. Langue des philosophes, des savants et des juristes de l'Antiquité, le latin est perçu comme une langue qui favorise la pensée et la formulation précise des idées.

Le mandarin, en raison de la complexité de ses caractères et de sa riche histoire, est souvent associé à la sagesse et à la tradition. La culture chinoise est également réputée pour son importance accordée à la famille et à la communauté. C'est aussi une langue agrégative qui combine des mots pour former des expressions complexes, ce qui reflète la vision du monde chinoise comme un système interconnecté.

L'hindi est un langage doté d'un riche vocabulaire pour décrire les émotions fortes, telles que l'amour, la joie et la tristesse. Elle est également associée à la famille et à la communauté, qui sont des valeurs importantes dans la culture indienne. En plus de ces caractéristiques, l'hindi a également un riche vocabulaire pour décrire la spiritualité. La langue est souvent utilisée pour exprimer des concepts tels que la religion, la méditation et la conscience.

La langue japonaise est souvent associée à la politesse, à la précision et à une riche culture traditionnelle. Les différents niveaux de politesse dans la langue reflètent les nuances importantes dans les interactions sociales. Pays du surmoi selon Michel Onfray.

L'allemand est connu pour sa précision et sa structure grammaticale complexe, l'allemand est souvent associé à la technologie, à l'ingénierie et à la rigueur. C'est aussi la langue des dresseurs, probablement du à ses intonations gutturales. La culture allemande a également une forte tradition philosophique.

L'arabe est souvent associé à une riche tradition poétique et littéraire, ainsi qu'à une profonde signification culturelle et religieuse. La calligraphie arabe est également considérée comme une forme d'art distincte. Mais cette langue possède surtout un riche vocabulaire pour exprimer l'amour via de nombreux mots différents pour en décrire toutes les nuances : l'amour romantique, l'amour familial, l'amour amical et l'amour divin et bien sur l'amour en général

Souvent considéré comme une langue pratique et polyvalente, l'anglais est utilisé dans des contextes variés, des affaires aux sciences en passant par la culture populaire. Il est souvent associé à la mondialisation et à une approche pragmatique de la communication. Il est simple et direct et a pour caractéristique un immense vocabulaire, du au fait qu'y sont rassemblés tant les termes de souches latines que ceux venant des langues saxonnes.

La langue espagnole est souvent associée à la passion, à l'expressivité et à une riche tradition artistique et littéraire. Elle est également largement parlée dans plusieurs pays d'Amérique latine, ce qui ajoute une diversité culturelle à son image.

Le français : souvent perçu comme une langue de raffinement et d'élégance, il est associé à la culture artistique, à la gastronomie et à la philosophie. Il est également considéré comme une langue de diplomatie. De plus la langue française a un système complexe de conjugaisons verbales ce qui peut aider ses locuteurs en terme de créativité.

L'idée selon laquelle chaque langue voit le monde différemment est liée au concept de relativité linguistique, également connu sous le nom de l'hypothèse de Sapir-Whorf. Cette théorie, très peu acceptée chez les linguistes, suggère que la structure d'une langue peut influencer la façon dont ses locuteurs pensent et perçoivent le monde qui les entoure. 

Ces généralisations sont évidemment à prendre avec tout le recul nécessaire.

Auteur: Internet

Info: Compil de Mg, avec bard et chatgpt, *langue dans laquelle de nombreux mots sont variables : ils changent de forme selon le contexte d'usage ou leur rapport grammatical aux autres mots dans une phrase

[ points de vue ] [ linguistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

races monades

"Pour nous qui travaillons dans un contexte zoösémiotique, il n'y a qu'une seule manière pour se frayer une issue dans ce maquis" (Sebeok, 2001, pp. 78 & 193n6).

Le réalisme ne suffit pas. Cette voie des choses a été essayée et s'est avérée insuffisante, même si elle ne l'est pas autant que la voie des idées.  Car le long de la Voie des signes, nous constatons que le "réalisme scolaire", comme l'a souligné Peirce ("ou une approximation proche de cela"), bien qu'insuffisant, fait partie de l'essence de l'entreprise. La seule façon d'atteindre au minimum ce réalisme (au sens du "réalisme scolastique" , c'est-à-dire tel que Peirce l'a correctement défini) c'est de garantir, au sein de l'expérience, une distinction non seulement entre signes et objets (les premiers étant considérés comme des "signes"), mais aussi entre les idées et les objets (les seconds étant considérés comme des "idées"). La seule façon d'atteindre le réalisme dans le sens minimaliste requis (au sens du "réalisme scolastique", tel que Peirce l'a défini) est de garantir, au sein de l'expérience, une distinction non seulement entre les signes et les objets (les premiers étant présupposés à la possibilité des seconds), mais aussi entre les objets et les choses. Le terme "choses" faisant ici référence à une dimension de l'expérience du monde objectif qui  ne se réduit pas seulement à l'expérience que nous en avons, mais qui est en outre connaissable en tant que telle au sein d'une objectivité via une discrimination, dans des cas particuliers, pour identifier ce qui marque la différence entre ens reale et ens rationis dans la nature des objets expérimentés. De cette façon (et pour cette raison), le "module minimal mais suffisant de traits distinctifs du  +,  -  ou 0, diversement multipliés dans des systèmes zoösémiotiques avancés, qui restent pourtant entièrement perceptifs par nature, est bien loin des modèles cosmiques extrêmement complexes que Newton ou Einstein ont, a des époques données, offert à l'humanité." (Sebeok, 1995, p. 87, ou 2001, p. 68).

Et la seule façon d'établir une différence entre les choses expérimentées en tant qu'objets à travers leur relation avec nous et les choses comprises, réellement ou prospectivement, en tant que choses en elles-mêmes, ou indépendamment d'une telle relation cognitive, c'est à travers un système de modélisation capable de discerner, grâce à des processus expérimentaux, une différence entre les aspects de l'objet donnés dans l'expérience et ces mêmes aspects donnés en dehors de l'expérience particulière.

Tels sont les termes tranchants de Sebeok, pour dire  que la distinction entre les objets et les choses dépend d'un système de modélisation, un Innenwelt, qui a parmi ses composants biologiquement déterminés un composant biologiquement sous-déterminé, composant que Sebeok nomme "langage". Grâce à ce dernier nous pouvons modéliser la différence entre les "apparences" au sens objectif et la "réalité" au sens scolaire, et proposer des expériences pour tester le modèle, conduisant à son extension, son raffinement ou son abandon, selon les particularités du cas. Il n'est pas nécessaire qu'il y ait un genre d'Umwelt - spécifiquement humain - pour que l'esprit soit en contact avec la réalité dans ce sens scolastique*. Car la réalité au sens scolastique n'a pas besoin d'être envisagée pour être rencontrée objectivement.

L'idée de réalité, nous le verrons bientôt, n'est rien d'autre qu'un composant représentatif d'une sorte d'Umwelt, ici spécifiquement humain. Mais le contenu objectif de cette idée (non pas formellement prescrite comme tel, mais "matériellement" au sens scolastique) fait partie de l'Umwelt de tout animal.

Sebeok aimait citer Jacob sur ce point : "Quelle que soit la manière dont un organisme étudie son environnement, la perception qu'il en a doit nécessairement refléter ce qu'on appelle la réalité et, plus précisément, les aspects de la réalité qui sont directement liés à son propre comportement. Si l'image qu'un oiseau obtient des insectes dont il a besoin pour nourrir sa progéniture ne reflète pas au moins certains aspects de la réalité, alors il n'y a plus de progéniture. Si la représentation qu'un singe construit de la branche sur laquelle il veut sauter n'a rien à voir avec la réalité, il n'y a plus de singe.  Et si ce point ne s'appliquait pas à nous-mêmes, nous ne serions pas ici pour en discuter." (Jacob, 1982, p. 56)

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Ce que Peirce nomme " réalisme scolastique ", au vu de sa provenance médiévale dans la reconnaissance explicite du contraste entre l'ens reale et l'ens rationis (Le mental et le réel dans le formalisme scotiste du XVIe siècle), je l'appelle "réalisme hardcore", en raison de la continuité de la notion médiévale de l'ens reale avec le ον dont parlait Aristote en tant que grand-père de la scolastique. Ainsi, le réalisme pur et dur signifie qu'il existe une dimension de l'univers de l'être qui est indifférente à la pensée, à la croyance et au désir humains, de sorte que, si par exemple je crois que l'âme survit à la destruction de mon corps et que j'ai tort, quand mon corps disparaît mon âme aussi - ou, à l'inverse, si je crois que la mort du corps est aussi la fin de mon esprit ou de mon âme et que j'ai tort, lorsque mon corps se désintègre, mon âme continue à vivre, et je devrai faire le point en conséquence. Ou bien, pour donner un exemple plus historique, depuis l'époque d'Aristote jusqu'à au moins celle de Copernic, les meilleures preuves, arguments, et opinions de toutes sortes soutenaient que le soleil se déplace par rapport à la terre, alors qu'en réalité, depuis le début. c'était la terre qui bougeait par rapport au soleil, et si le soleil bougeait aussi, ce n'était pas par rapport à la terre

[ solipsisme de l'espèce ] [ représentations ] [ concepts ] [ tiercités ] [ échelles de grandeur ] [ réel partagé ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Des chercheurs de l'Institut de neurosciences de la Timone apportent un éclairage théorique nouveau sur une illusion visuelle découverte dès le début du XXème siècle. Elle restait incomprise alors qu'elle pose des questions fondamentales sur la manière dont notre cerveau représente les évènements dans l'espace et dans le temps. Cette étude parue le 26 janvier 2017 dans la revue PLOS Computational Biology, montre que la solution se situe dans les mécanismes prédictifs intrinsèques aux traitements neuronaux de l'information.
Les illusions visuelles sont toujours aussi populaires: de façon quasi magique, elles peuvent faire apparaitre des objets là où on ne les attend pas... Elles sont aussi d'excellentes occasions de questionner les contraintes de notre système perceptif. De nombreuses illusions sont basées sur le mouvement, comme par exemple, l'illusion du flash retardé. Observez un point lumineux qui se déplace sur une trajectoire rectiligne. Si un second point lumineux est flashé très brièvement juste au dessus du premier, le point en mouvement sera toujours perçu en avant du flash alors que leurs deux positions horizontales sont rigoureusement identiques.
Traiter l'information visuelle prend du temps et même si ces délais sont remarquablement brefs, ils ne sont cependant pas négligeables et le système nerveux doit les compenser. Pour un objet qui se déplace de façon prédictible, le réseau neuronal peut inférer sa position la plus probable en tenant compte de ce délai de traitement. Pour le flash, par contre, cette prédiction ne peut s'établir car son apparition est imprévisible. Ainsi, alors que les deux cibles sont alignées sur la rétine au moment du flash, la position de l'objet en mouvement est anticipée par le cerveau afin de compenser le délai de traitement: c'est ce traitement différencié qui provoque l'illusion du flash retardé.
Les chercheurs montrent que cette hypothèse permet également d'expliquer les cas où cette illusion ne fonctionne pas: par exemple si le flash a lieu à la fin de la trajectoire ou si la cible rebrousse chemin de façon imprévue. Dans ce travail, l'innovation majeure consiste à utiliser la précision de l'information dans la dynamique du modèle. Ainsi, la position corrigée de la cible en mouvement est calculée en combinant le flux sensoriel avec la représentation interne de la trajectoire, toutes deux existant sous la forme de distributions de probabilités. Manipuler la trajectoire revient à changer la précision, et donc le poids relatif de ces deux informations lorsqu'elles sont combinées de façon optimale afin de connaître où se trouve un objet au temps présent. Les chercheurs proposent d'appeler parodiction (du grec ancien paros, le présent) cette nouvelle théorie qui joint inférence Bayesienne et prise en compte des délais neuronaux.
Malgré la simplicité de cette solution, la parodiction comporte des éléments qui peuvent sembler contre-intuitifs. En effet, dans ce modèle, le monde physique environnant est considéré comme "caché", c'est-à-dire qu'il ne peut être deviné que par nos sensations et notre expérience. Le rôle de la perception visuelle est alors de délivrer à notre système nerveux central l'information la plus probable malgré les différentes sources de bruit, d'ambiguïté et de délais temporels.
Selon les auteurs de cette publication, le traitement visuel consisterait en une "simulation" du monde visuel projeté au temps présent, et ceci avant même que l'information visuelle ne puisse effectivement venir moduler cette simulation, la confirmant ou l'infirmant. Cette hypothèse qui semble relever de la "science-fiction" est actuellement testée avec des modèles de réseaux neuronaux hiérarchiques plus détaillés et biologiquement plausibles qui devraient permettre de comprendre encore mieux les mystères sous-jacents à notre perception. Les illusions visuelles n'ont vraiment pas fini de nous étonner !
(Figure: Dans l'illusion visuelle du flash retardé, un point en mouvement (le point rouge, en haut) est perçu en avant par rapport à un point flashé (en vert en bas), même si ils sont alignés verticalement à l'instant du flash. Depuis la découverte de cette illusion, les débats ne sont pas clos quant à l'origine du traitement différencié des deux points. Dans cette étude, il est proposé que ce décalage de position soit dû à un mécanisme prédictif dont le but est normalement de compenser les délais de traitement de l'information visuelle. En utilisant l'information sur le mouvement du point, du début de la trajectoire jusqu'au moment du flash, la position du point est donc "anticipée" pour correspondre au plus près à la position réelle au temps présent.)

Auteur: Internet

Info: PLOS Computational Biology review, 26 janvier 2017

[ vision ]

 

Commentaires: 0

savoirs consensuels

Le monde objectif de l'expérience humaine est donc au mieux un mélange de nature et de culture, mais un mélange dans lequel les modèles formels prédominants proviennent davantage de la culture que de la nature. Ces modèles formels de la culture sous-tendent la présentation des objets dont nous faisons directement l'expérience. La situation à cet égard n'était en fait pas différente pour les anciens ou les médiévaux, mais ils n'étaient pas conscients de ce fait. Qui sont nos parents ? Voilà ce dont dépend le système de parenté qui prévaut dans la culture qui nous a imprégné. Quelle est notre religion ? Si l'on tient compte des exceptions individuelles, là encore la réponse dépend principalement du contexte et des circonstances historiques au sein desquelles nous avons grandi.  

Les modernes, s'éveillant à tout cela, avaient de bonnes raisons de voir dans les objets expérimentés de pures créations du travail de l'esprit humain. Même la science pourrait être réduite à cela : telle fut l'expérience kantienne, entreprise sous l'impulsion des discours de Hume qui affirmait qu'il n'y avait rien de plus à expérimenter que les associations habituelles entre les objets. Si toutes les pensées reflètent de simples habitudes, et si tous les objets ne peuvent être considérés que comme des auto-représentations mentales, quels que soient les doutes que nous puissions avoir sur la base du "bon sens" quant à l'idée d'un monde indépendant de nous, le scepticisme demeure la garantie finale de toute connaissance. Ce qui, pour Kant, c'était inacceptable. Il pouvait avaler tout ce que ses prédécesseurs traditionnels lui avaient enseigné, mais pas le scepticisme. Leur erreur, selon lui, avait été de réduire la connaissance à la subjectivité - c'est-à-dire qu'elle consistait à attribuer les idées de l'esprit individuel aux objets de l'expérience directe. Ils ne pouvaient saisir que la connaissance est essentiellement de structure relationnelle, et que les relations sont au-dessus du sujet. Ainsi, les idées dans l'individu donnent naissance ou "fondent" des relations cognitives avec les objets. Mais ces objets sont ce sur quoi les relations finissent, et non ce sur quoi les relations sont fondées et d'où elles proviennent. Et la manière dont ces relations sont générées pour donner forme aux objets est conforme à un modèle intégré, a-priori, dans l'esprit humain.

Or, lorsqu'il s'agit des objets de la connaissance spécifiquement scientifique, selon Kant, nous avons affaire à une universalité et une nécessité qui proviennent de l'esprit et non d'une simple habitude ou d'une généralisation usuelle. Même si le monde extérieur reste inconnaissable en tant que tel, nous savons néanmoins qu'il est là ; et notre façon de le penser intellectuellement n'est pas capricieuse ou culturellement relative mais universelle et nécessaire, identique pour tous les humains. Même si nous ne connaissons que ce que nos représentations donnent à connaître, et que ces représentations sont entièrement le fait de notre esprit, il n'en reste pas moins qu'elles deviennent des objetsm non par association, mais bien a priori, indépendamment des aléas de la coutume et de l'expérience individuelle ; et leur contenu cognitif n'est pas subjectif mais objectif, c'est-à-dire donné au terme de relations que nos représentations ont été les seules à trouver. Le noyau scientifique de l'expérience humaine, contrairement à la conviction animant les scientifiques eux-mêmes, mais selon le philosophe moderne Kant, est prospectivement le même pour tous parce que le mécanisme sensoriel générant les représentations impliquées et le mécanisme conceptuel organisant les relations découlant de ces représentations est le même pour tous : des causes semblables entraînent toujours toujours des effets semblables. Telle est la version de Kant de l'adage médiéval, agens facit simile sibi . Grâce à ce simple expédient, Kant pensait avoir réglé l'objectivité de la connaissance et mis à distance le scepticisme. Le scandale de ne pas être en mesure de prouver qu'il existe un monde extérieur à l'esprit humain était ainsi supprimé par la démonstration qu'effectivement il y a un domaine inconnaissable qu'on ne peut pas atteindre, et ce domaine est précisément le monde extérieur, dont on sait avec certitude qu'il existe puisqu'il stimule nos représentations (via la perception sensorielle) et inconnaissable en soi (avec un mécanisme de concepts qui ne produisent de la connaissance que par corrélation avec les représentations des intuitions sensorielles pour aboutir un autre domaine inatteignable, le noumène, pour qui essaye d'aller  au-delà de la limite de ce qui est représenté par ces  perceptions sensorielles).

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam

[ limitation anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

L'Étude d'une obscure tribu d'Amazonie jette un nouvel éclairage sur la façon dont le langage affecte la perception

En fin des années 30, le linguiste amateur Benjamin Lee Whorf posa la théorie que la langue peut déterminer la nature et la teneur de la pensée. Mais y a il des concepts dans une culture que les gens d'une autre culture ne peuvent pas simplement pas comprendre parce que leur langue n'a aucun mot pour elle ?

Personne n'a jamais répondu définitivement à cette question, mais les nouveaux résultats du Dr. Peter Gordon, scientifique bio-comportemental à Columbia University, vont vers une réponse positive.

Gordon a passé plusieurs années à étudier les Pirahã, une tribu isolée d'Amazonie comprenant moins de 200 personnes. Leur langue ne contient aucun mot pour les nombres au delà de "un", "deux" et "beaucoup." Même le mot Pirahã pour "un" semble se rapporter plutôt à "approximativement un" voire à "une petite quantité", par opposition à la connotation exacte du "un" dans les langues en général. Selon Gordon, ce que ces expériences montrent, c'est qu'avoir d’autres ressources linguistiques peut sculpter différemment la réalité.

Whorf indique que la langue divise le monde en différentes catégories. Il dit. "Qu'une langue choisisse de distinguer une chose contre une autres affecte la manière qu’ont les individu de percevoir la réalité." Quand Gordon donna aux gens de la tribu des tâches numériques dans lesquelles ils étaient invités à assortir de petits ensembles d'objets dans des configurations variables, les membres adultes répondirent avec précision jusqu'à deux ou trois articles, mais leur performance diminua une fois l'exercice passant de 8 à 10 articles, pour tomber à zéro avec de plus grands ensembles d'objets.

La seule exception à ce résultat fut lorsque les tâches impliquèrent des objets inégalement espacés. Ici, la performance des participants se détériora lorsque le nombre d'articles grimpa à 6 articles. Pourtant pour des ensembles de 7 à 10 objets, l'exécution était presque parfaite, alors que ces tâches étaient considérées comme plus difficiles. Gordon présume que l'espacement inégal permet aux sujets de percevoir les articles comme des parties "amas" de 2 ou 3 articles qu'ils peuvent ensuite assortir aux groupes correspondants.

Selon l'étude, l’exercice des Pirahã fut médiocre pour des tailles au-dessus de 2 ou 3, (qui n'étaient pas aléatoire). "Les participants Pirahã essayèrent réellement très dur d'obtenir les réponses correctes et ils avaient clairement compris les tâches" dit Gordon. Ces participants ont donc mis en évidence qu'ils utilisent des méthodes d'évaluation "par paquets" pour évaluer des quantités de plus grandes tailles. En moyenne, ils répondirent aux taches à peu près aussi bien que des étudiants d'université utilisant des estimations numérique bien plus complexes.

Leurs niveaux de compétence étant semblables à ceux d’enfants en bas âge (pré-linguistiques), à ceux des singes, d'oiseaux et de rongeurs, ceci semble se corréler avec les études récentes d'imagerie cérébrale qui montrent parfois une capacité différente de compétence numérique, différence qui apparaît être indépendante de la privation du langage.

De manière intéressante Gordon note que si les adultes Pirahã eurent des difficulté pour apprendre de grands nombres, leurs enfants non. Alors que les mots Pirahã pour "un" et "deux" ne se rapportent pas nécessairement à ces montants spécifiques. Gordon a également constaté que les membres de la tribu n'ont jamais l'habitude d'utiliser ces mots en association pour dénoter de plus grandes quantités. Dans l'étude, ils utilisèrent également leurs doigts en plus de leurs rapport verbaux de quantités, mais cette pratique s’avéra aussi fortement imprécise même pour les petits nombres de moins de cinq. La langue Pirahã n'a aucun mot pour "nombre," et les pronoms n'indiquent pas de quantité. "Lui" et "eux" sont le même mot. La plupart des quantificateurs standard comme "plus" "plusieurs" "tous" et "chacun" n'existent pas.

De manière générale, tout en utilisant une structure très complexe de verbes commune à beaucoup de langues américaines indigènes, la langue Pirahã ne tient pas compte de certains genres de constructions comparatives. Par exemple, il ne fut pas possible de demander aux participants si un groupe d'objets "avait plus de volume que l'autre" en raison du manque de cette construction grammaticale dans leur idiome. Cependant, le mot qu'ils emploient pour "beaucoup" - qui dans leur langue est dérivé d'un forme de la signification de verbe "rassembler" - est très distinct d'un mot qui signifie quelque chose comme "plus de".

Auteur: Fortean Times

Info: Les détails de cette étude paraîtront dans le journal Science du jeudi 19 août 2004. Source, Teachers College, Columbia University

[ idiomes ] [ sciences ] [ compter ] [ comptage ] [ termes quasi-esprit ]

 

Commentaires: 0

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste