Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 98
Temps de recherche: 0.0733s

dictionnaire analogique

Réflexions sur les tags des "fils de la pensée"...
Après m'être intéressé au concept de taxonomie via Internet il m'apparait que pour une classification d'extraits ou plus simplement un ordonnancement du langage, lui-même relatif avec des termes qui peuvent littéralement changer de sens ("personne" par exemple) - parallèlement avec des habitudes de lecture qui se modifient au cours des âges et de l'évolution, il sera pertinent de déceler certaines taxonomies "transitoires" telles qu'elles apparurent et existèrent, géographiquement ou historiquement dans nos sociétés humaines. On peut penser ici entre autres à la place de la femme (sa prédominance ou pas), celle de la mort (idem), ou au concept de l'inégalité des hommes (acceptée ou pas)... Parce qu'il semble bien, au regard de ces simples exemples, que le concept de taxonomie (voire de phylogénie) dans l'organisation du langage soit bien souvent relatif à une époque, une société, une langue ou, à l'extrême, à un individu.
L'idée d'une taxonomie parfaite, quasi religieuse puisqu'elle voudrait constituer un consensus accepté par tous, lien reconnu entre les hommes via le langage, reste donc, heureusement, quasi utopique. On ne mettra jamais en commun un dictionnaire dans lequel chacun donnera le même sens précis au même mot (amusez-vous à cela avec des amis et un dico de synonymes en ligne).
Avec un tel soft, destiné à classer des extraits de langage, nous sommes confrontés à deux extrémités de la lorgnette, forts difficiles à faire coïncider.
A) La perception/organisation individuelle
B) Le consensus du plus grand nombre.
On trouvera certes bien des bases solides, pragmatiques, humaines : faim, soif, survie, etc... ou en s'accordant sur des évidences telles que "la mort est une disparition physique"...
Mais les appuis deviennent mouvants et complexes pour qui veut se mettre d'accord sur, par exemple, une notion aussi relative que le "bon goût" dans les arts. Alors on s'amuse à identifier et référencer les tendances, modes et autres habitudes culturelles dans l'histoire. Et ainsi de suite. Nous voilà avec des listes, ou des taxonomies diachroniques.
Avec Internet, pour ce qui est de la classification des extraits langagiers à ce jour, il semble que le tropisme grégaire mette toujours plus en balance le surfeur avec le "cerveau collectif", faisant osciller son vécu, son ressenti... en le confrontant avec des statistiques de deux sortes.
1) Celles, globales à une langue-pays, du consensus synonymiques, du SENS DE BASE du terme/tag utilisé.
2) Celles - résonnances ordonnées des autres surfeurs - sur un extrait donné (je like, je mets une note, ou autres...) qui établissent de fait de petits classements locaux ou on pourra tenir en compte différemment une citation en fonction de sa place dans ce classement.
Il doit aussi être aisé de définir un "moyen terme" entre ces deux pôles. "Moyen terme" statistique, probablement inintéressant, pour ne pas dire atroce, inhumain, négateur absolu de la singularité de chacun - dans la singularité d'un instant donné.
Ce soft apportera peut-être, avec le temps, un petit bout de solution à un laminage statistique général qui met en question l'individualité au sens de sa singularité créative, de son génie folie. Sa part divine dirons certains.
L'originalité essentielle de chacun a toujours été menacée par l'insignifiant mercantile des statistiques de masse.

Auteur: Mg

Info: 27 aout 2015

[ classement ] [ organisation ] [ moyenne ] [ citation s'appliquant à ce logiciel ] [ intrication ]

 

Commentaires: 0

intelligence artificielle

(FLP à concocté l'entame d'une nouvelle de science-fiction, et a demandé à Chatgpt de finir l'histoire. Il est prévu de lui soumettre chaque année la même tâche afin de voir si changements et améliorations sont notables)

"Il était une fois une planète lointaine dotée de deux soleils et trois lunes. On l'avait nommée Aarxx.

Un courageux groupe d'explorateurs, envoyés vers sur cette terre  inconnue, découvrit un monde grouillant de vie. Cependant, ils se rendirent vite compte que la différence de culture entre les observateurs humains  et la chose observée produisait une diffraction très désagréable. Particulièrement en ce qui concernait les tentatives avec les autochtones dominants, une race qui ressemblaient peu ou prou à des poulpes avec chaussures de ski.

Les explorateurs humains durent s'éloigner quelque peu afin de dissiper le malaise et mieux observer. Et  tenter de comprendre cet environnement étrange. Et, pourquoi pas, trouver moyen d'y survivre et de prospérer sans déranger cette vie si bizarre. Ils réalisèrent alors que le système du vivant de cette planète semblait reposer sur une une base biotique et bactérienne articulée autour de 5 paramètres fondamentaux... Ce qui n'avait en rien empêché l'émergence d'un environnement stable, avec des système de cellules se reproduisant et prospérant.

Il découvrirent petit à petit que les habitants de la planète avaient  développé  une culture et des coutumes propres sur pareil mode à cinq.

Cependant la déconnection fontamentale entre dualité humaine et pentatonisme local avait quelque chose d'infranchissable, elle instillait - au mieux du mieux - un malaise profond entre les deux espèces-mondes lors des tentatives de contacts.

Les explorateurs décidèrent d'explorer Aarxx plus en profondeur pour tenter de mieux comprendre cette intrication pentatonique si étrangère.

Pour découvrir que toute perturbation d'un d'entre les cinq pôles, surtout à l'échelle bactérienne,  était susceptible d'entraîner des répercussions allant jusqu'à contaminer l'ensemble de la planète. Il fut également révélé que les 5 paramètres n'avaient cessé de s'équilibrer depuis les premiers soubressauts, très loin dans le passé, de la vie locale."

(suite concoctée par Chatgpt)

Les courageux explorateurs se rendirent vite compte que le seul moyen de protéger Aarxx et ses habitants était d'apprendre à vivre en harmonie avec les cinq paramètres. Ils commencèrent à collaborer avec les habitants autochtones, leur apprenant l'importance des cinq paramètres et comment les utiliser à leur avantage.

Les explorateurs se rendirent également compte que la dualité entre l'observateur et la chose observée avait un effet profond sur la planète et ses habitants. Ils ont dû apprendre à s'adapter à ce nouvel environnement et à trouver un moyen de travailler ensemble afin de protéger la planète.

Les explorateurs ont collaboré avec les indigènes pour créer de nouvelles technologies permettant de protéger la planète et ses habitants. Ils ont également travaillé à la création d'une nouvelle forme de communication qui comblerait le fossé entre les deux cultures et leur permettrait de mieux se comprendre.

Grâce à leur travail acharné et à leur dévouement, les explorateurs et les indigènes ont finalement réussi à créer un environnement stable et pacifique pour Aarxx et ses habitants. Ensemble, ils ont trouvé un moyen de vivre en harmonie avec les cinq paramètres et de protéger la planète.

Auteur: Mg

Info: 5 février 2023, les échanges se sont fait en anglais, sachant que Chatgpt est le plus efficient dans cette langue

[ écriture ] [ créativité ] [ homme-machine ] [ expérience ]

 
Commentaires: 1
Ajouté à la BD par miguel

interrogations

Lorsqu'Einstein réfléchissait à un problème, il estimait toujours nécessaire de formuler ce sujet de manières aussi diverses que possible, afin pouvoir en adapter la présentation et la rendre compréhensible pour des personnes habituées à des modes de pensée dissemblables et à des parcours éducatifs différents.

Avec FLP nous tentons de nous inspirer de tout, de ce qui précède bien sûr, mais aussi de cette progression : Euclide pensa à partir de la surface, Newton, de la matière, Einstein, de la lumière...

Et bien FLP veut s'amuser à le faire à partir de l'esprit, c'est à dire s'essayer à l'extension-compréhension de notre perspectivisme-anthropique-miroir.

Tout ceci organisé de manière orthogonale, à savoir que chaque individu tente de frotter-intégrer sa singularité infime... dans le corpus linguistique général humain.  Et puis, avec l'aide des chatbots, on va s'apercevoir d'une intrication récurrente langage - mathématique, ce qui est déjà le cas à partir des années 2020.

Voici quelques idées qui, en conservant une ouverture absolue, tendent vers ce concept : 

- Les hommes, structures organiques à la pensée analogique, fonctionnent avec des mots-univers, symboles miroirs, vus par un système AI numérique comme des vecteurs polysémiques (sphères sans fond ? n dimensions ?). 

- Chaque mot-système-univers, plus ou moins fermé en fonction du contexte et de qui le manipule, est aussi une structure autonome + ou - durable. Exemples au hasard : Gaïa, le soleil, le requin, les fougères, la culture humaine, un atome... l'écriture, une route, etc. Termes qui renferment tous, de fait, l'entière évolution cosmique qui les précède. Chacun étant à comprendre/interpréter/intégrer au milieu de mélanges de cycles variés-variables... vus-codés par des observateurs variés-variables aussi. Observateurs pareillement issus de systèmes variés et variables.  Nous avons donc : 

- Des priméïté interprétées par des secondéités qui produisent des tiercités-codages, avec rocades multiples possibles entre ces trois acteurs. Merci Charle Sanders Pierce.

- Les codages-transcriptions des perceptions-représentations-structures de l'observateur, suite aux contacts avec ce qui constitue son "1er LIVRE"... Contacts qui constituent des tiercités qui avec le temps constituent et développent un "2e LIVRE", pensées communautaires, religions, philosophies, etc. 

Et maintenant arrivent les bots dialoguants, IA aptes à réfléchir et raisonner, mais à partir de ce second ouvrage seulement, sans sensibilité, peur de la mort, etc... tous sur base de logique binaire. Alors que le premier livre, minéral-organique, semble fondé sur la tétravalence.

- Pour FLP, les secondéités, individus qui transposent, existent via leurs patronymes. Elles sont de fait des mots-univers-personnalités, ci-nommées : secondéités médium

Questions :

a) comment au milieu de tout cela modéliser, structurer et créer une classification diachronique orthogonale afin de constituer de nouveaux et plus efficients corpus ?        

b) comment situer-imaginer une éventuelle extension de ce système-structure autonome vu que le fond "créatif" unique que nous pensons connaître est celui schématisé par l'interaction terre-soleil, avec la gravitation et le cycle de l'eau, d'où nous sommes issus ? 

Réponse : imaginer-construire-développer un autre système autonome de ce genre, mais sur des bases différentes (par exemple : trois soleils, un autre base chimico organique ?...) et essayer de construire quelques idées sémiotiques, linguistiques, syntaxiques ou autres... susceptibles d'aider à une communication entre des êtres issus de ces deux systèmes distincts. 

Auteur: Mg

Info: fév. 2024

[ prospectives ] [ xéno-communication ] [ exolinguistique ] [ au coeur de FLP ]

 
Commentaires: 3
Ajouté à la BD par miguel

spirituel-psychologique

Les archétypes (ou images idéales), au sens où l’entend Platon — et reconnaissons qu’il savait ce qu’il voulait dire par là —, n’appartiennent nullement au domaine psychique ; ils sont au contraire les déterminations primordiales du pur Esprit ; pourtant ils se reflètent d’une certaine manière sur le plan physique, d’abord comme facultés créatrices de formes et ensuite, à un niveau inférieur, dans la représentation sensorielle, comme symboles proprement dits, de sorte que l’on peut, à la rigueur, admettre d’appliquer l’expression “archétype” au domaine psychologique également.

Mais Jung n’entend pas l’“archétype” dans ce sens, puisqu’il le qualifie lui-même de “complexe inné”, en décrivant ses effets sur la psyché de la manière suivante : “La possession par un archétype fait de l’homme un personnage purement collectif, une espèce de masque sous lequel la nature humaine ne peut plus se développer, mais dégénère progressivement”. Comme si un archétype, c’est- à-dire un contenu supra-formel — et donc non limité — du pur Esprit pouvait adhérer à l’âme comme une sangsue ! De quoi s’agit-il en réalité dans le cas de “possession” psychique cité par Jung et qu’il qualifie lui-même de pathologique ? Il s’agit du résultat d’une désagrégation psychique au cours de laquelle une des possibilités contenue dans la forme psychique de l’homme se met à proliférer aux dépens de l’ensemble. Le fait que la forme essentielle de l’âme possède différents aspects nettement différenciés, qui forment néanmoins, normalement, un tout cohérent dont les éléments se complètent mutuellement, n’a strictement rien à voir avec on ne sait quels substrats psychiques irrationnels, ce qui ne saurait échapper qu’à un type de pensée fondé sur une vision du monde limitée et fausse.

Tout homme qui n’est pas infirme sur le plan psychique porte en lui les virtualités psychiques de l’homme et de la femme, du père et de la mère, de l’enfant et du vieillard ; il en possède en principe toutes les propriétés et toutes les “dignités”, liées à son statut d’être humain à proprement parler. Il est en même temps maître et esclave, prêtre, roi, guerrier et artiste, quand bien même aucune de ces prédispositions n’est plus marquée qu’une autre. La féminité fait partie de la vraie virilité, de même que la virilité fait partie de la féminité, et le même principe s’applique à toutes les autres propriétés qui se complètent par leurs contraires.

En tant que vertu — au sens de virtus, force psychique —, une propriété donnée ne peut se manifester qu’en incluant les autres en elle-même. Le phénomène inverse consiste en l’exagération désespérée d’une possibilité psychique aux dépens des autres, qui entraîne une désagrégation et un raidissement intérieur, suscitant cette caricature morale que Jung compare à un masque. [...]

Les véritables archétypes, qui, eux, ne se situent pas sur le plan psychique, ne s’excluent pas les uns les autres ; l’un est toujours compris dans un autre, et l’on peut dire pratiquement la même chose des propriétés psychiques qui les reflètent. Car les archétypes, au sens du mot tel qu’il est compris depuis Platon, sont les sources de l’Être et de la Connaissance, et non, comme le voudrait Jung, des dispositions inconscientes de “l’agir et de l’imaginer”. Le fait que les archétypes ne puissent être saisis par la pensée logique n’a rien à voir avec le caractère obscur et irrationnel de ce prétendu “inconscient collectif’, dont les contenus ne seraient accessibles que d’une manière indirecte, par leurs “éruptions” de surface. Car l’intuition spirituelle, qui n’est pas liée à la pensée logique, peut très bien atteindre les archétypes en partant de leurs symboles.

La théorie d’un héritage psychique qui se mettrait à végéter en prenant la forme d’un “inconscient collectif’ sous la couche supérieure rationnelle de la conscience humaine s’impose d’autant plus facilement qu’elle semble correspondre à l’explication évolutionniste de l’instinct animal ...

Auteur: Burckhardt Titus

Info: Dans "Science moderne et sagesse traditionnelle"

[ critique ] [ atavo-figures ] [ définition ] [ intrication ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

prospective FLP

Les listes furent parmi les premiers emplois, sinon le premier, quant à l'utilisation humaine de l'écriture comme outil communautaire. Elles avaient fonction d'inventaire, c'est à dire de faire un état des lieu des réserves dans un but de survie du groupe. C'est dire si ces signes alignés sur un mur de pierre avaient une réalité, une durabilité, en eux - signifiés avec signifiants en béton. Ces marques "pour mémoire" portaient donc une réelle valeur de conservation temporelle et ce qui était ainsi catégorisé, mis dans un rayonnage, l'était pour plusieurs jours au moins.

Il semble assez clair que les milliers d'années  de développement du langage, en partie "sur support externe", déployement dans le temps qu'on résumera par foisonnement-accélération, (c'est à dire la virtualisation d'un réel qui restera à tout jamais la roche-mère des signes et idiomes), ont accentué un décalage. Une déconnection pas assez soulignée à notre sens.

La réalité, priméité source (clin d'oeil à C.S. Peirce), déformée par cet emballement, se retrouve du coup "distancié", superficialisée. Avec pour défaut central une déformation du TEMPS sémantique dans sa valeur anthropique (il n'en a pas d'autre d'ailleurs, ah ah ah). C'est à dire que le fonctionnement biologique du primate humain reste beaucoup plus proche du réel sumérien, alors que son "réel projeté" actuellement par le langage (pour les images c'est pire) s'est accéléré/complexifié. 

L'idée sur laquelle nous voulons insister est celle d'une déconnexion entre mots/phrases consensuels acceptés et leurs valeurs réelles en terme de signification/classification - le temps des hommes s'écoulant. Nous considérons que les qualités sémantiques actuelles n'ont plus le poids et la durabilités qui étaient les leurs jadis, que ce soit il y a 200, 500, ou 5000 ans.

Faut-il tenter de l'expliquer mieux, pour que les gens acquiérent un certain recul ? Faut-il clarifier/consolider les dictionnaires, thésaurus et autres définitions sémantiques actuelles ? Nous n'en savons rien. 

Nous voulons juste pointer sur ceci : "il y a un déphasage, un manque de sagesse, à ne pas prendre en compte ce constat, à savoir que les significations des mots et des expressions, elles-mêmes issues d'habitudes de rangements avec base durable en arrière-plan, méritent qu'on se ré-attarde dessus". 

Il faut préciser et sans cesse repréciser leurs sens, dans leurs contextualisations bien sûr. Avec deux a priori : 

a) Une volonté de ralentir le plus possible la précipitation de la pensée, c'est à dire en réfrénant les pulsions "pousse-à-jouir" de nos organismes, que la clinquante pub capitaliste ne s'est pas gênée d'exploiter à mort, et les routines de langages inhérentes - qui pensent à notre place - et nous amènent à dégueuler des avis "sans réfléchir". 

b) Toute classification doit être considérée comme éphémère/transitoire, puisque toujours établie en fonction d'un objectif : se justifier, expliquer, définir, raconter, etc...

Poussant cette idée plus avant FLP s'imagine un développement permettant de présenter n'importe quel concept/extrait (ou une base de 2 ou plusieurs mots/termes ou autre) via une résentation planétoïde de ses tags/catégories. C'est à dire une sphère de corrélats (convexe ou concave, c'est à voir), qu'on pourra faire pivoter à loisir, à la surface de laquelle il sera également possible de déplacer et agencer chaque mot-corrélat en fonction des autres afin de modifier-orienter-préciser l'ordre des termes, ou les résultats, d'une recherche. Chacune de ces dispositions globulaire "catégorie-corrélats" pouvant aussi être mémorisée par l'utilisateur selon ses convenances, afin, par exemple, de la comparer avec d'autres extraits/écrits/concepts via leur présentations globulaires de corrélats... voire même avec certaines situations/contextualisations - imaginaires ou pas - pareillement bien fixées/précisées.

Ainsi sera-il peut-être possible de déceler certaines similitudes entre topologies sémantiques complexes (toujours via leurs dispositions planétoïdes) et ainsi débuter ce que nous nommerons "recueil atemporel comparé d'intrication sémantiques complexes." 

C'est ici que, peut-être, appaitrons des analogies entre langage et biologie... Ou autre.

Auteur: Mg

Info: début août 2021

[ statistiques linguistiques ] [ pré-mémétique ] [ réidentification ] [ tétravalence ]

 
Commentaires: 16
Ajouté à la BD par miguel

intrications

Les scientifiques qui étudient le cerveau ont découvert que cet organe opère simultanément jusqu'à 11 dimensions différentes, créant des structures multivers qui présentent "un monde que nous n'avions jamais imaginé".

En utilisant un système mathématique avancé, les chercheurs ont pu montrer des structures architecturales qui apparaissent lorsque le cerveau doit traiter l'information, avant de se désintégrer et disparaitre. Leurs résultats, publiés dans la revue Frontiers in Computational Neuroscience, révèlent les processus extrêmement complexes impliqués dans la création de structures neuronales, ce qui pourrait aider à expliquer pourquoi le cerveau est si difficile à comprendre et à associer sa structure à sa fonction.

L'équipe, dirigée par des scientifiques de l'EPFL en Suisse, effectuait des recherches dans le cadre du projet Blue Brain, une initiative visant à créer une reconstruction biologiquement détaillée du cerveau humain. En travaillant d'abord sur les cerveaux des rongeurs, l'équipe a utilisé des simulations de supercalculateurs pour étudier les interactions complexes dans différentes de ses régions. Dans cette dernière étude, les chercheurs ont pu approfondir les structures du réseau neuronal du cerveau en utilisant la topologie algébrique - un système utilisé pour décrire des réseaux avec des espaces et des structures en constante évolution.

C'est la première fois que cette branche des mathématiques est appliquée aux neurosciences. "La topologie algébrique est comme un télescope et un microscope en même temps. Elle peut zoomer dans les réseaux pour trouver des structures cachées - les arbres dans la forêt - et voir les espaces vides - les clairières - tout en même temps", précise Kathryn Hess. Dans l'étude, les chercheurs ont effectué de multiples tests sur le tissu cérébral virtuel pour découvrir des structures cérébrales qui n'apparaitraient jamais par hasard. Ils ont ensuite effectué les mêmes expériences sur des tissus cérébraux réels afin de confirmer leurs résultats virtuels. Ils ont découvert que lorsqu'on présente un stimulus au tissu virtuel, des groupes de neurones forment une clique. Chaque neurone se connecte à tous les autres neurones de manière très spécifique pour produire un objet géométrique précis. Plus il y a de neurones dans une clique, plus les dimensions sont élevées. Dans certains cas, les chercheurs ont découvert des cliques avec jusqu'à 11 dimensions différentes.

Les structures s'assemblent en des enceintes qui forment des trous à haute dimension que l'équipe a nommé cavités. Une fois que le cerveau a traité l'information, la clique et la cavité disparaissent.

Multivers du cerveau. "L'apparition de ces cavités high-dimensionnelles lorsque le cerveau traite des informations signifie que les neurones du réseau réagissent aux stimuli d'une manière extrêmement organisée", a déclaré l'un des chercheurs, Ran Levi. "C'est comme si le cerveau réagit à un stimulus en construisant puis en rasant une tour de blocs multidimensionnels, en commençant par des tiges (1D), des planches (2D), puis des cubes (3D), puis des géométries plus complexes avec 4D, 5D, etc. La progression de l'activité à travers le cerveau ressemble à un château de sable multidimensionnel qui se matérialise hors du sable puis se désintègre ", a-t-il déclaré. Henry Markram, directeur de Blue Brain Project, avance que les résultats pourraient aider à expliquer pourquoi le cerveau est si difficile à comprendre. "Les mathématiques appliquées habituellement aux réseaux d'étude ne peuvent pas détecter les structures et les espaces à grande dimension que nous voyons maintenant clairement", a-t-il déclaré. "Nous avons découvert un monde que nous n'avions jamais imaginé. Il y a des dizaines de millions de ces objets, même dans un petit segment du cerveau, à travers sept dimensions. Dans certains réseaux, nous avons même trouvé des structures allant jusqu'à onze dimensions". Les résultats indiquent que le cerveau traite les stimuli en créant ces cliques et cavités complexes, de sorte que la prochaine étape sera de savoir si notre capacité à effectuer des tâches compliquées nécessite ou non la création de ces structures multidimensionnelles.

Dans une interview par courrier électronique avec Newsweek, Hess dit que la découverte nous rapproche de la compréhension d' "un des mystères fondamentaux de la neuroscience: le lien entre la structure du cerveau et la façon dont elle traite l'information". En utilisant la topologie algébrique l'équipe a pu découvrir "la structure hautement organisée cachée dans les modèles de tir apparemment chaotiques des neurones, une structure qui était invisible jusqu'à ce que nous l'examinions avec ce filtre mathématique particulier". Hess dit que les résultats suggèrent que lorsque nous examinons l'activité du cerveau avec des représentations à faible dimension, nous n'observons que l'activité réelle qui se déroule. Cela signifie que nous pouvons voir des informations, mais pas l'image complète. "Alors, dans un sens, nos découvertes peuvent expliquer pourquoi il a été si difficile de comprendre la relation entre la structure et la fonction du cerveau", explique-t-elle.  

"Le schéma de réponse stéréotypique que nous avons découvert indique que le circuit répond toujours aux stimuli en construisant une séquence de représentations géométriques commençant dans des dimensions faibles et en ajoutant des dimensions progressivement plus élevées, jusqu'à ce que l'accumulation s'arrête soudainement et s'effondre: une signature mathématique pour les réactions à stimuli. "Pour le travail futur, nous avons l'intention d'étudier le rôle de la plasticité - le renforcement et l'affaiblissement des connexions en réponse aux stimuli - avec les outils de topologie algébrique. La plasticité est fondamentale pour le processus mystérieux d'apprentissage, et nous espérons que nous pourrons donner un nouvel aperçu de ce phénomène", a-t-elle ajouté.

Auteur: Internet

Info: https://www.newsweek.com/brain-structure-hidden-architecture-multiverse-dimensions-how-brain-works-6243006/12/17 by Hannah Osborne - Ici FLP regrette sa volonté réitérée de ne pas insérer d'images dans les textes. Elles sont ici très parlantes.

[ simultanéïté ] [ réfléchir ] [ réflexion humaine modélisée ]

 

Commentaires: 0

spéculations

Les expériences d'Alain Aspect ont confirmé la réalité du phénomène d'intrication quantique (expériences sur photons intriqués). Celles-ci montrent qu'au niveau quantique la notion d'espace n'a plus de sens puisque quelle que soit la "distance", l'action sur un photon A se communique instantanément à son photon intriqué B (en violation de la limite de c = vitesse de la lumière). Cette propriété explique pourquoi les mécaniciens quantiques affirment que la physique quantique est une PHYSIQUE NON LOCALE (elle exclut la réalité objective de l'espace).

Mais cela va encore plus loin: l'intrication nie aussi le temps et les schémas de causalité classique : l'action sur un photon A modifie par "rétroaction" les propriétés du photon B intriqué, dans le passé. Cela signifie que la physique quantique ne prend pas en compte le temps et les schémas de consécution de la mécanique classique (causalité présent-futur). Comment une physique qui n’intègre pas l'espace et le temps est-elle possible ?

La réponse tient en ces termes: NOUS sommes les "porteurs" de l'espace et du temps en tant que conscience, et ceux-ci n'ont aucune réalité objective. C'est là un magnifique triomphe rétrospectif de ce que Kant avait déjà affirmé au XVIIIe siècle dans La Critique de la raison pure. Mais la nouvelle physique gravit une marche de plus: outre la "conscience transcendantale" dont parlait Kant, il faut ajouter l'information, c'est-à-dire un univers d'objets mathématiques purement intelligibles qui, dans leurs rapports à la conscience, produisent le "monde phénoménal", celui que nous percevons. La "réalité perçue" est un vaste simulacre ou comme l'écrivait David Bohm, le lieu d'une fantastique "magie cosmique".

Des consciences exogènes l'ont déjà compris et utilisent leur maîtrise de l'information pour interférer avec notre monde. La science informatique, en digitalisant la matière (c'est-à-dire en remontant aux sources mathématiques de la réalité) a, sans le savoir, reproduit via la technologie de nos ordinateurs, le mode de production "phénoménal" de notre monde.

Ces indications sont en mesure, me semble-t-il, d’aider le lecteur à investir les thèses de mon ami Philippe Guillemant qui sont d’une importance considérable. Il ne s’agit nullement de résumer sa pensée, ni de jouer au physicien que je ne suis pas, mais de fournir quelques degrés de l’escalier qui mènent à la compréhension de ses travaux. En tant que philosophe, il m’apparaît aussi légitime de mettre ces nouvelles connaissances en lien avec des doctrines philosophiques du passé, spécialement celles de Platon et de Kant. Philippe Guillemant ne se contente pas de nous dire que l’espace et le temps sont des cadres de la conscience puisqu’il montre que la conscience est active et se révèle capable de réécrire ou de modifier les données qui constituent la trame la plus intime de la réalité. Il rejette l’idée d’un "ordinateur quantique géant" qui produirait le réel phénoménal et relie cette production à l’activité de la conscience. Il ne m’appartient ici de discuter les raisons de ce "basculement", mais celui-ci me paraît décisif et permet de trancher le débat qui consiste à savoir si l’étoffe de la réalité est de nature algorithmique ou mathématique.

Si on rejette le modèle de l’ordinateur quantique, on ne peut se rallier qu’à la seconde hypothèse qui permet de résoudre un des plus anciens problèmes de l’épistémologie depuis la naissance de la physique mathématique : comment se fait-il que nos opérations sur des objets mathématiques soient en si grande "adhérence" avec le monde de la physique ? Comment expliquer que le travail sur une "écriture mathématique" puisse, bien avant sa confirmation expérimentale, "découvrir" des objets du monde physique comme l’antimatière, les trous noirs, le boson de Higgs, etc. ? Cette question, qu’Albert Einstein, avait appelé le "mystère du miracle des mathématiques" trouve ici un début de résolution si nous posons que la réalité est d’essence mathématique.

L’information pure que Pythagore, Platon et plus tard John Dee avaient identifiée à des formes intelligibles de type mathématique est cette "brique" fondamentale qui rend possible, par sa manipulation, toutes les apparences de notre monde. Certes, nous ne sommes pas au bout de nos peines car entre cette base ontologique (le réel est constitué d’essences mathématiques en interaction avec des consciences actives) et la mise en lumière du modus operandi de cette maîtrise de l’information pour produire un monde phénoménal ou interférer avec lui (comme le font à mon sens les OVNIS), il reste encore du chemin à parcourir. Je n’oublie pas cependant que Philippe Guillemant propose une solution à cette question en centrant son analyse sur la capacité pour la conscience, par excitation du vide quantique (véritable "mer d’informations"), de "travailler" sur l’information et sur les manifestations phénoménales qu’elles permettent de produire.

Mais quel prodigieux changement de perspective nous offre ce nouveau cadre ! La cosmologie antique nous parlait de mondes emboîtés dans des sphères physiques (mondes sublunaire, supralunaire, cercles concentriques décrivant des régions dans les espaces éthérés) ; le physique "classique" nous a ensuite parlé d’échelles physiques de plus en plus petites jusqu’au mur de Planck. Avec cette nouvelle approche, le véritable "emboîtement" est celui par lequel on décrit des niveaux de densité de l’information plus ou moins élevés selon une échelle qui n’est plus physique mais informationnelle : J’ai l’intime conviction que la résolution du mystère des OVNIS se trouve dans la considération de cette échelle des densités. Nous occupons, en tant que conscience humaine, un certain étage sur cette échelle, et nos "visiteurs" sont en mesure de pénétrer à notre étage tout en jouant à l’envi avec les paramètres qui définissent la structure de notre monde.

Auteur: Solal Philippe

Info: Les ovnis, la conscience et les mathématiques, 18/03/2015

[ niveaux de réalité ] [ extraterrestres ] [ inconscient ] [ projectionnistes ] [ paranormal ] [ mondes vibratoires ] [ astral ]

 

Commentaires: 0

Ajouté à la BD par miguel

recherche fondamentale

Personne ne prenait au sérieux les expériences quantiques de John F. Clauser. 50 ans plus tard, il reçoit un prix Nobel.

Le 4 octobre, John F. Clauser, 80 ans, s'est réveillé dans sa maison californienne pour apprendre qu'il avait reçu le prix Nobel de physique. Il le recevra lors d'une cérémonie à Stockholm, en Suède, le 10 décembre, avec Anton Zeilinger et Alain Aspect, pour leurs travaux sur l'intrication quantique. 

Un moment de fête pour Clauser, dont les expériences révolutionnaires sur les particules de lumière ont contribué à prouver des éléments clés de la mécanique quantique.

"Tout le monde veut gagner un prix Nobel", a déclaré M. Clauser. "Je suis très heureux."

Mais son parcours jusqu'à l'obtention du plus grand prix scientifique n'a pas toujours été simple. 

Dans les années 1960, Clauser était étudiant en physique à l'université Columbia. Par hasard, il découvrit à la bibliothèque de l'université un article qui allait façonner sa carrière et l'amener à poursuivre les travaux expérimentaux qui lui ont valu le prix Nobel.

L'article, écrit par le physicien irlandais John Stewart Bell et publié dans la revue Physics en 1964, se demandait si la mécanique quantique donnait ou non une description complète de la réalité. Le phénomène d'intrication quantique constituant le cœur de la question.

L'intrication quantique se produit lorsque deux ou plusieurs particules sont liées d'une certaine manière, et quelle que soit la distance qui les sépare dans l'espace, leurs états restent liés. 

Par exemple, imaginez une particule A qui s'envole dans une direction et une particule B dans l'autre. Si les deux particules sont intriquées - ce qui signifie qu'elles partagent un état quantique commun - une mesure de la particule A déterminera immédiatement le résultat de la mesure de la particule B. Peu importe que les particules soient distantes de quelques mètres ou de plusieurs années-lumière - leur liaison à longue distance est instantanée. 

Cette possibilité avait été rejetée par Albert Einstein et ses collègues dans les années 1930. Au lieu de cela, ils soutenaient qu'il existe un "élément de réalité" qui n'est pas pris en compte par la mécanique quantique. 

Dans son article de 1964, Bell soutenait qu'il était possible de tester expérimentalement si la mécanique quantique échouait à décrire de tels éléments de la réalité. Il appelait ces éléments non pris en compte des "variables cachées".

Bell pensait en particulier à des variables locales. Ce qui signifie qu'elles n'affectent la configuration physique que dans leur voisinage immédiat. Comme l'explique Clauser, "si vous placez des éléments localement dans une boîte et effectuez une mesure dans une autre boîte très éloignée, les choix de paramètres expérimentaux effectués dans une boîte ne peuvent pas affecter les résultats expérimentaux dans l'autre boîte, et vice versa."

Clauser décida de tester la proposition de Bell. Mais lorsqu'il voulut faire l'expérience, son superviseur l'exhorta à reconsidérer sa décision. 

"Le plus difficile au départ a été d'obtenir l'opportunité", se souvient Clauser. "Tout le monde me disait que ce n'était pas possible, donc à quoi bon !".

Le laboratoire quantique 

En 1972, Clauser a finalement eu l'occasion de tester la proposition de Bell alors qu'il occupait un poste postdoctoral au Lawrence Berkeley National Laboratory en Californie. Il s'associa à un étudiant en doctorat, Stuart Freedman. Ensemble, ils mirent sur pied un laboratoire rempli d'équipement optique. 

"Personne n'avait fait cela auparavant", a déclaré Clauser. "Nous n'avions pas d'argent pour faire quoi que ce soit. Nous avons dû tout construire à partir de rien. Je me suis sali les mains, ai été immergé dans l'huile, il y avait beaucoup de fils et j'ai construit beaucoup d'électronique."

Clauser et Freedman ont réussi à créer des photons intriqués en manipulant des atomes de calcium. Les particules de lumière, ou photons, s'envolaient dans des filtres polarisants que Clauser et Freedman pouvaient faire tourner les uns par rapport aux autres. 

La mécanique quantique prédit qu'une plus grande quantité de photons passerait simultanément les filtres que si la polarisation des photons était déterminée par des variables locales et cachées.

L'expérience de Clauser et Freedman mis en évidence que les prédictions de la mécanique quantique étaient correctes. "Nous considérons ces résultats comme des preuves solides contre les théories de variables cachées locales", ont-ils écrit en 1972 dans Physical Review Letters.

Des débuts difficiles

Les résultats de Clauser et Freedman furent confirmés par d'autres expériences menées par Alain Aspect et Anton Zeilinger. 

"Mes travaux ont eu lieu dans les années 70, ceux d'Aspect dans les années 80 et ceux de Zeilinger dans les années 90", a déclaré Clauser. "Nous avons travaillé de manière séquentielle pour améliorer le domaine".

Mais l'impact de l'expérience révolutionnaire de Clauser n'a pas été reconnu immédiatement.

"Les choses étaient difficiles", se souvient Clauser. "Tout le monde disait : "Belle expérience, mais vous devriez peut-être sortir et mesurer des chiffres et arrêter de perdre du temps et de l'argent et commencer à faire de la vraie physique"."

Il a fallu attendre 50 ans pour que Clauser reçoive le prix Nobel pour son travail expérimental. Son collègue, Stuart Freedman, est décédé en 2012. 

"Mes associés sont morts depuis longtemps. Mon seul titre de gloire est d'avoir vécu assez longtemps". a déclaré Clauser

Lorsqu'on lui a demandé s'il avait des conseils à donner aux jeunes chercheurs compte tenu de sa propre difficulté initiale, Clauser a répondu : "Si vous prouvez quelque chose que tout le monde pense vrai, et que vous êtes le premier à le faire, vous ne serez probablement pas reconnu avant 50 ans. C'est la mauvaise nouvelle. La bonne, c'est que j'ai eu beaucoup de plaisir à faire ce travail." 


Auteur: Internet

Info: https://www.livescience.com, Jonas Enande, 9 déc 2022

[ agrément moteur ] [ délectation ] [ observateur dualisant ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel