Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 249
Temps de recherche: 0.0733s

mimétisme

La surexposition a déformé la science des neurones miroirs

Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.

Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.

Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.

Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.

Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.

Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.

Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.

Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.

L'ascension et la chute

Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.

Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.

Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.

Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.

(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)

Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».

Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.

Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs.  Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il.  Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.

Le neurone miroir, redéfini

Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.

En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.

Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.

"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.

Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions  personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.

Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.

L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024

[ pulsions partagées ] [ actions symboles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Prix Nobel de physique 2023 : on a tout compris et on vous explique simplement pourquoi c’est génial

Anne L’Huillier, Ferenc Krausz et Pierre Agostini ont inventé la physique attoseconde, et ça méritait bien d’être expliqué.

Les "impulsions laser très courtes permettant de suivre le mouvement ultrarapide des électrons à l’intérieur des molécules et des atomes", vous dites ? Les lauréats du prix Nobel de physique 2023, le Hongrois Ferenc Krausz et les Français Anne L’Huillier et Pierre Agostini n’ont pas choisi le thème le plus parlant aux néophytes (mais la physique fondamentale l’est rarement).

Commençons par un terme étrange : les lauréats sont les inventeurs de la physique attoseconde. Atto, quoi ? Une attoseconde est une fraction de seconde, précisément 1×10−18 seconde : c’est très, très peu. "Pour vous donner une idée", explique au HuffPost le physicien Franck Lépine, chercheur du CNRS à l’Institut lumière matière, et collaborateur des Nobel 2023, en terme d’ordre de grandeur "il y a autant de différence entre une attoseconde et une seconde qu’entre une seconde et l’âge de l’univers".

Lorsqu'il est contemplé à cette échelle de temps, le monde ralentit. Le battement d'ailes d'un colibri devient une éternité.

Aller "chercher" une attoseconde précise dans une seconde, c’est donc pointer une seconde précise dans l’univers depuis sa naissance. On vous l’avait bien dit, c’est court, un laps de temps à peine concevable.

La photo la plus rapide du monde

Mais comment ont-ils "inventé" cette physique ? Les Nobel 2023 ont réussi à mettre au point un appareil qui permet d’observer les électrons au sein de la matière : des éléments au déplacement si rapide que seul un "flash" de l’ordre de l’attoseconde permet de les capturer. Les trois chercheurs sont donc récompensés pour la mise au point d’une "caméra" ultrarapide… Et on va même vous raconter comment elle fonctionne.

Une impulsion très puissante est envoyée au laser vers des atomes. Sous l’effet de la lumière envoyée, Les électrons qui gravitent autour de ces atomes vont alors être accélérés et émettre à leur tour un flash lumineux qui dure environ une attoseconde : c’est ce que l’on appelle la High harmonic generation, ou production d’harmoniques élevées. Ce sont ces impulsions qui vont prendre les électrons en photo. Pourquoi une durée aussi courte est-elle nécessaire ? Parce que les électrons ne tiennent pas en place.

Au-delà de la physique

"Faisons un parallèle avec le cinéma, explique Franck Lépine. On découpe le mouvement en un certain nombre de photos par seconde. La photo fige l’objet qui bouge, mais si la capture prend trop de temps, on découpe le mouvement, les images se superposent", ce qui crée un effet de flou. "Si jamais nos flashes de lumières durent trop longtemps, on ne va pas voir seulement électrons bouger, mais également les atomes, voire les ensembles d’atomes", et donc l’objet de l’observation ne sera pas net.

Les découvertes des trosi chercheurs ne permettent pas seulement d’observer les électrons avec une précision nouvelle. Elles sont également un instrument pour les manipuler. La lumière envoyée sur les électrons les bouscule, et là encore la physique attoseconde peut tout changer, et pas seulement dans le domaine des sciences fondamentales. "On peut manipuler les réactions chimiques en manipulant les électrons", détaille Franck Lépine.

À Lyon, son laboratoire est l’un des trois en France à disposer des équipements nécessaires pour travailler avec la physique attoseconde. "Parmi les choses sur lesquelles on travaille, il y a l’utilisation des technologies attoseconde pour comprendre comment fonctionne l’ADN du vivant." La physique attoseconde, vous n’en entendrez peut-être pas parler à nouveau de sitôt, mais les découvertes qui en découlent certainement.

Historique

En 1925, Werner Heisenberg, pionniers de la mécanique quantique, a affirmé que le temps nécessaire à un électron pour faire le tour d'un atome d'hydrogène était inobservable. Dans un sens, il avait raison. Les électrons ne tournent pas autour d'un noyau atomique comme les planètes autour des étoiles. Les physiciens les considèrent plutôt comme des ondes de probabilité qui donnent leurs chances d'être observées à un certain endroit et à un certain moment, de sorte que nous ne pouvons pas mesurer un électron qui vole littéralement dans l'espace.

Heisenberg a sous-estimé l'ingéniosité de physiciens du XXe siècle comme L'Huillier, Agostini et Krausz. Les chances que l'électron soit ici ou là varient d'un moment à l'autre, d'une attoseconde à l'autre. Grâce à la possibilité de créer des impulsions laser attosecondes capables d'interagir avec les électrons au fur et à mesure de leur évolution, les chercheurs peuvent sonder directement les différents comportements des électrons.

Comment les physiciens produisent-ils des impulsions attosecondes ?

Dans les années 1980, Ahmed Zewail, de l'Institut de technologie de Californie, a développé la capacité de faire clignoter des lasers avec des impulsions d'une durée de quelques femtosecondes, soit des milliers d'attosecondes. Ces impulsions, qui ont valu à Zewail le prix Nobel de chimie en 1999, étaient suffisantes pour permettre aux chercheurs d'étudier le déroulement des réactions chimiques entre les atomes dans les molécules. Cette avancée a été qualifiée de "caméra la plus rapide du monde".

Pendant un certain temps, une caméra plus rapide semblait inaccessible. On ne savait pas comment faire osciller la lumière plus rapidement. Mais en 1987, Anne L'Huillier et ses collaborateurs ont fait une observation intrigante : Si vous éclairez certains gaz, leurs atomes sont excités et réémettent des couleurs de lumière supplémentaires qui oscillent plusieurs fois plus vite que le laser d'origine - un effet connu sous le nom d'"harmoniques". Le groupe de L'Huillier a découvert que dans des gaz comme l'argon, certaines de ces couleurs supplémentaires apparaissaient plus brillantes que d'autres, mais selon un schéma inattendu. Au début, les physiciens ne savaient pas trop quoi penser de ce phénomène.

Au début des années 1990, L'Huillier et d'autres chercheurs ont utilisé la mécanique quantique pour calculer les différentes intensités des diverses harmoniques. Ils ont alors pu prédire exactement comment, lorsqu'un laser infrarouge oscillant lentement frappait un nuage d'atomes, ces atomes émettaient à leur tour des faisceaux de lumière "ultraviolette extrême" oscillant rapidement. Une fois qu'ils ont compris à quelles harmoniques il fallait s'attendre, ils ont trouvé des moyens de les superposer de manière à obtenir une nouvelle vague : une vague dont les pics s'élèvent à l'échelle de l'attoseconde. Amener des collectifs géants d'atomes à produire ces ondes finement réglées de concert est un processus que Larsson compare à un orchestre produisant de la musique.

 Au cours des années suivantes, les physiciens ont exploité cette compréhension détaillée des harmoniques pour créer des impulsions attosecondes en laboratoire. Agostini et son groupe ont mis au point une technique appelée Rabbit, ou "reconstruction d'un battement attoseconde par interférence de transitions à deux photons". Grâce à Rabbit, le groupe d'Agostini a généré en 2001 une série d'impulsions laser d'une durée de 250 attosecondes chacune. La même année, le groupe de Krausz a utilisé une méthode légèrement différente, connue sous le nom de streaking, pour produire et étudier des salves individuelles d'une durée de 650 attosecondes chacune. En 2003, L'Huillier et ses collègues les ont tous deux surpassés avec une impulsion laser d'une durée de 170 attosecondes seulement.

Que peut-on faire avec des impulsions attosecondes ?

Les impulsions attosecondes permettent aux physiciens de détecter tout ce qui change sur une période de quelques dizaines à quelques centaines d'attosecondes. La première application a consisté à essayer ce que les physiciens avaient longtemps cru impossible (ou du moins extrêmement improbable) : voir exactement ce que font les électrons.

En 1905, Albert Einstein a donné le coup d'envoi de la mécanique quantique en expliquant l'effet photoélectrique, qui consiste à projeter des électrons dans l'air en éclairant une plaque métallique (sa théorie lui vaudra plus tard le prix Nobel de physique en 1921). Avant l'ère de la physique des attosecondes, les physiciens supposaient généralement que la chaîne de réactions qui conduisait à la libération des électrons lancés était instantanée.

En 2010, Krausz et ses collègues ont démontré le contraire. Ils ont utilisé des impulsions attosecondes pour chronométrer les électrons détachés des atomes de néon. Ils ont notamment constaté qu'un électron dans un état de basse énergie fuyait son hôte 21 attosecondes plus vite qu'un électron dans un état de haute énergie. En 2020, un autre groupe a montré que les électrons s'échappent de l'eau liquide des dizaines d'attosecondes plus rapidement que de la vapeur d'eau.

D'autres applications des impulsions attosecondes sont en cours de développement. La technique pourrait permettre de sonder toute une série de phénomènes liés aux électrons, notamment la façon dont les particules portent et bloquent la charge électrique, la façon dont les électrons rebondissent les uns sur les autres et la façon dont les électrons se comportent collectivement. Krausz fait également briller des flashs attosecondes sur du sang humain. L'année dernière, il a contribué à montrer que de minuscules changements dans un échantillon de sang peuvent indiquer si une personne est atteinte d'un cancer à un stade précoce, et de quel type.

Plus tôt dans la matinée, le comité Nobel a eu du mal à joindre Mme L'Huillier pour l'informer qu'elle était la cinquième femme de l'histoire à recevoir le prix Nobel de physique. Lorsqu'il a finalement réussi à la joindre, après trois ou quatre appels manqués, elle était en train de donner une conférence à ses étudiants. Elle est parvenue à la terminer, même si la dernière demi-heure a été très difficile. "J'étais un peu émue à ce moment", a-t-elle déclaré plus tard.

Auteur: Internet

Info: huffingtonpost et quantamagazine, 3 sept. 2023

[ nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

chimiosynthèse

Les cellules souterraines produisent de l'« oxygène sombre » sans lumière

Dans certaines profondes nappes souterraines, les cellules disposent d’une astuce chimique pour produire de l’oxygène qui pourrait alimenter des écosystèmes souterrains entiers.

(Photo - Dans un monde ensoleillé, la photosynthèse fournit l’oxygène indispensable à la vie. Au fond des profondeurs, la vie trouve un autre chemin.)

Les scientifiques se sont rendu compte que le sol et les roches sous nos pieds abritent une vaste biosphère dont le volume global est près de deux fois supérieur à celui de tous les océans de la planète. On sait peu de choses sur ces organismes souterrains, qui représentent l’essentiel de la masse microbienne de la planète et dont la diversité pourrait dépasser celle des formes de vie vivant en surface. Leur existence s’accompagne d’une grande énigme : les chercheurs ont souvent supposé que bon nombre de ces royaumes souterrains étaient des zones mortes pauvres en oxygène, habitées uniquement par des microbes primitifs qui maintiennent leur métabolisme au ralenti et se débrouillent grâce aux traces de nutriments. À mesure que ces ressources s’épuisent, pensait-on, l’environnement souterrain devient sans vie à mesure que l’on s’enfonce.

Dans une nouvelle recherche publiée le mois dernier dans Nature Communications , les chercheurs ont présenté des preuves qui remettent en question ces hypothèses. Dans des réservoirs d'eau souterraine situés à 200 mètres sous les champs de combustibles fossiles de l'Alberta, au Canada, ils ont découvert des microbes abondants qui produisent des quantités étonnamment importantes d'oxygène, même en l'absence de lumière. Les microbes génèrent et libèrent tellement de ce que les chercheurs appellent " l'oxygène noir " que c'est comme découvrir " le même quantité d'oxygène que celle  issue de la photosynthèse dans la forêt amazonienne ", a déclaré Karen Lloyd , microbiologiste souterrain à l'Université du Tennessee qui n'était pas partie de l’étude. La quantité de gaz diffusé hors des cellules est si grande qu’elle semble créer des conditions favorables à une vie dépendante de l’oxygène dans les eaux souterraines et les strates environnantes.

"Il s'agit d'une étude historique", a déclaré Barbara Sherwood Lollar , géochimiste à l'Université de Toronto qui n'a pas participé aux travaux. Les recherches antérieures ont souvent porté sur les mécanismes susceptibles de produire de l'hydrogène et d'autres molécules vitales pour la vie souterraine, mais cette création de molécules contenant de l'oxygène a été largement négligée car ces molécules sont très rapidement consommées dans l'environnement souterrain. Jusqu’à présent, " aucune étude n’a rassemblé tout cela comme celle-ci ", a-t-elle déclaré.

La nouvelle étude a porté sur les aquifères profonds de la province canadienne de l’Alberta, qui possède des gisements souterrains si riches en goudron, en sables bitumineux et en hydrocarbures qu’elle a été surnommée " le Texas du Canada ". Parce que ses énormes industries d'élevage de bétail et d'agriculture dépendent fortement des eaux souterraines, le gouvernement provincial surveille activement l'acidité et la composition chimique de l'eau. Pourtant, personne n’avait étudié systématiquement la microbiologie des eaux souterraines.

Pour Emil Ruff , mener une telle enquête semblait être " une solution facile " en 2015 lorsqu'il a commencé son stage postdoctoral en microbiologie à l'Université de Calgary. Il ne savait pas que cette étude apparemment simple le mettrait à rude épreuve pendant les six prochaines années.

Profondeurs encombrées

Après avoir collecté l'eau souterraine de 95 puits à travers l'Alberta, Ruff et ses collègues ont commencé à faire de la microscopie de base : ils ont coloré des cellules microbiennes dans des échantillons d'eau souterraine avec un colorant à base d'acide nucléique et ont utilisé un microscope à fluorescence pour les compter. En radiodatant la matière organique présente dans les échantillons et en vérifiant les profondeurs auxquelles ils avaient été collectés, les chercheurs ont pu identifier l'âge des aquifères souterrains qu'ils exploitaient.

Une tendance dans les chiffres les intriguait. Habituellement, lors d'études sur les sédiments sous le fond marin, par exemple, les scientifiques constatent que le nombre de cellules microbiennes diminue avec la profondeur : les échantillons plus anciens et plus profonds ne peuvent pas abriter autant de vie car ils sont davantage privés des nutriments produits par les plantes photosynthétiques. et des algues près de la surface. Mais à la surprise de l'équipe de Ruff, les eaux souterraines plus anciennes et plus profondes contenaient plus de cellules que les eaux plus douces.

Les chercheurs ont ensuite commencé à identifier les microbes présents dans les échantillons, à l’aide d’outils moléculaires pour repérer leurs gènes marqueurs révélateurs. Beaucoup d’entre eux étaient des archées méthanogènes – des microbes simples et unicellulaires qui produisent du méthane après avoir consommé de l’hydrogène et du carbone suintant des roches ou de la matière organique en décomposition. De nombreuses bactéries se nourrissant du méthane ou des minéraux présents dans l’eau étaient également présentes.

Ce qui n'avait aucun sens, cependant, c'est que bon nombre de bactéries étaient des aérobies, des microbes qui ont besoin d'oxygène pour digérer le méthane et d'autres composés. Comment les aérobies pourraient-ils prospérer dans des eaux souterraines qui ne devraient pas contenir d’oxygène, puisque la photosynthèse est impossible ? Mais les analyses chimiques ont également révélé une grande quantité d’oxygène dissous dans les échantillons d’eau souterraine de 200 mètres de profondeur.

C'était du jamais vu. "On a sûrement foiré l'échantillon", fut la première réaction de Ruff.

Il a d’abord tenté de montrer que l’oxygène dissous dans les échantillons était le résultat d’une mauvaise manipulation. "C'est comme être Sherlock Holmes", a déclaré Ruff. " Vous essayez de trouver des preuves et des indications " pour réfuter vos hypothèses. Cependant, la teneur en oxygène dissous semblait constante sur des centaines d’échantillons. Une mauvaise manipulation ne pouvait pas l'expliquer.

Si l’oxygène dissous ne provenait pas d’une contamination, d’où venait-il ? Ruff s'est rendu compte qu'il près de quelque chose de grand, même si faire des affirmations controversées va à l'encontre de sa nature. Beaucoup de ses co-auteurs avaient également des doutes : cette découverte menaçait de briser les fondements de notre compréhension des écosystèmes souterrains.

Produire de l'oxygène pour tout le monde

En théorie, l’oxygène dissous dans les eaux souterraines pourrait provenir de plantes, de microbes ou de processus géologiques. Pour trouver la réponse, les chercheurs se sont tournés vers la spectrométrie de masse, une technique permettant de mesurer la masse des isotopes atomiques. En règle générale, les atomes d’oxygène provenant de sources géologiques sont plus lourds que l’oxygène provenant de sources biologiques. L’oxygène présent dans les eaux souterraines était léger, ce qui impliquait qu’il devait provenir d’une entité vivante. Les candidats les plus plausibles étaient les microbes.

Les chercheurs ont séquencé les génomes de l’ensemble de la communauté microbienne présente dans les eaux souterraines et ont repéré les voies et réactions biochimiques les plus susceptibles de produire de l’oxygène. Les réponses pointaient sans cesse vers une découverte faite il y a plus de dix ans par Marc Strous de l'Université de Calgary, auteur principal de la nouvelle étude et chef du laboratoire où travaillait Ruff.

Alors qu'il travaillait dans un laboratoire aux Pays-Bas à la fin des années 2000, Strous avait remarqué qu'un type de bactérie se nourrissant de méthane, souvent présente dans les sédiments des lacs et les boues d'épuration, avait un mode de vie étrange. Au lieu d'absorber l'oxygène de son environnement comme les autres aérobies, ces bactéries créent leur propre oxygène en utilisant des enzymes pour décomposer les composés solubles appelés nitrites (qui contiennent un groupe chimique composé d'azote et de deux atomes d'oxygène). Les bactéries utilisent l’oxygène auto-généré pour transformer le méthane en énergie.

Lorsque les microbes décomposent les composés de cette façon, on parle de dismutation. Jusqu’à présent, on pensait que cette méthode de production d’oxygène était rare dans la nature. Des expériences récentes en laboratoire impliquant des communautés microbiennes artificielles ont cependant révélé que l'oxygène produit par la dismutation peut s'échapper des cellules et se répandre dans le milieu environnant au profit d'autres organismes dépendants de l'oxygène, dans une sorte de processus symbiotique. Ruff pense que cela pourrait permettre à des communautés entières de microbes aérobies de prospérer dans les eaux souterraines, et potentiellement également dans les sols environnants.

Chimie pour la vie ailleurs

Cette découverte comble une lacune cruciale dans notre compréhension de l’évolution de l’immense biosphère souterraine et de la manière dont la dismutation contribue au cycle des composés se déplaçant dans l’environnement mondial. La simple possibilité que de l'oxygène soit présent dans les eaux souterraines " change notre compréhension du passé, du présent et de l'avenir du sous-sol ", a déclaré Ruff, qui est maintenant scientifique adjoint au Laboratoire de biologie marine de Woods Hole, Massachusetts.

Comprendre ce qui vit dans le sous-sol de notre planète est également " crucial pour transposer ces connaissances ailleurs ", a déclaré Sherwood Lollar. Le sol de Mars, par exemple, contient des composés perchlorates que certains microbes terrestres peuvent transformer en chlorure et en oxygène. Europe, la lune de Jupiter, possède un océan profond et gelé ; la lumière du soleil ne peut pas y pénétrer, mais l'oxygène pourrait potentiellement y être produit par dismutation microbienne au lieu de la photosynthèse. Les scientifiques ont observé des panaches de vapeur d’eau jaillissant de la surface d’Encelade, l’une des lunes de Saturne. Les panaches proviennent probablement d’un océan souterrain d’eau liquide. Si un jour nous trouvons de la vie sur d’autres mondes comme ceux-là, elle pourrait emprunter des voies de dismutation pour survivre.

Quelle que soit l'importance de la dismutation ailleurs dans l'univers, Lloyd est étonné de voir à quel point les nouvelles découvertes défient les idées préconçues sur les besoins de la vie et par l'ignorance scientifique qu'elles révèlent sur l'une des plus grandes biosphères de la planète. " C'est comme si nous avions toujours eu un œuf sur le visage ", a-t-elle déclaré.

Auteur: Internet

Info: https://www.quantamagazine.org/, Saugat Bolakhé, juillet 2023

[ perspectives extraterrestres ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

autodétermination

Le (non-)rôle de la conscience
Le biologiste François Jacob a utilisé à propos de notre cerveau, une image admirable : le cerveau humain est conçu, dit-il, comme une brouette sur laquelle aurait été greffé un moteur à réaction. Par cette image frappante, il attirait notre attention sur le fait que notre cerveau n’est pas constitué comme une machine d’une seule pièce. Il y a en son centre, le cerveau reptilien, appelé ainsi parce qu’il possède déjà la même structure chez le reptile, et le cerveau des mammifères s’est construit comme une couche additionnelle, absolument distincte : le cortex est d’une autre nature que le cerveau reptilien. Lequel est celui des sens, de la réaction immédiate, celui du réflexe, de l’affect, comme s’expriment les psychologues.

Le cortex s’est spécialisé dans le raisonnement, dans la réflexion rationnelle, l’enchaînement des arguments, le calcul mathématique, tout ce qui est de l’ordre des symboles, et il est greffé sur ce cerveau reptilien qui est lui d’une nature purement instinctive, ce qui fait que nous réagirons par l’enthousiasme ou par la peur devant ce que notre cerveau-cortex aura déterminé de faire. Les plus beaux exemples dans ce domaine, ce sont bien sûrs les traders qui nous les proposent. Ceux d’entre mes lecteurs qui connaissent des traders savent que le jour où ils ont gagné beaucoup d’argent ils sont dans les restaurants et les bars des beaux quartiers, ils fument de gros cigares et boivent beaucoup, alors que les jours où ils ont perdu des sommes impressionnantes, on les voit beaucoup moins : ils sont à la maison, ils essaient de dormir et ont pris des cachets pour tenter d’y parvenir.

Une autre caractéristique de notre cerveau, c’est que la conscience que nous avons de ce que nous faisons, cette conscience n’a pas véritablement été conçue comme un instrument qui nous permette de prendre des décisions. Quand les psychologues sont allés expérimenter, dans les années 1960, autour de la question de la volonté, ils ont fait la découverte sidérante que la volonté apparaît dans le cerveau après qu’a été réalisé l’acte qu’elle est censée avoir déterminé. La représentation de la volonté que nous allons poser un acte, n’intervient en fait qu’une demi-seconde après que l’acte a été posé, alors que l’acte lui-même a pu être réalisé un dixième de seconde seulement après l’événement qui en a été le véritable déclencheur.

Le psychologue qui a découvert cela est Américain et son nom est Benjamin Libet (1916-2007). La première hypothèse qu’il a émise, quand les faits lui sont apparus dans toute leur clarté, a été d’imaginer qu’il existait un mécanisme dans le cerveau qui permet à une information de remonter le temps. Son explication première n’a pas été que "volonté" est un mot dénotant un processus illusoire, une mésinterprétation de notre propre fonctionnement, mais que la volonté devait bien – comme nous l’imaginons spontanément parce que les mots de la langue nous le suggèrent fermement – décider des choses que nous allons accomplir, et que la seule explication possible était que la volonté remonte dans le temps pour poser les actes que nous supposons qu’elle détermine, seule manière de rendre compte du décalage d’une demi-seconde observé.

Il n’y a donc pas comme nous l’imaginions avant la découverte de l’inconscient, une conscience décidant de tous nos actes, à l’exception des actes réflexes. Il n’y a pas non plus, comme Freud l’avait imaginé, deux types d’actes : les uns déterminés par la conscience et les autres par l’inconscient, il n’y a – du point de vue décisionnel – qu’un seul type d’actes, déterminés par l’inconscient, la seule différence étant que certains apparaissent dans le "regard" de la conscience (avec une demi-seconde de retard sur l’acte posé), et certains non.

Dans l’article où je proposais pour la première fois une théorie complète de la conscience tenant compte des découvertes de Libet, j’écrivais : "la conscience est un cul-de-sac auquel des informations parviennent sans doute, mais sans qu’il existe un effet en retour de type décisionnel. C’est au niveau de l’affect, et de lui seul, que l’information affichée dans le regard de la conscience produit une rétroaction mais de nature "involontaire", automatique" (Jorion 1999 : 179). Je suggérais alors de remplacer, pour souligner les implications de la nouvelle représentation, le mot "conscience" par "imagination", et le mot "inconscient", par "corps", pour conclure alors que toutes nos décisions sont en réalité prises par notre corps mais que certaines d’entre elles (celles que nous avions l’habitude d’attribuer à notre "volonté") apparaissent à notre imagination : "En réalité, la prise de décision, la volonté, a été confiée au corps et non à l’imagination" (ibid. 185).

Il restait à comprendre pourquoi le regard de la "conscience" est apparu dans l’évolution biologique. L’explication – en parfait accord avec les observations de Libet – est qu’il s’agit d’un mécanisme nécessaire pour que nous puissions nous constituer une mémoire (adaptative) en associant à nos percepts, les affects qu’ils provoquent en nous, et ceci en dépit du fait que les sensations en provenance de nos divers organes des sens (nos "capteurs"), parviennent au cerveau à des vitesses différentes (ibid. 183-185).

Les observations de Libet, et la nouvelle représentation de nos prises de décision qui en découle, ont d’importantes conséquences pour nous, et en particulier quand nous voulons reconstruire sur un nouveau mode la manière dont nous vivons. Il faut que nous tenions compte du fait que notre conscience arrive en réalité toujours quelque temps après la bataille.

Il y a des gens heureux : ceux dont la conscience constate avec délice les actes qui ont été posés par eux. Il n’y a pas chez eux de dissonance, il n’y a pas de contradiction : nous sommes satisfaits de constater notre comportement tel qu’il a eu lieu. Et c’est pour cela que l’affect n’est pas trop déçu de ce qu’il observe. L’affect réagit bien entendu : soit il cautionne ce qu’il peut observer comme étant à l’œuvre, soit il est déçu quand il constate le résultat. On peut être honteux de ce qu’on a fait. Nous pouvons nous retrouver parfaitement humiliés par les actes qui ont été posés par nous : par ce que la conscience constate après la bataille. En voici un exemple : je me trouve dans le studio de FR 3, pour l’émission "Ce soir (ou jamais !)", et la personne invitée pour la partie musicale en fin d’émission, c’est Dick Rivers, et je lui dis : "C’est formidable, cette époque où vous chantiez avec Les chaussettes noires !", et il me répond : "En réalité, le nom de mon groupe, c’était Les chats sauvages". J’étais tellement humilié d’avoir commis une pareille bévue ! Il s’agit là d’un exemple excellent de dissonance, et ma conscience qui intervenait avec une demi-seconde de retard était extrêmement gênée de devoir être confrontée au triste sire que j’étais.

Bien sûr, nous sommes devenus très forts dans notre manière de vivre avec une telle dissonance : nous réalisons des miracles en termes d’explications après-coup de notre propre comportement. J’écoute parfois, comme la plupart d’entre nous, des conversations dans le métro ou dans le bus où une dame explique à l’une de ses amies à quel point elle était maître des événements : "Elle m’a dit ceci, et tu me connais, je lui ai répondu du tac-au-tac cela, et tu aurais dû voir sa tête…". Nous sommes très forts à produire des récits autobiographiques où nous intégrons l’ensemble des éléments qui font sens dans une situation, après coup. Plusieurs concepts de la psychanalyse renvoient aux différentes modalités de nos "rattrapages après la bataille", quand la conscience constate les dégâts que nous avons occasionnés par nos actes et tente de "faire avec" : la psychanalyse parle alors d’élaboration secondaire, de rationalisation, de déni, de dénégation, etc.

Pourquoi est-ce important d’attirer l’attention sur ces choses ? Parce que nous contrôlons beaucoup moins de manière immédiate ce que nous faisons que nous ne le laissons supposer dans les représentations que nous en avons. Dans celles-ci, nos comportements sont fortement calqués sur ce qu’Aristote appelait la cause finale : les buts que nous nous assignons. Bien sûr, quand nous construisons une maison, nous définissons les différentes étapes qui devront être atteintes successivement et nous procédons de la manière qui a été établie. Nous avons la capacité de suivre un plan et un échéancier, de manière systématique, mais la raison n’est pas, comme nous le supposons, parce que nous procédons pas à pas, d’étape en étape, mais plutôt parce que nous avons posé la réalisation de la tâche comme un "souci" projeté dans l’avenir, souci dont l’élimination nous délivrera et nous permettra… de nous en assigner de nouveaux. Encore une fois, c’est l’inconscient ou, si l’on préfère, le corps, qui s’en charge. J’écrivais dans le même article : "Wittgenstein s’est souvent interrogé quant à la nature de l’intention. Il se demande par exemple, "‘J’ai l’intention de partir demain’ – Quand as-tu cette intention ? Tout le temps : ou de manière intermittente ?" (Wittgenstein 1967 : 10). La réponse à sa question est en réalité "tout le temps dans le corps et de manière intermittente dans l’imagination"" (ibid. 189).

Mais dans nos actes quotidiens, dans la façon dont nous réagissons aux autres autour de nous, parce que nous vivons dans un univers entièrement social, il faut que nous prenions conscience du fait que nous avons beaucoup moins de maîtrise immédiate sur ce que nous faisons que nous ne l’imaginons le plus souvent, une maîtrise beaucoup plus faible que ce que nous reconstruisons par la suite dans ces discours autobiographiques que nous tenons : dans ces discours de rationalisation, d’autojustification faudrait-il dire, que nous produisons à l’intention des autres. Il faut bien dire que, sachant comment eux-mêmes fonctionnent, ils n’y croient pas en général. Et nous en sommes les seules dupes.

Auteur: Jorion Paul

Info: 7 avril 2012, dans Notre cerveau : conscience et volonté, "Le secret de la chambre chinoise", L’Homme 150, avril-juin 1999 : 177-202, Wittgenstein, Ludwig, Zettel, Oxford, Basil Blackwell, 1967

[ illusion ]

 

Commentaires: 0

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

songes

Comment utiliser les rêves comme source d'inspiration créative

En s'inspirant de Thomas Edison et de Salvador Dalí, des chercheurs montrent que le modelage de l'imagerie des rêves peut susciter des idées créatives pour résoudre un problème spécifique.

(Photo de Salvador Dalí, avec ce texte) Dali avait des moyens originaux pour tirer une inspiration artistique de ses rêves, par exemple en mettant du parfum sur ses paupières ou en lâchant un objet pour se réveiller afin de se souvenir du contenu de ses rêves.)

Structure du benzène, Google et Frankenstein : Qu'ont en commun ces icônes de la science, de la technologie et de la littérature ? Elles  font partie des nombreuses découvertes et inventions qui auraient été inspirées par un rêve.

Pendant des décennies, les spécialistes du sommeil ont réfléchi au lien entre le rêve et l'inspiration créatrice. Ils ont longtemps pensé que ces idées provenaient de la phase de sommeil à mouvements oculaires rapides (REM), riche en rêves, et qui commence une heure ou plus après le début du cycle de sommeil. Mais de nouvelles données mettent en lumière une phase du sommeil beaucoup plus précoce - la zone crépusculaire qui sépare le sommeil de l'éveil - comme terrain fertile pour un élan créatif.

Dans une étude publiée le 15 mai dans Scientific Reports, une équipe de chercheurs montre que les personnes qui font de brèves siestes précédant l'endormissement obtiennent des résultats plus élevés quant aux critères de créativité que celles qui se lancent dans les mêmes tâches créatives après être restées éveillées. "L'importance de cet état de sommeil précoce pour la créativité a fait l'objet de spéculations, mais à ma connaissance, il s'agit de la meilleure étude démontrant sa valeur", déclare Jonathan Schooler, psychologue cognitif à l'université de Californie à Santa Barbara, qui n'a pas participé à l'étude.

De plus, les scientifiques ont découvert qu'ils pouvaient même exercer un certain contrôle sur le processus de rêve. Pour ce faire, ils ont orienté les rêves des participants vers un sujet spécifique. Plus les participants rêvaient de ce thème, plus ils étaient créatifs dans les tâches qui s'y rapportaient. "C'est à peu près ce qui nous permet de dire que rêver d'un sujet améliore la créativité ultérieure sur ce sujet", déclare Robert Stickgold, neuroscientifique cognitif et chercheur sur les rêves à la Harvard Medical School, qui faisait partie de l'équipe de l'étude.

L'expérience s'est appuyée sur un détecteur de sommeil en forme de gant appelé Dormio, mis au point par une équipe comprenant le co-chercheur principal Adam Haar Horowitz, chercheur postdoctoral au Massachusetts Institute of Technology. Dormio suit le début du sommeil en surveillant le tonus musculaire, la conductance de la peau et la fréquence cardiaque par l'intermédiaire de contacts sur le poignet et la main. Il communique avec une application qui émet des messages vocaux pour les rêves et enregistre les rapports de rêves.

Plus d'un penseur célèbre a tiré parti de la première phase de transition dans le sommeil, appelée stade 1 du sommeil non REM (sans mouvements oculaires rapides - N1), pour générer des idées créatives. Le peintre Salvador Dalí s'assoupissait délibérément en tenant un jeu de clés au-dessus d'une plaque de métal lorsqu'il réfléchissait à une idée de peinture. Au fur et à mesure qu'il s'assoupissait, les muscles de sa main se détendaient et il laissait tomber les clés qui heurtaient la plaque et le réveillaient, et il gardait l'image de son rêve. Thomas Edison aurait utilisé une technique similaire avec des billes de métal au lieu de clés pour obtenir des idées à intégrer dans ses inventions.

En 2021, une équipe de chercheurs de l'Institut du cerveau de Paris a rapporté certaines des premières preuves solides comme quoi Dalí et Edison étaient sur la bonne voie. Ils ont demandé à des personnes de faire de courtes siestes après les avoir exposées à des problèmes de mathématiques pour lesquels existait un raccourci caché. Parmi la grande majorité des personnes n'ayant pas vu le raccourci tout de suite, celles qui ont fait une sieste au stade N1 furent presque trois fois plus efficaces que celles n'ayant pas fait de sieste pour trouver la meilleure solution lorsqu'elles s'attaquaient à de nouveaux problèmes nécessitant de mettre en œuvre les mêmes connaissances mathématiques.

Stickgold, Haar Horowitz et leurs collègues ont voulu vérifier l'idée que le rêve était l'intermédiaire clé pour générer des éclats de perspicacité pendant le stade N1. Avant la publication de l'étude de 2021 sur les mathématiques, les chercheurs ont entrepris une étude contrôlée sur le rêve, dans laquelle ils ont incité des personnes à rêver de quelque chose de spécifique, comme un arbre.

Ils ont recruté 50 personnes pour une "étude sur la sieste" de l'après-midi - intitulé qui a vraisemblablement attiré les personnes qui aiment faire la sieste, bien que les chercheurs n'aient en fait demandé qu'à la moitié des participants de dormir dans le cadre de l'étude. Alors qu'ils portaient Dormio, les participants se sont endormis et l'application liée à Dormio leur a demandé de "penser à un arbre" ou de "penser à observer leurs pensées". Une à cinq minutes plus tard, l'application les réveillait en leur demandant de raconter leur rêve. Ce cycle s'est répété pendant 45 minutes, produisant en moyenne cinq récits de rêve par personne. Les personnes à qui l'on a demandé de rester éveillées ont laissé leur esprit vagabonder tout en recevant des instructions similaires. (Les chercheurs ont créé une version simplifiée de ce protocole d'incubation de rêves, accessible sur le web, que vous pouvez essayer chez vous).

Parmi les siesteurs qui ont reçu l'instruction sur les arbres, tous sauf un ont déclaré avoir rêvé d'arbres ou de parties d'arbres, alors qu'une seule personne parmi les siesteurs ayant reçu l'instruction plus générale l'a fait. L'un d'entre eux a décrit des "arbres se divisant en une infinité de morceaux" et s'est retrouvé dans le désert avec "un chaman assis sous l'arbre avec moi".

Les participants ont ensuite passé trois tests de créativité : Ils ont écrit une histoire créative dans laquelle figurait le mot "arbre". Ils ont énuméré "toutes les utilisations alternatives créatives" qu'ils pouvaient imaginer pour un arbre. Enfin, ils ont écrit le premier verbe qui leur venait à l'esprit pour chacun des 31 noms qui se rapportaient, plus ou moins, aux arbres. La créativité des réponses a été évaluée par des personnes qui ne savaient pas qui faisait la sieste ou qui avait reçu l'invitation à parler d'un arbre. Ces évaluations ont été combinées en un indice de créativité globale.

Les personnes ayant fait la sieste et qui avaient reçu l'indice de l'arbre ont obtenu les scores de créativité les plus élevés. "Il existe un lien objectif et expérimental entre l'incubation d'un rêve spécifique et la créativité post-sommeil autour de ce sujet", explique Haar Horowitz. "Cela valide des siècles de rapports anecdotiques de personnes qui se trouvent dans l'espace créatif.

En outre, plus une personne fait référence à des arbres, plus son score de créativité est élevé. "Plus vous rêvez d'un arbre, meilleures sont vos performances ultérieures", explique Kathleen Esfahany, étudiante de premier cycle au M.I.T., qui a codirigé l'étude avec Haar Horowitz. Les personnes semblent utiliser leurs rêves pour trouver des idées pour ces tâches, ajoute Kathleen Esfahany. Par exemple, une personne ayant rêvé que son corps était en bois a écrit une histoire sur un "roi chêne" qui portait une "couronne de feuilles" et dont le corps était tantôt "en bois", tantôt "en lumière".

L'ensemble de ces données indique que le rêve pendant N1 est un ingrédient actif de la créativité, comme l'ont supposé les chercheurs. "Il s'agit d'une étude pionnière", déclare Tore Nielsen, chercheur sur le rêve à l'Université de Montréal, qui n'a pas participé à l'étude. "Personne n'a démontré expérimentalement que le fait de rêver de quelque chose au début du sommeil est en fait lié à la créativité qui s'ensuit.

Nielsen et d'autres chercheurs estiment que l'étude est de petite envergure et qu'elle doit être reproduite. En outre, les résultats des tâches de créativité individuelles (par opposition au résultat composite) n'étaient pas significativement plus élevés chez les personnes qui ont fait une sieste guidée que chez celles qui n'ont pas été guidées, explique Penny Lewis, neuroscientifique à l'université de Cardiff au Pays de Galles, qui n'a pas participé à l'étude. "Je pense que leurs données montrent de manière convaincante que le fait de passer un certain temps dans le stade 1 du sommeil - c'est-à-dire le sommeil très léger qui se produit lorsque vous vous endormez - conduit à de meilleures performances dans ces trois tâches", explique Penny Lewis. Mais l'idée "que l'incitation conduit à ces effets devrait être traitée avec prudence parce que les statistiques ne sont pas très solides".

Une mesure objective et automatisée de la créativité, nommée "distance sémantique", indiquait qu'une brève sieste favorise l'inventivité, mais qu'il n'y a pas d'avantage supplémentaire lorsqu'on ajoutait une incitation à l'idée d'un arbre. Dans cette mesure, un ordinateur évalue la similarité des paires de mots produites dans chaque tâche de créativité, une similarité moindre étant liée à une plus grande créativité. Néanmoins, cette mesure laisse entrevoir un mécanisme de stimulation de la créativité au cours de la période N1. "Elle suggère que les gens sont capables de faire des associations plus éloignées et donc de trouver des ponts [conceptuels] qu'ils n'auraient pas pu découvrir autrement", explique M. Schooler.

L'étude ne portait que sur un seul motif, impliquant un arbre, de sorte que le système doit être testé sur d'autres sujets et éventuellement utilisé pour résoudre des problèmes réels. "C'est passionnant car, en principe, il s'agit d'une technologie que les gens pourraient utiliser eux-mêmes pour stimuler leur propre créativité", explique M. Schooler.

Il semble que les personnes désireuses de l'essayer ne manquent pas. "Des gens très différents sont venus frapper à la porte du laboratoire et ont demandé à faire des rêves", déclare Haar Horowitz.

Auteur: Internet

Info: https://www.scientificamerican.com/. Par Ingrid Wickelgren, 15 mai 2023

[ subconscient ]

 

Commentaires: 0

Ajouté à la BD par miguel

surnaturel

Les scientifiques ont-ils finalement démontré des phénomènes psychiques ? De nouvelles études montrent que les gens peuvent prévoir des événements futurs.
Dans "au travers du miroir" de Lewis Carroll, la reine blanche dit a Alice que dans son pays, la mémoire travaille dans deux sens. Non seulement la reine peut se rappeler de choses du passé, mais elle se rappelle également de "choses qui se produiront la semaine d'après." Alice essaye de discuter avec la reine, énonçant : "je suis sûr que la mienne ne va que dans un sens... je ne peut me rappeler de choses avant qu'elles ne se produisent." La reine répond, "c'est une sorte de faiblesse, si ta mémoire ne fonctionne qu'en arrière."
Combien nos vies seraient meilleures si nous pouvions vivre dans le royaume de la reine blanche, où notre mémoire travaillerait en arrière et en avant. Dans un tel monde, par exemple, on pourrais faire un examen et étudier après coup pour s'assurer qu'on l'a bien réussi dans le passé. Bon, la bonne nouvelle est que selon une série récente d'études scientifiques de Daryl Bem, nous vivons déjà dans pareil monde !
Le Dr.Bem, psychologue social à l'université de Cornell, a entrepris une série d'études qui seront bientôt publiées dans un des journaux de psychologie les plus prestigieux. Au travers de neuf expériences, Bem a examiné l'idée que notre cerveau a la capacité de réfléchir non seulement sur des expériences antérieures, mais peut également en prévoir de futures. Cette capacité de "voir" est souvent désignée comme phénomène psi.
Bien que des recherches antérieures aient été conduites sur de tel phénomènes - nous avons tous vu ces films où des personnes regardent fixement des cartes de Zener avec une étoile ou des lignes ondulées dessus - de telles études n'arrivent pas vraiment à atteindre le statut seuil "de recherche scientifique." Les études de Bem sont uniques du fait qu'elles présentent des méthodes scientifiques standard et se fondent sur des principes bien établis en psychologie. Cela donne essentiellement des résultats qui sont considérés comme valides et fiables en psychologie. Par exemple, l'étude améliore la mémoire, et facilite le temps de réponse - mais ici on inverse simplement l'ordre chronologique.
Par exemple, nous savons tous que répéter un ensemble de mots rend plus facile le fait de s'en souvenir dans l'avenir, mais si la répétition se produit après le rappel ?... Dans une des études, on a donné une liste de mots à lire à des étudiants et, après lecture de la liste, on les a confrontés à un test surprise pour voir de combien de mots ils se rappelaient. Ensuite, un ordinateur a aléatoirement choisi certains des mots sur la liste et on a demandé aux participants de les retaper plusieurs fois à la machine. Les résultats de l'étude ont montré que les étudiants étaient meilleurs pour se remémorer les mots apparus dans l'exercice qui avait suivi, donné par surprise et fait au hasard. Selon Bem, la pratique de ces mots après le test a permis d'une façon ou d'une autre aux participants "de revenir en arrière dans le temps pour faciliter le souvenir."
Dans une autre étude, Bem examiné si l'effet bien connu d'amorçage pouvait également être inversé. Dans une étude typique d'amorçage, on montre à des gens une photo et ils doivent rapidement indiquer si la photo représente une image négative ou positive. Si la photo est un chaton câlin, on appuie sur le bouton "positif" et si la photo représente des larves sur de la viande en décomposition, on appuie sur le bouton "négatif". Une recherche de masse a montré combien l'amorçage subliminal peut accélérer la capacité à classer ces photos. L'amorçage subliminal se produit quand un mot est clignoté sur l'écran tellement rapidement que le cerveau conscient ne l'identifie pas, mais le cerveau inconscient le fait. Ainsi on voit juste un flash, et si on vous demande de dire ce que vous avez vu, vous ne pouvez pas. Mais, profondément, votre cerveau inconscient a vu le mot et l'a traité. Dans l'étude d'amorçage, on constate uniformément que les gens qui s'amorcent avec un mot conformé à la valence de la photo la classeront par catégorie plus vite. Ainsi si on clignote rapidement le mot "heureux" avant l'image de chaton, la personne cliquera le bouton "positif" encore plus vite, mais on clignote à la place le mot "laid" avant, la personne prendra plus longtemps pour répondre. C'est parce que l'amorçage avec le mot "heureux" fait que l'esprit de la personne est prêt à recevoir un truc heureux.
Dans l'étude rétroactive d'amorçage de Bem, on a simplement inversé l'ordre du temps, faisant clignoter le mot amorcé après que la personne ait classé la photo. Ainsi on montre l'image du chaton, la personne sélectionne si elle est positive ou négative, et alors on choisit aléatoirement d'amorcer avec un bon ou mauvais mot. Les résultats ont prouvé que les gens sont plus rapides à classer des photos par catégorie quand elle était suivie d'un mot amorce cohérent. A tel point que non seulement le fait qu'on classe le chaton plus vite quand il est précédé par un bon mot, on le classera également plus vite par catégorie si il est suivit du bon mot après coup. C'est comme si, alors que les participants classaient la photo, leur cerveau savait quel mot viendrait après, qui facilite leur décision.
Voilà juste deux exemples des études que Bem conduit, mais les autres ont montrés des effets "rétroactifs" semblables. Les résultats suggèrent clairement que des gens moyens "non psychiques" semblent pouvoir prévoir des événement futurs.
La question qu'on peut se poser est "quel est l'ordre de grandeur de la différence ?" Ce fait d'étudier un essai après qu'il se soit produit, ou l'amorçage qu'on a eu avec un mot après avoir classé la photo donne un changement énorme, ou est-ce juste une légère bosse dans les statistiques ? Quelle est la taille de effet ?. Il est vrai que les tailles d'effet dans les études de Bem sont petites (par exemple, seulement légèrement plus grandes que la chance). Mais il y a plusieurs raisons pour lesquelles nous ne devons pas négliger ces résultats basés sur de petites, mais fortement conformées, tailles d'effet.
Tout d'abord, au travers ses études, Bem a constaté que certaines personnes ont des résultats plus forts que d'autres. En particulier les gens en grande quête de stimulus - aspect d'extraversion où les gens répondent plus favorablement aux nouveau stimulus. Pour des différences de l'ordre d'environ deux fois plus d'efficacité qu'une personne moyenne. Ceci suggère que des gens sont plus sensibles aux effets psi que d'autres.
Deuxièmement ces petites tailles d'effet ne sont pas rare en psychologie (et pour d'autres sciences). Par exemple la moyenne les études de Bem eut pour résultat des tailles d'effets assez petites, mais tout aussi grandes - ou plus grandes - que certains effets bien établis : lien entre l'aspirine et l'empêchement de crise cardiaque, prise de calcium et os améliorés, fumée et cancer du poumon, utilisation de condom et protection du HIV, etc.... Cohen précise que de telles tailles d'effet se produisent plus facilement quand on est dans les premiers stades d'exploration d'une matière, quand les scientifiques commencent juste à découvrir pourquoi l'effet se produit et quand il est le plus susceptible de se produire.
Ainsi si nous prenons ces phénomènes psi comme vrai, comment pouvons nous alors les expliquer sans jeter à la poubelle notre compréhension du temps et de la physique ? Bon, la vérité est que ces effets ressemblent vraiment beaucoup à ce que la physique moderne dit du temps et de l'espace. Par exemple, Einstein a cru que le seul acte d'observer quelque chose pouvait affecter cette chose là, phénomène qu'il appela "spooky action à distance."
De même, la physique quantique moderne a démontré que les particules légères semblent savoir ce qui se trouve en avant d'elles dans le temps et qu'elles ajusteront leur comportement en conséquence, quoique le futur événement ne se soit pas produit encore. Par exemple dans l'expérience classique "de la double fente" les physiciens ont découvert que les particules légères répondent différemment si elles sont observées. Mais en 1999, les chercheurs ont poussé cette expérience plus loin en se demandant "ce qui se produirait si l'observation avait lieu après que les particules légères aient été déployées. "Tout à fait curieusement, ils ont démontré que les particules agissaient de la même manière, comme si elles savaient qu'elles seraient observées plus tard..." même si cela ne s'était pas encore produit.
De tels effets, "dingues", avec le temps semblent contredire le bon sens et essayer de les comprendre peut donner un sacré mal de tête. Mais les physiciens ont simplement appris à l'accepter. Comme disait une fois le Dr. Chiao, physicien de Berkeley, au sujet de la mécanique quantique, "c'est complètement contre intuitif et extérieur à notre expérience journalière, mais nous (les physiciens) y sommes habitués"
Ainsi, alors que les humains perçoivent le temps comme linéaire, cela ne signifie pas nécessairement qu'il en soit ainsi. Donc, en tant que bons scientifiques, nous ne devrions pas nous laisser influencer par les préjugés sur ce que nous étudions, même si ces idées préconçues reflètent nos idées de base sur la façon dont le temps et l'espace fonctionnent.
Le travail du DR. Bem est un provocation pour la pensée, et comme toute science révolutionnaire est censée faire, il apporte plus de questions que de réponses. Si nous mettons entre parenthèses nos croyances sur le temps et acceptons que le cerveau est capable d'une prise sur le futur, la prochaine question est : comment le fait-il ?. Ce n'est pas parce que l'effet semble "surnaturel" que cela signifie que la cause le soit. Beaucoup de découvertes scientifiques furent considérées comme exotiques par le passé, convenant davantage à la science-fiction (par exemple : la terre est ronde, il y a des organismes microscopiques, etc...). Une recherche future est nécessaire pour explorer les causes exactes des effets de ces études
Comme beaucoup de nouvelles explorations en science, les résultats de Bem peuvent avoir un effet profond sur ce que nous savons et avons accepté comme "vrai". Mais pour certains d'entre vous, peut-être que ces effets ne sont pas une si grande surprise, parce que quelque part, profondément à l'intérieur, nous savons déjà que nous en aurions connaissance aujourd'hui !

Auteur: Internet

Info: Fortean Times, Octobre 11, 2010

[ sciences ] [ prémonition ]

 
Mis dans la chaine

Commentaires: 0

FLP post-Peirce

L'"ouverture" du dictionnaire intriqué FLP, nourrie entre autres de l'idée que chaque mots est quasi-esprit (voire symbole), procède beaucoup de l'inventaire et d'un recensement exhaustif, celui de tous les termes créés et imaginables sur cette planète - surtout avec le double apport des intraduisibles et des appellations scientifiques pointues et spécialisées. Tout ça ramené au français. Vocables qui dans l'idéal devraient être utilisés, et sémantiquement précisés, via ces axes, par ordre d'importance. 

1) leur sens-étymologie. Avec une contextualisation animale si possible, distanciation auto-analytique du mammifère humain intégré dans le concert général de la vie. Par exemple les mots-idées-concepts comme foyer-logis-abri seront associés avec ceux de terrier-nid-tanière.

2) leur contexte, syntaxique, syntagmatique,  bio-taxonomique même,  pour qui s'y intéresse et a le temps. En prenant au mieux en compte les paramètres amenés par l'auteur de l'extrait : temporels, topologiques, de formacja, situation politique, sexe, etc.  

3) les caractéristiques de celle ou celui qui insère et étiquette l'extrait sur FLP, c'est à dire qu'il doit s'agir une démarche réflexive sincère, qui pourra éventuellement être analysée par d'autres sous cet angle. 

Ces trois points précédant bien sûr les éventuelles corrections de participants qui aident ainsi à préciser-organiser les mots-langage-tiercités de notre espèce-communauté par la grâce des possibilités de classements intriqués de FLP. Tiercités elles-mêmes images-symboles linguistiques des détails du décor-réalité-priméité que le cerveau humain-secondéité formule-symbolise, avec un langage et des mots toujours plus affinés. 

Et puis, dans le but de développer une meilleure ossature de classification de cette lexicologie perspectiviste, vint l'idée de réfléchir à un concept de tétravalence sémantique, suceptible de dépasser et consolider la puissante triade sémiotique de C.S. Pierce. 

Parce que la quadrivalence, symétrique, d'apparence moins souple et insaisissable que le ternaire, semble offrir, à l'image des bases de l'ADN, de bonnes pistes en terme de taxologie et de développements taxinomiques. Surtout en des heures où l'intrication quantique a montré de bien des manières combien le langage humain est devenu insuffisant, dépassé, dès qu'il doit gérer des problématiques contre-intuitives. En clair : la pensée binaire qui sous-tend nos idiomes-raisonnements, malgré toutes ses possibilités de nuances, a beaucoup de peine à empoigner sémantiquement le contre-intuitif quantique comme, par exemple, ce qu'a pu montrer Alain Aspect. (Qui a reçu le prix Nobel avec 2 autres confrères ce mois. Bravo à eux).  

Il suffirait donc d'intégrer un 4e élément à la triade de Peirce. Hum... 

Attardons nous d'abord sur le concept de tiercité ; qui englobe les infinis signes-signaux possibles générés par les interactions-chocs entre acteurs-objets-secondéités issus de la priméité : vents contre arbres, météorites percutant la terre, hommes vs animaux, réflexion contre idées, animaux entre eux, insectes avec végétaux, etc. Signes qui peuvent se transformer en routines, plus ou moins éphémères, dont certaines deviendront des traces-symboles, qui s'organiseront ensuite pour "durer un peu plus", à l'image du langage des hommes. On remarquera au passage qu'existe au niveau de chaque monade humaine un processus d'itération-imprégnation-adaptation qui va en progressant, se stabilise, et régresse avec l'âge, bref le canevas de toutes nos vies. Ici monades-bulles-existences humaines aptes à laisser des "combinaisons sémantiques" dans le corpus linguistique communautaire. Bribes que certains formuleront par le terme assez dérisoire de postérité. 

Tiens, voilà que nous avons dérivé, l'air de rien, pour nous retrouver en pleine secondéité humaine. Examinons alors l'autre bout de la triade, la priméité, ce réel-source-décor, dont tout est issu ?...  

Thème à discuter avec un alien, qui nous décrira probablement quelque chose qui n'a rien à voir avec ce que nous connaissons, certes. Mais - avec la distanciation et le temps nécessaires - nous devrions certainement pouvoir relier SA priméité-réalité à lui avec NOTRE priméité-réel à nous. N'est que parce qu'on imagine mal plusieurs "sources primordiales", même dans un GRAND TOUT infini, emplis de multivers intriqués, en constantes et étourdissantes interactions qui mélangent vitesses et échelles. Source indicible et insondable au point de tant "séparer" les entités émergées en son sein que ces dernières seraient incapables de communiquer entre elles ? Allons allons... Des étages et hiérarchies infinies oui...  Mais stop. 

Ici encore nous voilà en train d'exprimer notre propre reflet-image de secondéités qui observent, formulent, et projettent.

Qu'est-ce alors que cette secondéité ? Ce JE-NOUS monade. Mais aussi tout sujet-élément-idée-entité susceptible d'interagir avec moi, lui, ou les autres. C'est à dire tout élément jailli de la priméité-univers... Comme ce caillou au sol, ou la civilisation alien des lignes précédentes ? Interactions, répétons-le, à la sources des signes-tiercités-langage (humain limité certes ici... ) Aptes à s'auto-analyser ?!?!?!

Signes qui nomment-définissent les "choses-autres" avec des mots "quasi-esprits"... En amont de manipulations sémantiques qui s'ensuivront. Hum Hum...

On remarquera qu'au 3e étage tiercitaire des signes-idées analysés-partagés, communications mimétiques et autres, les possibilités sont aussi infinies qu'aux deux autres niveaux. On notera aussi que beaucoup de ces idiomes-signes consensus ne peuvent se développer qu'au travers de longs développements évolutifs, bien plus encore pour qui voudra aller au-delà des pulsions-interaction basiques - de l'ordre de la physique pure et du simple bon sens gravitationnel - avant de devenir pulsions de vie, de survie surtout. Tout ça se développant/envoyant/recevant des signes que bientôt le langage organisera. Combien de temps, d'éons, nécessaires pour arriver au héron et sa magnifique spécialisation de chasseur de poissons ? Bestiole capable de montrer à ses petits comment attirer les proies aquatiques en mettant des insectes dans l'eau. J.L. Borges aura bien aidé à le comprendre. L'existence, les existences ensembles sont des signes qui se mélangent et parfois se répondent.

Nous voilà donc avec le langage externalisé, humain ; magnifique engin télépathique communautaire trans-époques, (oui oui je vous parle, à vous chères âmes de l'an 2050... ah ah ah). Mais aussi oeillère-buttée, puisqu'on dirait bien que la bulle linguistique humaine nous isole via quelque chose qui ressemble à un solipsisme de la race, une monade collective. Le déséquilibre planétaire dont nous sommes source et victime apparaissant comme un de ses effets. Monade de primates, secondéité collective, machin qui "agit" bien plus qu'il interagit, alors qu'elle devrait probablement comprendre que son action sur la matrice qui l'a fait émerger se retourne contre elle. Dialogue terre-hommes où ces derniers feraient mieux de tenir compte des "signes" de Gaïa. Gamin qui réalise qu'il devrait faire un peu plus attention à ce que lui exprime, sans mots, sa Moman !!

Tout ceci est fort intéressant... mais le parcours des lignes qui précèdent ramène sans désemparer vers nous qui lisons-écrivons ces lignes, encore et toujours représentants du concept de secondéité, de la prison humaine (même si dans un système ternaire chaque pointe peut être pensée comme centrale, ah ah ah).

En bref nos rodomontades sémantiques semblent faire un peu trop abstration du reste, surtout à partir de l'ère industrielle. Déspiritualisation, sécularisation ?

Précisons et resituons : il est question d'une secondéité-hommes, issue de la priméité matrice univers-terre, en train de développer son propre champ exponentiel de tiercités, dont Internet fait la démonstration chaque jour. (Ainsi pour FLP, le web, hors les films et images, n'est qu'un amas sémantique, souvent désordonné, babélien... géré numériquement par des machines cybernétiques. Web au sein duquel - ou à la pointe duquel -, notre application se propose d'ordonner-classifier-recenser les mots-pensées en les intriquant. L'homme singe ne change pas, il fait des listes, encore... Désormais plus compliquées.) 

Mais de modification de la triade de Peirce, rien ne semble possible. Trop costaud.

Résignons-nous, c'est d'ici - au sein même de nos sémantiques, qu'il faudra chercher à identifier... puis établir-asseoir-développer... un système tétravalent en faisant bien gaffe de demeurer dans le langage, strico sensu. Français même, afin de ne pas (trop) nous perdre. 

Résumons : une secondéité bien comprise : objet, être, participant, interprétant, réfléchisseur, observateur... va nécessairement - en fonction d'infinis paramètres, (pour faire simple nous dirons "en fonction des contextes") - GENERER quelque chose. Autrement dit une secondéité, planète, arbre, fusée lunaire, caillou, civilisation, atome, (Ah non, pas atome... kr kr kr, le quantique échappe à tout ça), une fois en interaction avec une autre secondéité, ou avec un des autres pôles de notre triplette peircéenne, va ORIENTER le résultat de l'interaction. A l'image du météore qui percute l'océan et dont la trajectoire est modifiée-stoppée par la masse liquide. Où, inversément, de l'océan secoué par le météore. Ainsi, s'infléchissant et s'influençant mutuellement, les deux acteurs d'un choc-interaction enfantent, délivrent, consciemment ou pas, des tiercités. Ici vagues et tsunami, vapeurs et tremblement de terre... On constatera au passage que ce genre de tiercité océano-sismiques convient mieux à une approche téléologique terrestre (pensons à l'extinction des dinosaures) que nos tiercités linguistiques, beaucoup plus futiles et superficielles d'apparence. Mais c'est à voir.

Se pose ici aussi, nécessairement peut-être, une question étonnante, évidente : celle de la responsabilité de secondéités telles que la notre. Mais pas que. Interrogation qui ouvre les perspectives, vers l'inconscient, l'épigénétique, le panpsychisme, l'animisme... La science-fiction....  Question qui exponentialise aussi les possibilités de bascule historique, de déclics...  de déclenchements, d'effets papillons infimes, suceptibles de modifier notre réél et sa continuité... Telle la mouche écrasée qui inverse la polarité de la planète. Nous pensons que cette question ouvre un peu plus les possibilités d'une intervention externe, invisible, qui pourra orienter les choses, que ce soit souvent ou pas. Il est vrai que les dernières découvertes sur les mécanismes épigénétiques montrent que de telles interactions - invisibles et souvent contre-intuitives - se passent sans cesse, que ce soit entre nous et les fourmis ou entre le soleil et les végétaux, etc. Mais basta.

Une secondéité-OBSERVATRICE, disons évoluée comme nous, par la magie des signes organisés et du langage, développe sa réprésentation-compréhension du monde. Elle crée et développe son univers consensuel, transmute du réel-matériel en langage esprit-virtuel. 

C'est donc dans l'espace sémantique humain que nous nous proposerons de traquer les émergences tétravalentes, en partant de celles qui se trouvent DEJA (souvent en germe à l'image du chiasme et éventuellement de l'oxymoron) au sein des raisonnements du langage des interprétants-humains. Solide assise - au centre de la triade peircéenne - pour une tâche au très long cours, celle de notre propre auto-analyse via l'étude-classification sémantique du corpus linguistique d'humains-transcripteurs-secondéités, vus comme une "race du verbe" fondamentalement tétravalente

Monade des hommes formulée-présentée ci-dessous, au centre, de trois manières assez similaires.

a) priméité   -  secondéité  (récepteur, émetteur, influenceur.... )                               -  tiercité

b) réalité    -  humains responsables-irresponsables, humanistes, dictateurs, etc...             -  effets sur le monde 

c) signifiant -  interprétant (pouvoir-ouverture-transpositeur-orienteur-confusion ontologique-déverrouillage mental)  -  signifié     

Nous nous référerons à ces trois exemples comme socle au développement de notre idée, gardant en tête que si l'humanité est, comme tout élément, plus ou moins transitoire, la durabilité et les effets de sa lexico-littérature - par comparaison avec les développements de la vie-adn - sont risibles. Ce qui n'empêche rien. 

Au-delà de l'analogie comme quoi ADN et écriture sont "transgénérationnels", on entrevoit les incroyables possibilités de bases tétravalentes combinées sémantiquement, quelque chose qui dépasse littéralement les auteurs de ces lignes, à savoir une forme de mémoire évolutionnaire sur le temps long (comme les requins), mémorisée/structurée sur d'interminables chaines ADN, chaines aptes, par exemple, à réutiliser une imprégnation-expérience vécue très en arrière dans le temps.

Il s'agit selon nous d'une entreprise pré-mémétique.

Auteur: Mg

Info: sept oct 2022 - réflexion possiblement liée à la notion de septénaire, articulation binaire + ternaire dont FLP s'amuse à recenser les déclinaisons

[ citation s'appliquant à ce logiciel ] [ méthodologie ] [ métalinguistique ] [ prospective ] [ au coeur de FLP ]

 
Commentaires: 4
Ajouté à la BD par miguel