Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 65
Temps de recherche: 0.0595s

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

tétravalence

J'ai toujours aimé Céline, sa créativité sous forme de rage impuissante. Il se lâche, se défrustre... vitupère...  Tu vis tu perds !

En défendant toutes griffes dehors son indépendance, positionné avec le petit peuple, Céline se retouve automatiquement du "bon côté", celui des prolétaires de son époque, ceux au front de la vie, qui prennent sur eux, empathiques et solidaires... qui font que le monde fonctionne. Créatifs pragmatiques issus du terrain. Comme lui. 

Ceci - par contraste - avec Proust le fortuné, qui péta dans la soie sa vie durant pour finalement nous gratifier du grand art de ses phrases interminables. 

En collant à un binarisme littéraire de ce genre les choses sont tranchées ; les prolos directs et agissants du bas représentent l'envers de nantis souvent spécialistes en délicatesses, théoriciens "hors-sol", en général issus du haut, affiliés aux pouvoirs, c'est à dire à l'argent et ses influences. Théoriciens qui auront quasi toujours raison au sens où la raison parle d'un point de vue supérieur, celui où on influence les éducations, le politiquement correct, le langage, etc. Là où toute stratégie digne de ce nom se fait, où les orientations du monde se décident depuis toujours. Lieux du pouvoir. Et le pouvoir humain est un positionnement doté d'un défaut majeur : sa propension à l'autoconservation, souvent "à tout prix". Ainsi de la démocratie, même s'il faut reconnaitre que cette dernière apparait à ce jour comme le moins mauvais système, surtout une démocratie directe dotée d'une presse libre, c'est à dire d'un médium qui fait office de contrepouvoir. 

On verra donc les milieux dirigeants  développer certaines formulations "pour se défendre des prolos". Par exemple, si on en vient à se demander comment anticiper le monde de demain : comment canaliser les énergies vers des activités nouvelles, déplacer les pôles de lutte. Comment savoir et apprendre à passer le temps intelligemment ? Comment arriver à gérer l'humain tel le simple artefact de l'environnement qu'il est - sans basculer dans la barbarie ? Comment abandonner l'impasse matérialiste sans que les individus s'abatardissent ? Tout en conservant un moteur, propre à chacun, moteur que les publicités clinquantes ont désormais orienté vers le confort individuel, les "apparences" du bonheur et autres jalousies subséquentes ? 

Questionnements souvent présentés ainsi par les gens du haut : "Ces réflexions et idées complexes peuvent-elles se concevoir depuis un environnement où on lutte sans cesse, sous pression de la réalité, des lendemains difficiles et des flux tendus du monde post-industriel ?". Sous entendu : venant des gens du bas.  

Alors que la question est la même pour tous : Comment réorienter le capitalisme qui produit du superflu après avoir créé le besoin en stimulant de simples et compulsifs réflexes d'accumulation, (bien naturel pour une survie de base, celle qui permet de passer l'hiver par exemple). Socio-capitalisme post-industriel qui a aussi "donné des habitudes" aux gens, des envies... voyages exotiques... Confort minimum... Etat providence.

C'est donc au travers de ce très franco-français exemple de dualité "Proust-Céline" que nous voudrions indiquer que le binarisme humain apparait comme une fondation logique peu capable de gérer ne seraient que les complexités qui s'entrelacent et se développent à partir des quelques données qui précèdent. 

Autre exemple : comment peut-on être assez imbu de certitude pour proférer une phrase comme "La religion est une erreur criminelle et la foi une insulte à l'intelligence." alors que tout démontre que nous ne savons rien à ce sujet ?. Inconnaissance probablement renforcée par un savoir anthropocentré qui ressemble de plus en plus à la stupidité d'une espèce égoïste parce qu'asymbiotique, vu qu'elle ne sait pas interagir sagement avec son environnement. 

Tenez : les fourmis coupeuses de feuilles (du genre Atta) utilisent couramment des antibiotiques pour protéger leurs cultures de champignons. Elles le font de façon tellement sage et modérée que depuis les quelques 50 millions d'années qu'elles utilisent cette méthode aucune résistance aux antibiotiques n'est apparue chez les parasites qu'elles combattent ! Et nous, humains impatients, nous retrouvons, au bout de quelques années de leur utilisation avec des maladies nosocomiales quasi incurables dans nos centres de soins spécialisés !

Ici on dirait que la nature nous parle. Les mécanismes que dévoile petit à petit l'épigénétique semblent bien s'articuler autour d'un incessant et éternel dialogue des forces fondamentales impliquées dans notre univers Gaïa. Forces qui s'articulent entre autres sur la souplesse adaptative offerte par les possibilités combinatoires du carbone sur lesquelles s'est développée la vie telle que nous la connaissons. 

Faut-il s'en inspirer pour aller au-delà de cette dualité simpliste, celle qui nous a amené là où nous sommes en début de 3e millénaire. Faut-il  maintenant mettre en place une nouvelle logique opérante ? Une logique indépendante de son propre langage ?

Auteur: Mg

Info: 30 janv 2022, suivant une idée amenée par JP Petit, prétendument issue des récits ummites

[ interrogation ] [ prospective ]

 
Commentaires: 2
Ajouté à la BD par miguel

épigénétique

"Percer les secrets du vivant grâce à la biologie quantique"

En primeur pour notre magazine, Birgitta Whaley, qui dirige le Berkeley Quantum Information and Computation Center de l'université de Californie, a accepté d'expliquer en quoi les "mécanismes quantiques à l'oeuvre chez les organismes vivants" pouvaient révolutionner le monde. D'autant qu'ils ne sont qu'une cinquantaine de scientifiques à travers la planète à poursuivre ces travaux fondamentaux.

Sciences et Avenir : Quand on évoque l’information quantique, on pense en premier lieu à la physique et aux particules de matière ou de lumière. Or, vous travaillez sur le vivant ?

Birgitta Whaley : Nous étudions tout un éventail d'organismes, des plantes vertes aux bactéries, qu'il s'agisse d'unicellulaires ou de feuilles. Mais aussi des oiseaux ou d'autres animaux. Nous voulons apporter la preuve qu'il existe un comportement quantique chez ces organismes vivants, à toute petite échelle, impliquant des "grains de lumière" (photons).

Avez-vous découvert ce comportement quantique ? Oui, il est tout à fait évident que des effets quantiques sont au coeur, en particulier, de ce qu’on appelle la photosynthèse. Nous les observons dans les premiers stades de ce mécanisme essentiel à la vie qui permet l’absorption de la lumière, puis sa transformation en énergie électronique, les électrons déclenchant ensuite les réactions chimiques qui permettent la formation de glucides [constituants essentiels des êtres vivants].

Outre la connaissance fondamentale, pourquoi est-ce important de comprendre ce mécanisme ?

Parce qu’il est essentiel à la production de nourriture et donc à notre vie. Mais imaginez aussi que nous parvenions à réaliser une photosynthèse artificielle qui capture l’énergie solaire aussi bien que le font les plantes, dont le processus a été hautement optimisé après 3,6 milliards d’années d’évolution. Ce ne serait plus 15 % de rendement que l’on obtiendrait, comme cela se pratique avec le photovoltaïque aujourd’hui, mais presque 100 % !

Qu’ont donc réussi à faire les plantes, et pas nous ?

Chez les plantes vertes, des récepteurs composés de chlorophylle sont capables d’absorber des photons alors même que la lumière reçue est très faible. Chacun d’eux ne reçoit en moyenne qu’un photon toutes les dix secondes. Il faut que la plante soit vraiment très efficace pour réaliser cette absorption avec si peu de lumière. Il y a même des bactéries marines qui n’absorbent qu’un photon (dans l’infrarouge) toutes les vingt minutes.

Qu’est-il important de mesurer ?

Les détails de ce processus d’absorption, en particulier sa dynamique… Nous connaissons très bien la chlorophylle, nous savons quelle partie de la molécule absorbe le photon et à quel niveau. Le problème vient de ce que cette chlorophylle est enchâssée dans un échafaudage complexe de protéines- pigments qui se mettent à leur tour à vibrer, à entrer en rotation… Nos expériences suggèrent fortement que ces vibrations oeuvrent en conjonction avec l’excitation électronique déclenchée par l’arrivée du photon. Elles aident au transfert des électrons qui déclencheront ultérieurement des réactions chimiques. Ce mécanisme d’absorption, facilité par des effets quantiques, peut avoir jusqu’à 99 % d’efficacité. Un photon arrive, un électron est produit. Finement réglé, il répond à une nécessité de survie de l’organisme.

Quel genre d’appareillages utilisez-vous pour les mesures ?

Nous employons des faisceaux laser pulsés, qui permettent de préciser la dynamique d’excitation des molécules. Par exemple, avec trois pulses qui se succèdent [arrivée de photons d’une certaine fréquence], nous pouvons voir, lors du premier, la molécule réceptrice amorcer son passage vers un état " excité", puis, lors du deuxième pulse, la molécule devenir entièrement excitée, le troisième pulse permettant d’apporter des précisions sur la durée de cette excitation.

Cela ne semble pas évident…

En biologie, vous ne savez pas où s’arrête le système quantique et où commence son environnement. La plupart des spécialistes haussent les épaules en disant que tout cela est trop compliqué, qu’ils ne veulent même pas en entendre parler !

Dans combien de temps pensez-vous comprendre ce qui se passe ?

Peut-être dans vingt ans… Mais d’ici à dix ans, grâce à la biologie synthétique, nous devrions pouvoir élaborer une structure qui fasse progresser notre compréhension.

"COMPORTEMENT. La fascinante intelligence spatiale des oiseaux.

La migration des oiseaux et leur capacité à déterminer la bonne direction à prendre sont aussi un domaine "très tendance" en biologie quantique ! Birgitta Whaley le trouve d’autant plus fascinant que "les effets quantiques ne sont pas du tout évidents. Est peut-être impliquée ici ce qu’on nomme l’intrication quantique" [deux objets qui peuvent être spatialement séparés mais doivent être traités globalement, comme un seul]. La lumière est en effet absorbée par une molécule à l’arrière de la rétine de chaque oeil de l’oiseau, qui produit puis transfère un électron. On se demande alors quel est le comportement quantique des deux électrons (entre eux) qui pénètrent dans le cerveau de l’oiseau, ce qui lui délivre un message particulier. Mais il ne s’agit pour l’instant que "d’une belle hypothèse et il nous faudrait des données expérimentales".)

Auteur: Internet

Info: www.sciencesetavenir.fr, Dominique Leglu, 7.11.2016

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution biologique

Une nouvelle étude de Yale sur la levure montre comment des facteurs non génétiques sont impliqués dans l'évolution en temps réel.

Dans l'étude, publiée dans la revue Cell Reports du 27 octobre, des chercheurs de l'Institut de biologie systémique de Yale ont montré comment les mécanismes épigénétiques - des modifications du phénotype d'un organisme non causées par des altérations de sa séquence d'ADN - contribuent à l'évolution du réseau de gènes chez la levure qui est responsable de la régulation de l'utilisation du sucre galactose. L'étude a montré qu'un changement épigénétique dans l'activité des gènes se transmettait à travers des centaines de générations de levure, et elle a des implications plus larges concernant le rôle de l'épigénétique dans l'évolution.

"La nature est futée", a déclaré Murat Acar, auteur principal de l'article et professeur associé de biologie moléculaire, cellulaire et du développement, ainsi que de physique. "Elle trouve toujours une solution chaque fois qu'elle est mise au défi par quelque chose. Vous voulez avoir une sorte de gagnant parmi votre population pour surmonter cet environnement difficile".

Jusqu'à récemment, l'explication de l'évolution reposait uniquement sur des mutations génétiques spontanées stimulant des adaptations avantageuses dans les organismes, selon David Moreno Fortuno, associé postdoctoral à l'Institut de biologie des systèmes et l'un des co-auteurs de l'article. Il a expliqué que cette théorie est connue sous le nom de néodarwinisme parce que la nature des gènes n'avait pas encore été découverte à l'époque de Darwin.

La théorie darwinienne de l'évolution contraste avec l'idée de Jean-Baptiste Lamarck, autrefois largement discréditée, selon laquelle l'évolution consiste à transmettre de petits changements qui sont acquis au cours de la vie d'un organisme, selon le PBS. Lamarck a publié sa théorie au début du 19ème siècle en France, et l'exactitude de cette théorie est toujours débattue aujourd'hui, surtout au vu de la résurgence, au cours des deux dernières décennies, de l'étude des influences épigénétiques - ou pas - sur l'évolution.

Les chercheurs ont utilisé un marquage fluorescent dans les cellules de levure pour suivre l'expression des gènes codant du galactose, des cellules plus brillantes correspondant à une plus grande expression de ces gènes. Ils ont observé les niveaux de fluorescence sur une période de sept jours et ont sélectionné à plusieurs reprises les cellules les plus faibles de la population. Les chercheurs nomment cette séparation des cellules plus faibles de la population générale de "pression sélective". Par rapport à la population de levure d'origine, ils ont constaté une diminution dans le temps de la quantité d'expression de ces marqueurs au sein de la population expérimentale.

 "Cette diminution s'est maintenue, même lorsque  la pression sélective fut supprimée pendant plus de 200 générations", a déclaré M. Fortuno.

Du fait que le génome de la levure soit si petit - seulement 12 millions de paires de bases contre 3 milliards pour l'homme - l'analyse de l'ensemble du génome de l'organisme pour les mutations génétiques est beaucoup plus facile à réaliser dans les cellules de levure.

Certaines des cellules de levure qui avaient modifié l'expression du gène codant pour le galactose ne présentèrent aucune mutation dans le réseau de gènes spécifié. Les chercheurs ont donc pu exclure les contributions génétiques à leurs observations.

"En fin de compte, nous avons vu que les théories darwiniennes de l'évolution génétique ne sont pas en mesure d'expliquer ces résultats par elles-mêmes", a déclaré M. Acar. "Il est nécessaire d'y inclure la théorie évolutionniste lamarckienne pour expliquer tout le spectre de nos résultats".

M. Fortuno a abordé les implications potentielles de l'étude, en prédisant que les cellules cancéreuses malignes sont similaires aux cellules de levure dans la mesure où les deux types de cellules sont en "évolution constante". Il a ajouté que la compréhension du rôle des mécanismes épigénétiques dans les génomes des cellules de levure pourrait ouvrir des pistes de recherche pour développer des traitements contre le cancer ou déterminer le stade du cancer dont souffre un patient.

Il note également que certains scientifiques pensent que la culture est un mécanisme épigénétique. Bien que la culture soit non génétique, il est possible qu'elle ait un impact mesurable sur nos marques épigénétiques si ces experts ont raison.

Le document indique également que les mécanismes génétiques et épigénétiques "n'ont pas à s'exclure mutuellement". 

"En réponse à une condition environnementale particulière, les deux types de mécanismes peuvent jouer un rôle et se compléter l'un l'autre", peut-on lire dans le document.

Le document explique également que les mécanismes épigénétiques peuvent provoquer des adaptations plus rapides à un environnement changeant, ils agissent généralement sur une échelle de temps plus courte que les mécanismes génétiques. À l'inverse, les mécanismes génétiques sont en jeu sur des périodes plus longues et entraînent des changements plus permanents dans un organisme.

M. Acar souligne que cette étude n'est qu'une première étape vers une meilleure compréhension du rôle des facteurs épigénétiques et qu'il attend avec impatience de voir des expériences similaires être réalisées sur d'autres organismes.

"Ce n'est qu'alors que nous verrons si ces résultats peuvent être généralisés, qu'ils soient darwiniens, lamarckiens ou hybrides - une théorie unifiée de l'évolution régissant l'évolution des organismes", a-t-il déclaré.

Les cellules de levure se reproduisent de manière asexuée toutes les 90 à 100 minutes.

Auteur: Jalbert Jonathan

Info: https://yaledailynews.com/ NOV 12, 2020

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

AP : Nous allons à présent entrer dans la réalité elle-même. Si j’ai bien compris votre démarche générale, vous partez d’une interrogation sur la physique quantique et sur les énigmes qu’elle suggère, notamment quant au sens à attribuer à la matière. Puis, vous appliquerez à l’esprit ce que vous avez découvert à l’aide de la physique quantique.

ER : Oui, on peut résumer ainsi. Je m’appuie au départ sur deux mystères. Le premier, c’est celui de la conscience ; le second est celui de la physique quantique. Quand vous grattez un peu, vous voyez rapidement que l’interprétation officielle du "quantique" est bancale, it doesn’t fit. Il y a quelque chose qui ne va pas, et c’est la raison pour laquelle il y a eu de nombreuses interprétations de la théorie. J’aperçois sur votre bureau Le réel voilé de Bernard d’Espagnat, qui propose une interprétation. L’Ecole de Copenhague en propose une autre, et ainsi de suite : il existe de nombreuses interprétations, plus ou moins sérieuses. Je crois en tout cas que toutes souffrent d’une béance quelque part. Aucune n’est pleinement satisfaisante. Aucune, d’ailleurs, n’emporte le consensus franc et massif de la communauté scientifique. On n’a, au mieux, qu’un consensus mou ; qui peut varier au fil du temps. Pendant longtemps ce fut l’interprétation de Bohr (dite l’Ecole de Copenhague) qui régna. Une interprétation due à Hugh Everett, dite "des mondes multiples", a rallié les suffrages des cosmologistes et des astrophysiciens. Il semble qu’aujourd’hui une théorie, dite "de la décohérence", gagne du terrain ; jusqu’à ce qu’elle soit à sont tour supplantée par une autre. Nous avons des phénomènes de mode. C’est l’indice qu’il y a un malaise persistant. Ce dernier est loin d’avoir disparu.

Mon point de départ a été de me dire : si la réalité est psychophysique, s’il y a une strate de la réalité qu’on peut appeler le psychisme, qui serait le ferment qui conduit dans certaines conditions à la conscience, la fonction biologique sensori-motrice me montre alors qu’il y a une interface, un dialogue possible entre ces deux strates (que je suppose – c’est mon hypothèse fondamentale – non réductibles l’une à l’autre). Elle me montre qu’entre la dimension matérielle et la dimension psychique, il y a comme un double-crochet qui permet ce dialogue. Réfléchissons à ce que cela implique : ça veut dire que dans la matière, il y a un petit crochet qui dépasse. Ce crochet lui permet de dialoguer avec une altérité qui, puisqu’elle est psychique, n’est plus matérielle. Alors, de deux choses l’une : soit la physique n’a pas trouvé cette interface, elle nous ne pourrons pas aller plus loin tant que ce sera le cas. Soit elle l’a trouvée. Dans ce cas, cette interface se distingue par ses propriétés singulières. Singulières car… pas tout-à-fait matérielles ! Ces propriétés seront qualitativement différentes des propriétés usuelles de la matière, qui sont purement physico-physiques. A mon humble avis, nous sommes dans ce deuxième cas depuis que la physique est devenue quantique. Et c’est justement cela qui pose problème, parce que les physiciens n’ont pas compris. Ils sont prisonniers de leur paradigme matérialiste. Ils ne reconnaissent que le physico-physique, alors qu’il existe aussi le psycho-physique. S’ils ont trouvé cette interface, ils sont comme la poule qui a trouvé un couteau, ils sont face à de l’ininterprétable. Face à de l’inintelligible. Faute du référentiel conceptuel adéquat. Le référentiel matérialiste, trop étroit, crée des problèmes conceptuels quand on veut l’appliquer au psycho-physique. C’est inévitable.

Ensuite, il me fallait donner un contenu au psychisme et le caractériser dans sa singularité. C’est pourquoi je l’ai décrit comme "endo-causal". Contrairement au déterminisme, qui est objectif (et qui est exo-causal dans ma terminologie), l’endo-causalité est de l’ordre de la subjectivité. C’est un contenu privé, comme la privacy of mind des anglo-saxons. Elle est inaccessible à un observateur extérieur.

AP : Inaccessible à une description à la troisième personne.

ER : Exactement. Le contenu privé s’éprouve, il est exclusif à la première personne, au sujet lui-même. La seule traduction phénoménologique de l’endo-causalité – qui est une capacité de choix – est une rupture du déterminisme ; ça s’appelle aussi l’aléatoire. Je cherchais donc l’interface dans les phénomènes inintelligibles (ininterprétables) pour la physique quantique, prisonnière qu’elle est de son paradigme matérialiste. Et, simultanément, là où il y a de l’aléatoire vrai (non lié à notre ingorance). Cela m’amène à la réduction du paquet d’onde ainsi qu’aux sauts et transitions quantiques.

AP : D’accord ; pour être très clair, je me permets de vous citer à nouveau : il faut, dites-vous, "allouer à toute particule élémentaire un certain degré de psychisme." Cet énoncé est très fort, mais assez étonnant : ce que vous dites, en somme, c’est qu’une particule ne contient pas que de la matière, qu’elle contient une certaine forme de psychisme, de subjectivité, et l’ensemble de la matière et de la subjectivité, vous appelez cela "psychomatière". Cela permettrait d’expliquer le comportement des particules à l’aide d’une causalité de type subjectif, d’une "endo-causalité" immanente à chaque particule.

ER : Oui, et je comprend que cela puisse surprendre, voire choquer. Je prends la comparaison (ou la métaphore) de l’œuf dur sans sa coquille : vous ne voyez de lui que l’albumine coagulée. Mais à l’intérieur, il y a autre chose. Il a le jaune d’œuf ; mais il est indécelable. De même le ’psi’ est indécelable. Pourquoi ? Parce qu’il est latent la plupart du temps (dans l’état matière). Etre indécelable ne signifie pas être inexistant : prenez l’exemple du neutrino. Pas moins de 66 milliards d’entre eux traversent chaque seconde chaque cm² de notre peau. Heureusement pour nous, comme ils n’interagissent pas, ils sont sans effet – ils sont donc indécelables ! De la même manière, le ’psi’ en général n’interfère pas : tout se passe comme s’il n’existait pas.



 

Auteur: Ransford Emmanuel

Info: Sur actu-philosophia, interview de Thibaut Gress, 7.1 2010

[ résonance ] [ determinisme vs indeterminisme ] [ panpsychisme ] [ dualité sur-atomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

proto-biologie

Suzan Mazur : Donc, avec cette donation, vous allez tenter de déterminer les principes généraux de la vie. Comment définissez-vous la vie ?

C W : C'est le problème, nous ne pouvons pas. Nous n'avons pas encore répondu aux questions centrales sur l'origine de la vie. Nous devons encore obtenir des preuves plus directes de ce que j'appelle une condition pré-Darwinienne, une condition progénote de la vie. C'est l'une des choses sur lesquelles nous travaillons, en essayant d'obtenir autant de preuves directes que possible. Évidemment, comme il s'agit d'un stade de l'évolution qui s'est déroulé il y a trois milliards d'années ou plus, nous n'allons pas obtenir beaucoup de preuves directes. Nous pouvons obtenir des archives fossiles, mais elles ne sont pas fiables. Il faut déduire tout ce qu'on peut de l'analyse intelligente et perspicace des données de la séquence du génome.

SM : Que considérez-vous comme l'évolution ?

CW : L'évolution est en fait ce que la biologie devrait être. Qu'est-ce que la biologie ? Est-ce une description de formes sous le microscope ? Cela ne peut pas être cela. L'évolution est un processus. C'est le processus que nous appelons maintenant biologie, et  qui est très statique. L'évolution, en revanche, est dynamique. Et nous devons comprendre quelles sont les règles que suit cette dynamique.

Alfred North Whitehead disait qu'en biologie et dans d'autres domaines, nous n'avons pas affaire à une procession de formes (ce qui résume le point de vue de Lazcano), nous avons affaire à la forme ou aux formes du processus. C'est dans cette distinction que réside l'essence même de l'institut d'astrobiologie de l'Illinois. Nous allons réellement étudier l'origine évolutive de la vie. Toute personne ayant une intuition biologique peut sentir - que la vie est un processus évolutif. Comme je l'ai dit, ce n'est pas seulement une procession de formes.

SM : Avez-vous des inquiétudes concernant la création d'une protocellule ?

CW : Oh oui. Il y en a, comme vous le savez, Craig Venter bat le tambour sur ce sujet tout le temps, juste pour être à l'avant-garde. Le pouvoir.

SM : Il y a aussi les chercheurs de Harry Lonsdale, qui l'abordent de manière ascendante. David Deamer, scientifique à l'origine de la vie à l'Université de Santa Cruz, par exemple, dit qu'il prévoit de fabriquer une protocellule d'ici une dizaine d'années.

CW : Bonne chance.

SM : ça vous préoccupe, la protocellule ?

CW : Je suis préoccupé par les scientifiques qui pensent qu'ils sont Dieu quand il s'agit de biologie. Les scientifiques devraient essayer d'étudier les expériences que la nature a déjà faites sous la forme du processus d'évolution.

SM : Vous avez décrit la "déconnexion entre les darwinistes, qui avaient pris le contrôle de l'évolution, et les microbiologistes, qui ne trouvaient aucune utilité à la sélection naturelle darwinienne." Avez-vous quelque chose à dire sur la récente décision du Huffington Post de bloquer la publication de la réponse du microbiologiste James Shapiro au darwiniste Jerry Coyne suite à la récente attaque de Coyne sur la pensée de Shapiro concernant un rôle réduit de la sélection naturelle dans l'évolution ?

CW : Je pense que c'est immoral. La science doit être libre d'examiner ce qu'elle voit. Si vous dites que tout le monde doit suivre la ligne darwinienne, ce n'est pas de la science libre. Le Huffington Post est passé de droite/gauche à gauche/droite. Je ne sais pas où il est maintenant. Cela n'appartient pas à la science.

Je pense que Shapiro a le doigt sur l'avenir. Il voit que nous devrions étudier la régulation. L'épigénétique est très importante.

SM : Vous avez également remarqué que la pensée de Darwin sur la descendance commune est "principalement fondée sur l'analogie" et que l'évolution qui émerge maintenant ne découle pas de Darwin. Je vous cite "Il me semble qu'une biologie future ne peut être construite dans les superstructures conceptuelles du passé. L'ancienne superstructure doit être remplacée par une nouvelle pour que les problèmes holistiques puissent émerger comme le nouveau courant dominant de la biologie". Vous attendriez-vous à ce que Darwin suive la voie de Freud si la biologie entre dans le monde non linéaire et que l'évolution est redéfinie ?

CW : Cela pourrait bien être le cas. J'ai longtemps soutenu, jusqu'à la fin du XXe siècle, que le problème du processus d'évolution est un problème antérieur à son époque. Darwin a essayé d'obtenir un crédit personnel en faisant irruption avec ça à un certain moment. La pensée conceptuelle sur l'évolution a d'abord été établie par des gens comme Buffon et le propre grand-père de Darwin, Erasmus Darwin - que Darwin ne mentionne jamais dans l'Origine des espèces, sauf dans une note de bas de page lorsqu'il y fut contraint, dans la troisième édition, de l'ajouter au bas de la préface.

Il l'a nommé d'une manière dédaigneuse. Disant en gros, oh oui, beaucoup de gens ont pensé à cela et a nommé des gens comme Buffon et Lamarck. Mais il n'a pas nommé son propre grand-père, Erasmus Darwin, sauf pour dire que son grand-père avait les mêmes idées fausses que Lamarck et Goethe. Et il n'a pas dit quelles étaient ces idées ou ce qu'il leur reprochait. Il voulait se distancer de son grand-père autant qu'il le pouvait.

SM : J'ai été intrigué par l'interview que vous avez donné au magazine Wired il y a quelques années où vous avez parlé de "l'interaction distribuée" agissant au sein de diverses communautés en réseau de la vie précoce avant la cellule moderne. Et puis vous avez dit que cette dynamique pré-darwinienne se retrouve dans la société. Je me demandais si vous vouliez dire que nous continuons en quelque sorte à reconstituer notre ancien passé organisationnel ?

CW : Non, je ne pense pas que nous tournons dans les mêmes cercles. Il s'agit d'une spirale toujours plus grande, parce que c'est ainsi que l'on peut définir un système complexe dynamique.

SM : Nigel Goldenfeld a fait des conférences sur les "trois régimes dynamiques". Fait-il référence à ce que vous avez décrit dans votre article de 2006 - une faible évolution communautaire, une puissante évolution communautaire et une évolution individuelle ?

CW : Oui, je crois qu'il le fait. Je suis presque sûr que c'est le cas. Et dans un article que j'ai écrit sur les archées, je parle de l'évolution de l'individualité. Il y avait un stade communautaire au départ. C'est ce que j'appelle habituellement le progénote. J'utilise le terme "trois domaines". J'ai écrit quelque chose en 2004 pour Microbiology and Molecular Biology Review. Freeman Dyson a été séduit par ce texte et a demandé la permission de l'utiliser dans un article qu'il a écrit pour la New York Review of Books. Nigel essaie de définir pour les physiciens ce que sont ces trois domaines. C'est l'un des rares points sur lesquels je diffère de Nigel Goldenfeld. C'est un amicale différent dans nos dialogues.

SM : C'est merveilleux que vous fassiez ces percées sans rencontrer trop d'hostilité de la part de la communauté de la biologie classique.

CW : Mais je n'ai pas détrôné l'hégémonie de la culture de Darwin.

Auteur: Woese Carl

Info: interviewé par Suzan Mazur, 4 October 2012, https://www.scoop.co.nz/. Trad Mg

[ triade ] [ pré-mémétique ] [ apprentis sorciers ] [ changement de paradigme ] [ éthique ] [ prébiotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel