Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 169
Temps de recherche: 0.0538s

théorie du tout

Des scientifiques affirment avoir découvert ce qui existait AVANT le début de l'univers !

Les versions non scientifiques d'une réponse ont invoqué de nombreux dieux et furent à la base de toutes les religions et de la plupart des philosophies depuis le début de l'histoire.

Aujourd'hui, une équipe de mathématiciens du Canada et d'Égypte a utilisé une théorie scientifique de pointe et une série d'équations époustouflantes pour découvrir ce qui a précédé l'univers dans lequel nous vivons.

En termes (très) simples, ils ont appliqué les théories de l'infiniment petit - le monde de la mécanique quantique - à l'ensemble de l'univers - expliqué par la théorie générale de la relativité, et ont découvert que l'univers passe fondamentalement par quatre phases différentes.

Plus important encore, ils ont découvert ce qui a précédé cet univers... un autre univers ou, plus précisément, une autre "phase cosmologique".

Bien que sa taille soit infinie, notre univers est cyclique et a toujours existé à l'un des quatre stades.

L'univers est en expansion, et cette expansion s'accélère, mais l'équipe pense que certaines modifications motivées par la mécanique quantique finiront par stopper l'expansion et ramèneront l'ensemble à un point quasi infini - à ce stade, l'univers recommencera à s'étendre.

L'article, intitulé ''Non-singular and Cyclic Universe from the Modified GUP'', écrit par Maha Salah, Fayçal Hammad, Mir Faizal, Ahmed Farag Ali, est très complexe, mais le professeur Mir Faizal en a souligné les principaux points.

Selon lui, ils ont intégré les effets de la mécanique quantique dans la cosmologie en utilisant une approche appelée GUP modifiée.

Cette approche modifie l'équation de la cosmologie d'une manière très intéressante. Elle prédit quatre phases distinctes pour notre univers - la phase actuelle de l'univers n'étant qu'une de ces phases.

Dans ce modèle cosmologique, il existe une phase antérieure au big bang, et il est possible de connaître cette phase de l'univers en étudiant la physique de la phase actuelle de notre univers.

Le professeur Mir Faizal a déclaré : "Dans notre modèle cosmologique, l'univers n'a pas commencé par un big bang : "Dans notre modèle cosmologique, l'univers n'a pas commencé par un big bang, mais il y a eu une transition d'une phase de l'univers à une autre.

"Cela est possible parce que l'univers peut exister dans quatre phases différentes, comme l'eau ordinaire peut exister dans trois phases différentes. Tout comme nous pouvons connaître les propriétés de la glace en étudiant l'eau qui s'est formée à partir d'elle, nous pouvons connaître la cosmologie d'avant le big bang en étudiant la physique de cet univers.

"En utilisant notre modèle cosmologique, nous pouvons étudier la physique de la phase cosmologique précédant le début de notre univers.

Leur modèle leur a permis d'étudier l'état de l'univers avant le Big Bang. Les équations de leur modèle prédisent que l'expansion de l'univers s'arrêtera et sera immédiatement suivie d'une phase de contraction.

Le professeur Mir a ajouté : "Lorsque les équations sont extrapolées au-delà du taux maximal de contraction, un scénario d'univers cyclique émerge. "D'autres cosmologistes ont proposé un scénario de big bang et de big crunch, mais ces modèles présentent des singularités.

"Les singularités sont néfastes en physique, car elles indiquent un endroit où les lois de la physique s'effondrent, et à ces endroits, on ne peut pas utiliser la physique pour obtenir des résultats significatifs.

"Ce nouveau modèle cosmologique élimine ces singularités. La singularité du big bang peut donc également être évitée en utilisant les corrections GUP modifiées pour la cosmologie".

Dans leur modèle cosmologique, la nature cyclique de l'univers résulte de l'incorporation d'effets quantiques dans un modèle cosmologique de l'univers.

Le professeur Faizal a expliqué que même s'il existe de nombreuses approches étonnantes de la gravité quantique, comme la théorie des cordes et la gravité quantique à boucles, le point commun de la plupart de ces approches est qu'il existe une longueur minimale en dessous de laquelle l'espace n'existe pas.

Beaucoup de ces approches prédisent également qu'il existe une énergie maximale et qu'aucun objet dans l'univers ne peut avoir une énergie supérieure à cette énergie maximale.

L'équipe de chercheurs a intégré l'effet d'une longueur minimale et d'une énergie maximale dans un modèle cosmologique, pour aboutir à un univers cyclique.

Interrogé sur les implications philosophiques, voire théologiques, de ses travaux, le professeur Mir a déclaré : "Personne ne tire d'implications philosophiques ou théologiques d'une dimension spatiale finie ou infinie, et le temps n'est qu'une dimension parmi d'autres, alors pourquoi devrait-il être traité différemment ?

"En tout état de cause, je ne crois pas en un Dieu des lacunes, le big bang étant une grande lacune, mais en un Dieu qui a rendu les mathématiques décrivant la réalité si parfaites qu'il n'y a pas de lacunes, ni aujourd'hui ni au moment du big bang.''

Le professeur Faizal a également travaillé sur le Grand collisionneur de hadrons, où il a exploré les portes d'autres univers.

 

 

Auteur: Internet

Info: https://www.thesci-universe.com/ 5,15,2023

[ hypothèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution biologique

Une nouvelle étude de Yale sur la levure montre comment des facteurs non génétiques sont impliqués dans l'évolution en temps réel.

Dans l'étude, publiée dans la revue Cell Reports du 27 octobre, des chercheurs de l'Institut de biologie systémique de Yale ont montré comment les mécanismes épigénétiques - des modifications du phénotype d'un organisme non causées par des altérations de sa séquence d'ADN - contribuent à l'évolution du réseau de gènes chez la levure qui est responsable de la régulation de l'utilisation du sucre galactose. L'étude a montré qu'un changement épigénétique dans l'activité des gènes se transmettait à travers des centaines de générations de levure, et elle a des implications plus larges concernant le rôle de l'épigénétique dans l'évolution.

"La nature est futée", a déclaré Murat Acar, auteur principal de l'article et professeur associé de biologie moléculaire, cellulaire et du développement, ainsi que de physique. "Elle trouve toujours une solution chaque fois qu'elle est mise au défi par quelque chose. Vous voulez avoir une sorte de gagnant parmi votre population pour surmonter cet environnement difficile".

Jusqu'à récemment, l'explication de l'évolution reposait uniquement sur des mutations génétiques spontanées stimulant des adaptations avantageuses dans les organismes, selon David Moreno Fortuno, associé postdoctoral à l'Institut de biologie des systèmes et l'un des co-auteurs de l'article. Il a expliqué que cette théorie est connue sous le nom de néodarwinisme parce que la nature des gènes n'avait pas encore été découverte à l'époque de Darwin.

La théorie darwinienne de l'évolution contraste avec l'idée de Jean-Baptiste Lamarck, autrefois largement discréditée, selon laquelle l'évolution consiste à transmettre de petits changements qui sont acquis au cours de la vie d'un organisme, selon le PBS. Lamarck a publié sa théorie au début du 19ème siècle en France, et l'exactitude de cette théorie est toujours débattue aujourd'hui, surtout au vu de la résurgence, au cours des deux dernières décennies, de l'étude des influences épigénétiques - ou pas - sur l'évolution.

Les chercheurs ont utilisé un marquage fluorescent dans les cellules de levure pour suivre l'expression des gènes codant du galactose, des cellules plus brillantes correspondant à une plus grande expression de ces gènes. Ils ont observé les niveaux de fluorescence sur une période de sept jours et ont sélectionné à plusieurs reprises les cellules les plus faibles de la population. Les chercheurs nomment cette séparation des cellules plus faibles de la population générale de "pression sélective". Par rapport à la population de levure d'origine, ils ont constaté une diminution dans le temps de la quantité d'expression de ces marqueurs au sein de la population expérimentale.

 "Cette diminution s'est maintenue, même lorsque  la pression sélective fut supprimée pendant plus de 200 générations", a déclaré M. Fortuno.

Du fait que le génome de la levure soit si petit - seulement 12 millions de paires de bases contre 3 milliards pour l'homme - l'analyse de l'ensemble du génome de l'organisme pour les mutations génétiques est beaucoup plus facile à réaliser dans les cellules de levure.

Certaines des cellules de levure qui avaient modifié l'expression du gène codant pour le galactose ne présentèrent aucune mutation dans le réseau de gènes spécifié. Les chercheurs ont donc pu exclure les contributions génétiques à leurs observations.

"En fin de compte, nous avons vu que les théories darwiniennes de l'évolution génétique ne sont pas en mesure d'expliquer ces résultats par elles-mêmes", a déclaré M. Acar. "Il est nécessaire d'y inclure la théorie évolutionniste lamarckienne pour expliquer tout le spectre de nos résultats".

M. Fortuno a abordé les implications potentielles de l'étude, en prédisant que les cellules cancéreuses malignes sont similaires aux cellules de levure dans la mesure où les deux types de cellules sont en "évolution constante". Il a ajouté que la compréhension du rôle des mécanismes épigénétiques dans les génomes des cellules de levure pourrait ouvrir des pistes de recherche pour développer des traitements contre le cancer ou déterminer le stade du cancer dont souffre un patient.

Il note également que certains scientifiques pensent que la culture est un mécanisme épigénétique. Bien que la culture soit non génétique, il est possible qu'elle ait un impact mesurable sur nos marques épigénétiques si ces experts ont raison.

Le document indique également que les mécanismes génétiques et épigénétiques "n'ont pas à s'exclure mutuellement". 

"En réponse à une condition environnementale particulière, les deux types de mécanismes peuvent jouer un rôle et se compléter l'un l'autre", peut-on lire dans le document.

Le document explique également que les mécanismes épigénétiques peuvent provoquer des adaptations plus rapides à un environnement changeant, ils agissent généralement sur une échelle de temps plus courte que les mécanismes génétiques. À l'inverse, les mécanismes génétiques sont en jeu sur des périodes plus longues et entraînent des changements plus permanents dans un organisme.

M. Acar souligne que cette étude n'est qu'une première étape vers une meilleure compréhension du rôle des facteurs épigénétiques et qu'il attend avec impatience de voir des expériences similaires être réalisées sur d'autres organismes.

"Ce n'est qu'alors que nous verrons si ces résultats peuvent être généralisés, qu'ils soient darwiniens, lamarckiens ou hybrides - une théorie unifiée de l'évolution régissant l'évolution des organismes", a-t-il déclaré.

Les cellules de levure se reproduisent de manière asexuée toutes les 90 à 100 minutes.

Auteur: Jalbert Jonathan

Info: https://yaledailynews.com/ NOV 12, 2020

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

manipulation génétique

Des scientifiques de Cambridge créent le premier organisme vivant au monde avec un ADN entièrement redessiné
Les chercheurs créent un génome synthétique, en mouvement avec des bénéfices médicaux potentiels. C'est le premier organisme vivant au monde dont le code ADN est entièrement synthétique et radicalement modifié.

Le microbe fabriqué en laboratoire, une souche de bactéries que l'on trouve normalement dans le sol et dans l'intestin humain, est semblable à ses cousins naturels, mais survit grâce à un ensemble plus restreint d'instructions génétiques.

Cette existence démontre que la vie peut exister avec un code génétique restreint et ouvre la voie à des organismes dont les mécanismes biologiques sont piratés pour fabriquer des médicaments et du matériel utile, ou pour ajouter de nouvelles caractéristiques telles que la résistance aux virus.

En deux ans, des chercheurs du laboratoire de biologie moléculaire de l'Université de Cambridge ont lu et redessiné l'ADN de la bactérie Escherichia coli (E. coli), avant de créer des cellules avec une version synthétique du génome modifié.

Le génome artificiel contient 4m de paires de bases, les unités du code génétique épelées par les lettres G, A, T et C. Imprimé en entier sur des feuilles A4, il compte 970 pages, faisant de ce génome le plus grand que les scientifiques aient jamais édifié, de loin.

"Il n'était pas du tout clair s'il était possible de créer un génome de cette taille et s'il était possible de le modifier autant", a déclaré Jason Chin, un expert en biologie de synthèse qui a dirigé le projet.

L'ADN enroulé à l'intérieur d'une cellule contient les instructions dont il a besoin pour fonctionner. Lorsque la cellule a besoin de plus de protéines pour croître, par exemple, elle lit l'ADN qui code la bonne protéine. Les lettres d'ADN sont lues dans des trios appelés codons, tels que TCG et TCA.

Presque toute vie, de la méduse à l'homme, utilise 64 codons. Mais beaucoup d'entre eux font le même travail. Au total, 61 codons produisent 20 acides aminés naturels, qui peuvent être enfilés ensemble comme des perles sur une ficelle pour construire n'importe quelle protéine de la nature. Trois autres codons sont en effet des panneaux stop : ils indiquent à la cellule lorsque la protéine est prête, comme le point marquant la fin de cette phrase.

L'équipe de Cambridge a entrepris de remodeler le génome d'E. coli en enlevant certains de ses codons superflus. Travaillant sur un ordinateur, les scientifiques ont examiné l'ADN de l'insecte. Chaque fois qu'ils rencontraient TCG, un codon qui fabrique un acide aminé appelé sérine, ils le réécrivaient en AGC, qui fait le même travail. Ils ont remplacé deux autres codons de la même manière.

Plus de 18 000 éditions plus tard, les scientifiques avaient retiré toutes les occurrences des trois codons du génome de l'insecte. Le nouveau code génétique a ensuite été synthétisé chimiquement et, morceau par morceau, ajouté à E. coli où il a remplacé le génome naturel de l'organisme. Le résultat, rapporté dans Nature, est un microbe avec un code ADN complètement synthétique et radicalement modifié. Connu sous le nom de Syn61, ce bug est un peu plus long que la normale, et grandit plus lentement, mais survit néanmoins.

"C'est assez incroyable", a déclaré Chin. Lorsque l'insecte a été créé, peu avant Noël, l'équipe de recherche a fait prendre une photo dans le laboratoire avec une plaque des microbes comme figure centrale dans une reconstitution de la nativité.

De telles formes de vie ainsi conçues pourraient s'avérer utiles, croit Chin. Parce que leur ADN est différent, les virus envahisseurs auront du mal à se propager en elles, ce qui les rendra de fait résistantes aux virus. Ce qui pourrait apporter des avantages. E. coli est déjà utilisé par l'industrie biopharmaceutique pour produire de l'insuline pour le diabète et d'autres composés médicaux contre le cancer, la sclérose en plaques, les crises cardiaques et les maladies oculaires, mais des cycles de production entiers peuvent être gâchés lorsque les cultures bactériennes sont contaminées par des virus ou autres microbes. Mais ce n'est pas tout : dans le cadre de travaux futurs, le code génétique libéré pourrait être réutilisé pour que les cellules produisent des enzymes, des protéines et des médicaments de synthèse.

En 2010, des scientifiques américains ont annoncé la création du premier organisme au monde doté d'un génome synthétique. L'insecte, Mycoplasma mycoides, a un génome plus petit que E. coli - environ 1m de paires de bases - et n'a pas été radicalement remanié. Commentant les derniers travaux, Clyde Hutchison, du groupe de recherche américain, a déclaré : "Cette échelle de remplacement du génome est plus grande que n'importe quel remplacement complet du génome rapporté jusqu'ici."

"Ils ont porté le domaine de la génomique synthétique à un nouveau niveau, non seulement en construisant avec succès le plus grand génome synthétique à ce jour, mais aussi en apportant les plus grands changements de codage à un génome à ce jour", a déclaré Tom Ellis, un chercheur en biologie synthétique à Imperial College de Londres.

Mais il se peut que les données ne durent pas longtemps. Ellis et d'autres construisent un génome synthétique pour la levure de boulangerie, tandis que les scientifiques de Harvard font des génomes bactériens avec plus de modifications au codage. Il n'est pas surprenant que l'E. coli redessiné ne pousse pas aussi bien que les souches naturelles, a ajouté Ellis. "Si quelque chose est surprenant, c'est qu'il grandisse après tant de changements," dit-il.

Auteur: Internet

Info: https://www.theguardian.com, Ian Sample rédacteur scientifique Wed 15 mai 2019 18.00 BST

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

transposition

La traduction, c'est aussi un acte créatif

George Sand, Albert Einstein, Picasso, John Lennon... Ces personnages hors du commun sont reconnus pour leur créativité. Mais la création n'est pas l'apanage des scientifiques, artistes et littéraires. La créativité fait aussi partie du quotidien de diverses autres professions, notamment celui des traducteurs.

Quelle est la relation entre créativité et traduction ? Les points de vue sont variés. Une chose est sûre: traduire n'est pas que reproduire ! C'est le sujet qu'a abordé la chercheuse Denise Merkle, de l'Université de Moncton, à l'occasion d'un dîner-conférence organisé par le Comité des conférences-midi du Département de linguistique et de traduction de l'Université de Montréal, avec l'appui de la Faculté des arts et des sciences.

"Depuis plusieurs décennies, des traductologues se sont posé la question afin de mieux comprendre le genre de travail cognitif exigé par l'acte créatif qui consiste à traduire. Des recherches récentes se sont penchées sur l'interdisciplinarité inhérente à la traductologie et sur la pertinence de créer la discipline de l'adaptologie. Je cherche à savoir si des travaux récents sur la créativité pourraient contribuer à approfondir et nuancer la réflexion sur la nature de la relation entre traduction et adaptation", a déclaré d'entrée de jeu Mme Merkle avant de définir ce qu'est la créativité.

De M. et Mme Tout-le-monde à Darwin

Pour la professeure, la créativité est entendue dans le sens très large de la capacité à trouver des solutions originales et utiles aux problèmes ou questions qui se posent. En se référant à l'article Beyond Big and Little: The Four C Model of Creativity, Mme Merkle a expliqué qu'il y a plusieurs types de créativité: mini-c, petit-c, pro-c et grand-c.

Le premier, le mini-c, renvoie aux activités exploratoires en réponse aux expériences nouvelles des individus en début d'apprentissage. La créativité dite petit-c est définie comme "un acte plus réfléchi et basé sur des objectifs personnels qui donnent lieu à des productions moins courantes", note Denise Merkle. Elle s'observe dans les solutions innovantes que chacun peut apporter dans son quotidien. "Cela peut être une nouvelle recette ou une solution de traduction inattendue", fait remarquer la chercheuse.

Pour accéder au niveau pro-c, soit celui des professionnels, il faut compter une bonne dizaine d'années, puisqu'il exige un "progrès considérable et volontaire" soutenu souvent par une formation et de nombreuses réalisations. Cela rappelle un peu la "règle des 10 000 heures" énoncée au début des années 90 par le psychologue suédois K. Anders Ericsson, une théorie selon laquelle on ne peut atteindre l'excellence dans une discipline qu'après avoir passé 10 000 heures à la pratiquer.

Mais attention ! Tous les professionnels d'un domaine créatif ne parviendront pas nécessairement au niveau pro-c, indique Mme Merkle. "Un traducteur peut gagner sa vie dans les industries de la langue sans faire preuve de créativité pro-c."

Enfin, la créativité avec un C majuscule, le grand-c, produit des ruptures. C'est le type de créativité qui "change le monde" ou provoque des changements culturels, technologiques, scientifiques, comme l'ont fait les travaux de Charles Darwin ou les oeuvres de Pablo Picasso.

Existe-t-il un lien entre la créativité et la folie ?

"Je ne peux le confirmer scientifiquement, mais il existe de nombreux artistes, notamment des écrivains et des peintres, dont le travail semble appuyer cette hypothèse, admet Mme Merkle. Les créateurs hors du commun sont parfois un peu marginaux. Van Gogh en est un bel exemple." Une étude menée par James C. Kaufman et Ronald A. Beghetto a par ailleurs démontré certains traits de personnalité communs chez les gens créatifs, mentionne la professeure. Au-delà de leur discipline personnelle, ils n'auraient notamment pas peur de prendre des risques.

Les chercheurs ont aussi observé que les gens motivés par la joie et la passion étaient plus créatifs que ceux dont le principal intérêt était l'argent, les louanges ou les bonnes notes.

Le monde de la traduction est bien complexe

Partant de cas concrets des domaines de la traductologie, littéraire et publicitaire, Mme Merkle a illustré la créativité à l'oeuvre chez des traducteurs et quelques-unes des difficultés les plus grandes de l'art de traduire. Certaines sont bien connues: la poésie, l'humour et les jeux de mots sont les bêtes noires du traducteur. "La qualité d'une traduction ne réside pas seulement dans ce qu'elle dit, mais aussi dans l'effet qu'elle produit", signale Mme Merkle. Les traductions imagées des poèmes en prose d'Arthur Rimbaud par le linguiste Clive Scott en témoignent. Le lecteur est invité à parcourir le double chemin qui va du poème de Rimbaud à sa conversion en images et en mouvements par Scott. Ce qui entraîne forcément une charge suggestive nouvelle. La démarche ne plaît pas forcément à tous et est discutable.

Pour plusieurs spécialistes, toute traduction littéraire est une oeuvre originale, car, même si le texte n'est pas du traducteur, celui-ci doit faire des choix et son style d'écriture est souvent reconnaissable. Mais encore une fois, cela ne fait pas l'unanimité, rappelle Mme Merkle.

Puis, il y a les contraintes inhérentes aux publicités dont l'effet humoristique repose sur une illustration. "Il va sans dire que l'articulation du verbal et du visuel entraîne une modification du contenu sémantique, explique la chercheuse. Mais quelle est la limite de la recréation ? Est-il possible de déterminer si les types de créativité repérés dans les traductions diffèrent de ceux mis au jour dans les adaptations et, si la réponse est oui, comment se distinguent-ils ?" C'est ce que permettront de découvrir ses travaux.

Auteur: Internet

Info: Université de Montréal, 10/03/2019

[ hiérarchisation ] [ réinvention ] [ ressusciter ] [ re-création ] [ décentrages ] [ visionnaires ] [ texte-image ]

 

Commentaires: 0

Ajouté à la BD par miguel

science mystique

Science de l'ADN, ce que les chercheurs russes ont découvert de manière surprenante...

Des scientifiques russes pensent pouvoir reprogrammer l'ADN humain à l'aide de mots et de fréquences.

La science de l'ADN semble enfin expliquer des phénomènes auparavant mystérieux tels que la clairvoyance ... l'intuition ... la guérison mains libres ... la lumière et les auras "surnaturelles" ... et bien d'autres choses encore. Ces découvertes sont à mettre au crédit de chercheurs russes, qui se sont aventurés sur le terrain de l'ADN que les chercheurs occidentaux n'avaient pas envisagé. Les scientifiques occidentaux limitant leurs études aux 10 % de notre ADN responsables de la construction des protéines. Cela signifie qu'ils ont considéré les 90 % restants de l'ADN comme des "déchets" (junk).

AInsi, une équipe russe innovante, dirigée par le biophysicien et biologiste moléculaire Pjotr Garjajev, a refusé d'accepter qu'une si grande majorité de l'ADN puisse n'avoir aucune valeur pour la recherche. Pour percer les mystères de ce terrain inconnu, ils ont associé des linguistes à des généticiens dans le cadre d'une étude non conventionnelle visant à tester l'impact des vibrations et du langage sur l'ADN humain. Ce qu'ils ont découvert est tout à fait inattendu : notre ADN stocke des données comme le système de mémoire d'un ordinateur. De plus, notre code génétique utilise des règles de grammaire et une syntaxe qui reflètent étroitement le langage humain ! Ils ont également constaté que même la structuration des paires ADN-alcaline suit une grammaire régulière et des règles établies. Il semble que toutes les langues humaines soient simplement des verbalisations de notre ADN.

Modifier l'ADN en prononçant des mots et des phrases

Le plus étonnant, c'est que l'équipe a découvert que l'ADN humain vivant peut être modifié et réorganisé via des des mots et des phrases. La clé de la modification de l'ADN par des mots et des phrases réside dans l'utilisation de la bonne fréquence. Grâce à l'application de fréquences radio et lumineuses modulées, les Russes ont pu influencer le métabolisme cellulaire et même remédier à des défauts génétiques. L'équipe a obtenu des résultats incroyables en utilisant les vibrations et le langage. Par exemple, ils ont réussi à transmettre des modèles d'information d'un ensemble d'ADN vers un autre.

Ils ont même réussi à reprogrammer des cellules pour qu'elles adoptent un autre génome : ils ont transformé des embryons de grenouille en embryons de salamandre sans utiliser le moindre scalpel ou faire une seule incision. Les travaux des Russes prouvent scientifiquement pourquoi les affirmations et l'hypnose ont des effets si puissants sur les êtres humains. Notre ADN est intrinsèquement programmé pour réagir au langage.

Les enseignants ésotériques et spirituels le savent depuis longtemps. Toutes les formes d'affirmations et de "pouvoir de la pensée" découlent en partie de ce principe sous-jacent. La recherche russe permet également d'expliquer pourquoi ces techniques ésotériques n'ont pas le même succès pour tous ceux qui les utilisent. Étant donné qu'une "communication" claire avec l'ADN nécessite une fréquence correcte, les personnes dont les processus intérieurs sont plus développés seront plus à même de créer un canal de communication conscient avec l'ADN. Les personnes dont la conscience est plus développée auront moins besoin d'un quelconque appareil (pour appliquer des fréquences radio ou lumineuses). Les spécialistes de cette science pensent qu'avec la conscience, les gens peuvent obtenir des résultats en utilisant uniquement leurs propres mots et pensées.

ADN et intuition : Comment fonctionne l'"hypercommunication" et pourquoi l'homme pourrait être en mesure de la récupérer

Les scientifiques russes ont également trouvé une base ADN en rapport avec le phénomène de l'intuition - ou "hypercommunication". L'hypercommunication est le terme utilisé pour décrire les situations dans lesquelles une personne accède soudainement à des informations hors de sa base de connaissances personnelle. À notre époque, ce phénomène est devenu de plus en plus rare. Cela est probablement dû au fait que les trois principaux facteurs qui empêchent l'hypercommunication (le stress, l'anxiété et l'hyperactivité cérébrale) sont devenus très répandus. Pour certaines créatures, comme les fourmis, l'hypercommunication fait partie intégrante de l'existence quotidienne. Saviez-vous que lorsqu'une reine est physiquement retirée de sa colonie, ses sujets continuent à travailler et à construire selon le plan prévu ? En revanche, si elle est tuée, le but du travail des fourmis disparait et leur activité en ce sens s'arrête instantanément. Apparemment, tant que la reine est en vie, elle peut accéder à la conscience de groupe de sa colonie grâce à l'hypercommunication.

Maintenant que les Russes tentent de démêler les fondements biologiques de l'hypercommunication, les humains pourraient être en mesure de retrouver l'usage de cette compétence. Ils ont découvert que notre ADN peut produire des "vortex magnétisés". Ces vortex magnétisés sont des versions miniatures des ponts qui se forment près des étoiles en fin de vie (nommés ponts d'Einstein-Rosen). Les ponts d'Einstein-Rosen relient différentes zones de l'univers et permettent la transmission d'informations en dehors de l'espace et du temps. Si nous étions capables d'activer et de contrôler consciemment ces connexions, nous pourrions utiliser notre ADN pour transmettre et recevoir des informations du réseau de données de l'univers. Nous pourrions également entrer en contact avec d'autres participants au réseau. Les découvertes de la science et de la recherche russes sur l'ADN sont si révolutionnaires qu'elles paraissent vraiment incroyables. Pourtant, nous disposons déjà d'exemples isolés d'individus qui ont maîtrisé les techniques nécessaires, au moins à un certain niveau. Les personnes qui ont réussi à pratiquer la guérison à distance et la télépathie sont des exemples à prendre en considération. Selon de nombreuses personnes qui s'intéressent activement à ces recherches russes sur l'ADN, ces résultats reflètent les changements majeurs qui se produisent sur notre Terre, dans notre soleil et dans notre galaxie. Ces changements affectent l'ADN humain et élèvent la conscience d'une manière que nous ne comprendrons peut-être que dans un avenir lointain.   

Auteur: Internet

Info: https://undergroundhealthreporter.com, july 2023

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

horizon anthropique

Qu'est-ce que le paradoxe cérébral de Boltzmann ? Le cerveau est-il l'univers ultime ?

Avez-vous déjà contemplé la nature de votre existence et vous êtes-vous demandé si vous étiez vraiment une personne ayant vécu une vie, ou simplement un cerveau récemment formé avec des souvenirs artificiels, développant momentanément une réalité qui n'est pas réelle ? Cette question, connue sous le nom de paradoxe du cerveau de Boltzmann, peut sembler absurde, mais elle trouble les cosmologistes depuis des générations.

Le paradoxe tire son nom de Ludwig Boltzmann, un éminent physicien du XIXe siècle qui a apporté des contributions significatives au domaine de la thermodynamique. À son époque, les scientifiques étaient engagés dans des débats passionnés sur la question de savoir si l'univers a une durée infinie ou finie. Boltzmann a révolutionné notre compréhension de l'entropie, qui mesure le désordre au sein d'un système. Par exemple, un verre est considéré comme ordonné, alors qu'un verre brisé est dans un état de désordre. La deuxième loi de la thermodynamique affirme que les systèmes fermés tendent à devenir plus désordonnés avec le temps ; un verre brisé ne se reconstitue pas spontanément dans son état originel.

Boltzmann a introduit une nouvelle interprétation de l'entropie en appliquant un raisonnement statistique pour expliquer le comportement des systèmes. Il a mis en évidence que les systèmes évoluent vers un état plus désordonné parce qu'une telle transformation est la plus probable. Cependant, si la direction opposée n'est pas impossible, elle est incroyablement improbable. Par exemple, nous ne verrons jamais des œufs brouillés redevenir des œufs crus. Néanmoins, dans un univers infiniment vieux, où le temps s'étend sans limites, des événements hautement improbables, tels que la formation spontanée de structures complexes à partir de combinaisons aléatoires de particules, finiraient par se produire.

Qu'est-ce que cela signifie dans le contexte d'un univers hypothétique qui existe depuis un temps infini ? Imaginez une étendue apparemment banale de quasi-néant, où environ huit octillions* d'atomes convergent fortuitement pour créer le "Le Penseur" de Rodin, sauf qu'elle est cette fois entièrement constituée de pâtes alimentaires. Cependant, cette sculpture de pâtes se dissout rapidement en ses particules constitutives. Ailleurs dans cette vaste toile cosmique, les particules s'alignent spontanément pour former une structure ressemblant à un cerveau. Ce cerveau est rempli de faux souvenirs, simulant une vie entière jusqu'au moment présent où il perçoit une vidéo véhiculant ces mêmes mots. Pourtant, aussi rapidement qu'il est apparu, le cerveau se décompose et se dissipe. Enfin, en raison de fluctuations aléatoires, toutes les particules de l'univers se concentrent en un seul point, déclenchant l'émergence spontanée d'un univers entièrement nouveau.

De ces deux derniers scénarios, lequel est le plus probable ? Étonnamment, la formation du cerveau est nettement plus probable que la création spontanée d'un univers entier. Malgré sa complexité, le cerveau est minuscule par rapport à l'immensité d'un univers entier. Par conséquent, si l'on suit ce raisonnement, il apparaît très probable que tout ce que nous croyons exister n'est rien d'autre qu'une illusion fugace, destinée à disparaître rapidement.

Bien que Boltzmann lui-même n'ait pas approfondi ces conclusions, les cosmologistes qui se sont inspirés de ses travaux ont introduit le concept des cerveaux de Boltzmann. Il est intéressant de noter que ces cosmologistes, comme la majorité des individus, étaient raisonnablement certains de ne pas être eux-mêmes des cerveaux éphémères. D'où le paradoxe suivant : comment pouvaient-ils avoir raison dans leur hypothèse tout en postulant l'existence d'un univers éternel ?

Le paradoxe a trouvé sa résolution dans un concept communément accepté aujourd'hui : notre univers n'existe pas de manière infinie mais a eu un commencement connu sous le nom de Big Bang. On pourrait donc penser que le paradoxe a été résolu une fois pour toutes. Or, ce n'est peut-être pas le cas. Au cours du siècle dernier, les scientifiques ont découvert des preuves substantielles à l'appui de la théorie du Big Bang, mais la question de savoir ce qui l'a précédé et causé reste sans réponse. Que l'univers soit apparu dans un état extrêmement ordonné et improbable ? Notre univers pourrait-il faire partie d'un cycle sans fin de création et d'effondrement, ou sommes-nous simplement l'un des innombrables univers en expansion dans un vaste multivers ?

Dans ce contexte intrigant, le paradoxe de Boltzmann a suscité un regain d'intérêt chez les cosmologistes contemporains. Certains affirment que les modèles dominants de l'univers suggèrent encore que les cerveaux de Boltzmann ont plus de chances d'exister que les cerveaux humains, ce qui soulève des inquiétudes quant à la validité de ces modèles. Cependant, d'autres réfutent ces arguments en proposant de légères modifications des modèles cosmologiques qui élimineraient le problème ou en affirmant que les cerveaux de Boltzmann ne peuvent pas se manifester physiquement.

Dans le but d'explorer les probabilités impliquées, certains chercheurs ont même tenté de calculer la probabilité qu'un cerveau émerge spontanément à partir de fluctuations quantiques aléatoires et survive suffisamment longtemps pour générer une seule pensée. Le résultat de leurs calculs a donné un nombre étonnamment grand, avec un dénominateur dépassant 10 élevé à une puissance environ un septillion de fois plus grande que le nombre d'étoiles dans l'univers.

Malgré sa nature apparemment absurde, le paradoxe du cerveau de Boltzmann est utile. Il place la barre très haut pour les modèles cosmologiques. Si l'état actuel de l'univers semble excessivement improbable par rapport à des nombres d'une telle ampleur, cela indique que quelque chose ne va pas dans le modèle. Ce paradoxe nous pousse à remettre en question notre compréhension de la réalité et nous incite à rechercher une représentation plus complète et plus précise de l'univers.

Alors que nous continuons à explorer les mystères du cosmos, la nature énigmatique de notre existence reste une source de fascination et un catalyseur pour la poursuite de la recherche scientifique. Dans notre quête de réponses, nous pourrons peut-être découvrir des vérités profondes qui nous éclaireront sur la nature de notre réalité et sur la tapisserie complexe de l'univers.

Auteur: Sourav Pan

Info: *un octillion = 10 puissance 48)

[ humain miroir ] [ monde consensuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

déresponsabilisation industrielle

Un documentaire consacré aux désastres de Tchernobyl et de Fukushima a été présenté par Arte le 26 avril dernier, lançant une pernicieuse invitation à "vivre avec" la contamination radioactive, "défi" que prétendent, en ces jours sombres, relever les missionnaires de l’accommodation à la vie en zones contaminées par la radioactivité.



L’"Initiative de Dialogue pour la réhabilitation des conditions de vie après l’accident de Fukushima", présentée dans ce film, a été pilotée par de supposés, et néanmoins dangereux experts à l’œuvre à Tchernobyl hier, à Fukushima aujourd’hui, et en France demain.



[...] Un des principaux objectifs − atteint − de ces programmes, a été d’évincer du terrain de Tchernobyl les initiatives de protection sanitaire développées par des médecins et des physiciens après l’accident de la centrale, et de ne pas ralentir, en conséquence, la détérioration continue de la santé des populations, faute d’apporter une véritable prophylaxie.



Les faits de traîtrise de Gilles Hériard-Dubreuil à l’encontre des spécialistes de santé du Belarus ne semblent toutefois pas avoir dissuadé la députée européenne Europe Écologie-Les Verts Michèle Rivasi et l’avocate Corinne Lepage, "antinucléaires" déclarées, de collaborer avec ce dernier, de le nommer "secrétaire" et "expert qualifié" de leur association européenne Nuclear Transparency Watch, qu’elles ont créée et qu’elles président depuis 2013, appelant à rien moins qu’"une implication systématique des citoyens et de la société civile dans la préparation et la réponse aux situations d’urgence nucléaire en Europe", situations dont on aura suffisamment compris qu’elles ne tarderont plus à "survenir".



[...] 



Voici leurs cinq recettes, qui, pour être bien concoctées, n’en sont pas moins empoisonnées de cette mort qui enverra les gens moisir à plat.



1. Inciter chacun à rester vivre dans les zones contaminées, tout en "optimisant" son exposition à la radioactivité à proportion du coût économique et social de sa protection. Ainsi, maximisent-ils le nombre de personnes contraintes de suivre un protocole de contrôle et de mesure permettant de survivre dans la contamination à moindre coût. À défaut de les soigner.



2. Considérer la réalité radioactive comme un problème psychologique. Il s’agit de transformer une réalité scientifique et sociale – la contamination radioactive et ses dégâts –, en phénomène faisant l’objet d’un "ressenti" individuel, lui-même tributaire de l’état mental, ou psychologique, de chacun.



Le rapport à la radioactivité ne relèverait ainsi que d’une gestion personnalisée de l’angoisse. À dire d’experts, ce ne serait alors plus la situation de contamination qui serait irrationnelle, mais la perception qu’on en aurait.



3. Recourir à un jargon d’"authenticité", pontifiant et illusoirement concret dans lequel les appels à l’autonomie, à la dignité, à la communauté et à l’humain ne font qu’emprunter à la théologie de pâles reflets de transcendance, afin de mieux assujettir l’individu au fonctionnement, ici du tout radioactif, ailleurs du tout sécurisé.



Or, conforter les gens dans le délire selon lequel ils sont des sujets autonomes dans la "gestion de leur contamination", alors qu’ils savent bien qu’il leur est seulement impossible de ne pas se plier aux rapports techno-sociaux dont ils sont prisonniers, c’est vouer à l’échec toute possibilité d’échappée.



On conditionne les populations à la cogestion du désastre, en les encourageant à stimuler, et a minima à simuler, les réflexes et les comportements induits par les modifications du monde environnant. Cette recherche de l’adaptation parfaite passe par l’intériorisation de toutes les formes de pressions que la contamination radioactive fait naître.



4. Promouvoir la résilience, nouvel horizon de l’homme adaptable, censé ne compter que sur lui-même et ses insondables capacités de "rebond". Au nom d’un relativisme pragmatique, d’un primat de "la vie quotidienne", ces médiateurs du désastre insufflent la défiance, voire la décrédibilisation, des connaissances scientifiques les moins contestables, distillent le doute et propagent l’ignorance sur les effets sanitaires de l’exposition durable aux dites "faibles doses" de rayonnement ionisant, tout en déplorant "la montée de la défiance des populations vis-à-vis des différentes sortes d’autorités."



Résilience aidant, c’est à nous qu’ils assignent ensuite la tâche de recoller les morceaux de ce qu’ils contribuent à détruire. Ils préconisent de remplacer les normes de protection par de simples recommandations destinées à faciliter l’action des individus. "Les gens passent ainsi de la résignation à la créativité", s’enthousiasme Jacques Lochard.



Ainsi, chacun n’aurait plus qu’à mobiliser ses propres réserves de résistance à l’irrésistible et devenir "partie prenante" de sa propre irradiation. On reconnaît là le choix de l’État japonais : maintenir les populations sur place et diminuer d’autant, à court terme du moins, le coût d’un accident nucléaire.



5. Banaliser la radioactivité, cet obstacle que l’on apprend à contourner au quotidien dans la recherche de "solutions" immédiates, ponctuelles et individuelles. La radioactivité ne poserait alors problème que dans la seule mesure où les pratiques de vie des habitants les amèneraient à la "croiser" sur le chemin de l’école, du travail, ou de la promenade.



Au Japon, se mène désormais une chasse quotidienne aux hotspots de contamination radioactive, réduits à des incidents facilement résolus en grattant le sol et en stockant la terre dans des sacs poubelle, ou en installant des rideaux de plomb aux fenêtres des chambres d’enfants afin d’"éviter la contamination venant de la forêt."



[...] 



Ces aménageurs de la vie mutilée, relayés par Arte et tant d’autres représentants d’instances étatiques ou associatives, telles que Nuclear Transparency Watch de Mmes Rivasi et Lepage, et M. Hériard-Dubreuil, défendent haut et fort l’irrationalité selon laquelle il existerait un entre-deux de la contamination, où l’exposition au rayonnement ne serait dangereuse qu’en principe, mais s’avèrerait inoffensive dans la réalité. Véritable irrationalité, cette extrême violence du "vivre avec" est une insulte aux survivants.



Il s’agirait donc d’endiguer l’horreur de la contamination en la coulant dans les formes pseudo-rationnelles d’un "tous ensemble, nous vaincrons la radioactivité" ? C’est à quoi se vouent ces prêcheurs de soumission en expliquant, sans foi ni loi, qu’on peut échapper au danger en s’y confrontant, qu’on peut gratter la terre, mais en croisant les doigts.



[...] Proclamant qu’il faut "gérer" sa peur, ils prétendent réduire à néant toute possibilité de mise en cause de la déraison nucléaire, enjoignant à chacun d’en tirer au contraire parti, plutôt que de se hasarder à en rechercher les responsables.



Il fallait dire ce qu’est l’objectif de ces rédempteurs du "vivre avec", qui n’en paieront pas le prix, eux qui ont choisi d’emplir les hôpitaux de malades plutôt que de rendre inhabitées des terres inhabitables.

Auteur: Internet

Info: 3 août 2016, https://sciences-critiques.fr/tchernobyl-fukushima-les-amenageurs-de-la-vie-mutilee/

[ sacrifice différé ] [ minimisation des conséquences ] [ propagande cynique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel