Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 178
Temps de recherche: 0.0503s

décès

Mourir n'est plus ce qu'il était !
Intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du CHUM, le Dr Pierre Aslanian considère son travail comme très valorisant, car il contribue à l'effort collectif de sauver des vies.
"Dans les années 50, l'arrêt définitif du coeur constituait le seul critère de la mort. Ce n'est plus le cas aujourd'hui", déclare le Dr Pierre Aslanian, intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du Centre hospitalier de l'Université de Montréal (CHUM). "Depuis l'introduction du concept de mort cérébrale, soit l'arrêt complet et définitif de toute activité du cerveau, par un comité de la Harvard Medical School en 1968, c'est l'état du cerveau qui fait pencher la balance."
La peau du patient est rosée et chaude, son coeur bat, même son thorax se soulève à un rythme régulier, puisque sa respiration est maintenue artificiellement par un appareil et, pourtant, le patient est bel et bien mort. Pour confirmer la mort cérébrale, deux médecins indépendants de l'équipe de prélèvement et de transplantation ont reproduit divers tests cliniques selon un protocole bien défini. "D'abord, il faut connaître l'étiologie du dommage au cerveau, indique Pierre Aslanian. Sans la cause, on ne peut pas conclure à une mort cérébrale. Il faut aussi s'assurer qu'il n'y a aucun facteur confondant comme des sédatifs en circulation dans le sang au moment où l'on effectue les tests."
Concrètement, pour évaluer l'état et l'évolution d'un patient, les médecins disposent d'échelles internationales standardisées, comme l'échelle de coma Glasgow et le protocole de diagnostic du décès neurologique (DDN) de Transplant Québec, grâce auxquelles on peut mesurer notamment la réponse motrice à la douleur et les réflexes du tronc cérébral, la partie inférieure du cerveau responsable de la conscience. L'absence de réflexe respiratoire est validée par un test d'apnée. En cas de doute ou s'il y a présence de facteurs confondants, le DDN doit être établi par un examen complémentaire, par exemple une angiographie cérébrale qui permet d'objectiver l'arrêt de la circulation sanguine encéphalique. Le diagnostic est sans équivoque. L'absence de circulation intracrânienne entraîne une destruction totale et irréversible du cerveau.
"La souffrance d'une famille ébranlée par la mort brutale d'un proche l'empêche souvent de comprendre ce qui se passe exactement, souligne le Dr Aslanian. Les médecins doivent bien expliquer que les organes sont maintenus en fonction de manière artificielle, mais que le patient ne peut pas se réveiller d'un décès neurologique. Son cerveau est mort !"
Toutes les semaines, l'intensiviste, qui possède 20 ans de pratique à l'unité des soins intensifs du centre hospitalier, est confronté à cette dure réalité. Cela est d'autant plus difficile que parfois le patient en état de mort cérébrale peut avoir des réflexes spinaux, mentionne le Dr Aslanian. "On le pince et il y a un mouvement, mais celui-ci n'est pas provoqué par le cerveau. Ce sont les nerfs périphériques reliés à la moelle épinière qui en sont responsables." Le professeur de clinique de la Faculté de médecine de l'Université de Montréal donne régulièrement à l'intention des infirmières et résidents en médecine du CHUM des ateliers sur ce qu'est la mort cérébrale. "Pour offrir l'option du don d'organes aux familles, il faut d'abord savoir reconnaître les donneurs potentiels, signale-t-il. Malheureusement, encore de nos jours, environ 20 % des donneurs potentiels ne le sont pas dans les hôpitaux du Québec."
L'histoire de la mort
Longtemps on a déterminé la mort d'une personne par un acte rudimentaire. Le croquemort se contentait de mordre le gros orteil du défunt pour vérifier qu'il avait réellement trépassé. L'absence de réaction de sa part confirmait définitivement son état. Jusqu'aux années 50, les médecins tâtaient le pouls et cherchaient à voir si de la condensation se formait sur un miroir placé près de la bouche et du nez. La présence ou l'absence de battements du coeur décidait du classement définitif du patient du côté des morts ou des vivants. Puis, avec la venue de la ventilation mécanique qui maintient artificiellement la respiration, on commence à suspendre l'instant de la mort. En 1968, la mort cardiovasculaire cède la place au concept de mort cérébrale, soit "la perte irrémédiable de toutes les fonctions de l'ensemble du cerveau, du tronc cérébral et des deux hémisphères", comme la définit pour la première fois le comité de l'Université Harvard.
"Le premier article scientifique sur la question présenté à la communauté médicale a été publié dans une revue neurologique française en 1959. Les médecins y décrivaient le dommage cérébral important associé à un coma profond duquel les patients ne se réveillaient pas. C'est de cette publication qu'est né le concept de mort cérébrale que les experts de Harvard ont fait connaître internationalement", raconte le Dr Aslanian en précisant que cette époque correspond aussi aux débuts de la transplantation d'organes.
"La notion du décès neurologique a complètement changé notre rapport à la mort", estime le Dr Aslanian. Bien reçu et adopté par divers organismes à l'échelle de la planète, le DDN a néanmoins été contesté sans succès à plusieurs reprises devant les tribunaux américains. "Une commission présidentielle relative aux problèmes bioéthiques et aux aspects biomédicaux en recherche a voulu en 1981 légiférer pour une définition encore plus claire du DDN", rappelle l'intensiviste. En 1995, l'Académie américaine de neurologie constate pour sa part que beaucoup de médecins retiennent des critères différents et insiste pour standardiser les pratiques.
"Même si l'on reconnaît l'intérêt d'uniformiser les façons de faire, les politiques de déclaration de mort cérébrale varient non seulement d'un pays à l'autre, mais aussi d'un État à l'autre", note Pierre Aslanian. Au Canada, en France, en Angleterre et aux États-Unis, le DDN est fait conformément aux pratiques médicales reconnues. Mais il y a certaines nuances. Ainsi, en France, le recours à l'électroencéphalogramme ou à l'angiographie est obligatoire pour attester le caractère irréversible de l'arrêt des fonctions cérébrales. Chez nous et chez nos voisins du Sud, ces tests auxiliaires sont réalisés seulement en cas de doute ou lorsque l'examen clinique ne peut être effectué.
Et puis, il y a les exceptions comme le Japon, où il se pratique très peu de transplantations à partir de donneurs cadavériques. Car, dans l'empire du Soleil-Levant, un grand malaise persiste quant au concept de mort cérébrale.

Auteur: http://www.techno-science.net/

Info: 19.04.2016

[ vérification ] [ validation ] [ historique ]

 

Commentaires: 0

médecine

L'anorexie se soigne avec douceur et patience
Le Dr Jean Wilkins soigne les adolescentes souffrant d'anorexie depuis 36 ans. Fait assez rare, aucune patiente n'est décédée dans son unité de soins au cours de sa carrière. Son secret ? "La patience, la douceur, le respect, la confiance et la prudence", répond le fondateur de la section de médecine de l'adolescence au CHU Sainte-Justine et professeur de pédiatrie à la Faculté de médecine de l'Université de Montréal.
Sa méthode est à contrecourant de la tendance actuelle, qui privilégie les plans de soins, estime-t-il. "On peut traiter la plupart des maladies avec un protocole, mais pas l'anorexie. Parce que chaque cas est unique, parce qu'aucune de ces filles n'est rendue au même stade, parce qu'on doit constamment s'adapter à elles et non le contraire. Si on les force à adopter notre vision, elles ne guériront pas."

À l'aube de la retraite, il a senti le besoin d'expliquer sa pratique. Dans "Adolescentes anorexiques: plaidoyer pour une approche clinique humaine", le Dr Wilkins transmet son expérience aux pédiatres de la relève et offre aux jeunes filles souffrantes "quelques clés de compréhension de leur maladie et des outils pour la transformer". Il a rédigé l'ouvrage en collaboration avec la journaliste scientifique Odile Clerc.
Limiter la reprise de poids
"Quand on visite un patient, celui-ci est alité et le personnel soignant est debout, observe-t-il. Ce n'est pas le cas des filles anorexiques. Elles sont debout, toujours actives, ce qui témoigne de leur volonté de ne pas être piégées dans la thérapie. Elles manifestent une résistance: elles ne veulent pas guérir, car, déclarent-elles, elles ne sont pas malades. C'est sûr que ce serait plus facile de les obliger à se coucher et de les gaver. Mais ce serait aussi sauvage et contreproductif."

Il en veut pour preuve une jeune fille récemment traitée qui avait fait des séjours dans différents hôpitaux avant d'être admise à la Clinique des troubles de la conduite alimentaire du CHU Sainte-Justine. "En deux ans, elle avait gagné 55 kilos et en a perdu 74. Donc, 129 kilos sont entrés et sortis de son corps pendant ce laps de temps. C'est une forme de violence inutile!"

Il attribue ce phénomène aux objectifs de reprise pondérale fixés par les plans de soins. "Cela ne tient compte ni de l'état de la patiente ni de sa capacité à accepter et intérioriser cette prise de poids, s'exclame-t-il. Pour nous, c'est une victoire, mais pour elle, c'est "l'échec de sa réussite"."

Le spécialiste préfère limiter la reprise pondérale à 10 % du poids enregistré au moment de l'admission, laisser la patiente "digérer" ce changement et discuter avec elle de la suite des choses. En effet, le dialogue est extrêmement important pour établir un lien de confiance avec la jeune fille. "Dès la première rencontre, j'explique tout aux patientes et j'y vais avec douceur, indique-t-il. Par exemple, je ne leur demande jamais de se déshabiller au complet pour procéder à l'examen. Je ne découvre que les parties nécessaires. Mon collègue et ami feu le professeur Victor Courtecuisse, père de la médecine de l'adolescence en France, m'a dit un jour: "Tu sais, Jean, on n'entre pas dans un jardin privé avec un bulldozeur." Cette réflexion m'a beaucoup marqué. C'est pourquoi je ne brusque jamais une patiente... à moins qu'il y ait un danger de mort."

Étonnamment, les jeunes filles qui sont au bord du gouffre ne s'opposent jamais aux traitements. "Elles me laissent faire parce qu'elles veulent vivre, affirme le pédiatre. Contrairement à ce qu'on peut croire, l'anorexie est une expression de vie. Il faut leur faire comprendre que ce n'est pas la bonne façon d'y arriver. Et cela prend du temps."

Quand la maladie se déclare à l'adolescence, elle dure en moyenne quatre ans. "J'aimerais que ce soit plus court", admet le Dr Wilkins, qui est peiné à l'idée de transférer ses patientes en milieu adulte lorsqu'elles atteignent 18 ans.

Cela l'inquiète d'autant plus que le passage à l'âge adulte se révèle parfois fatal pour les jeunes femmes qui ne s'en sont toujours pas sorties. Huit de ses anciennes patientes sont mortes entre 20 et 30 ans. Quatre de ces décès ont un lien avec l'anorexie. Le médecin en parle comme si c'était hier. Il se souvient de leur beauté, de leur caractère frondeur, de leurs discussions. "C'est dur", confie-t-il.

La majorité finit toutefois par guérir. Le Dr Wilkins reçoit d'ailleurs de fréquents témoignages, que ce soit par écrit ou en personne, d'anciennes patientes qui le remercient. "Cela me fait toujours très plaisir de savoir qu'elles vont bien et qu'elles ont fondé une famille", dit-il en souriant.

Une de ses patientes lui a déjà écrit: "Merci non pas de m'avoir sauvé la vie, mais de m'avoir remise dans la vie." Et c'est tout ce que ce grand pédiatre espère accomplir.

Qu'est-ce que l'anorexie mentale ?
L'anorexie, c'est-à-dire la perte d'appétit, est fréquente chez les personnes très malades. Ce trouble devient "mental" lorsqu'il relève de la psychopathologie. Il touche essentiellement les filles. Une adolescente sur 100 souffre de cette maladie de manière assez grave pour être hospitalisée. Selon le Dr Wilkins, l'anorexie mentale "est une impasse développementale propre à la période de l'adolescence et assimilable à une conduite de type addictif". Plus l'anorexie est étudiée, plus elle se révèle complexe, constate-t-il. "C'est pourquoi il faut différents intervenants pour en venir à bout: en premier lieu le duo médecin-infirmière, puis des psychologues et des nutritionnistes."
Qui sont les adolescentes anorexiques ?
Ce sont des enfants modèles: "L'anorexique répond à toutes les exigences sociales: elle est brillante sur le plan scolaire, elle excelle dans tout ce qu'elle entreprend, elle sort peu, n'a aucune conduite addictive à risque et nourrit de belles ambitions sur le plan professionnel", écrit le Dr Wilkins. Elles étudient souvent en sciences, évoluent dans le milieu artistique ou pratiquent des sports de compétition. Leur emploi du temps est trop chargé. Elles socialisent peu. Bref, elles mettent leur adolescence en veilleuse, une période pourtant essentielle à la construction identitaire. Résultat: "L'adolescente anorexique, qui avait jusque-là satisfait aux attentes conscientes et inconscientes de son entourage, comme si elle avait construit son identité à partir d'une prescription externe, reprend la maîtrise de son évolution en s'appuyant sur la nouvelle identité qu'elle trouve dans cette maladie", croit le pédiatre.

Auteur: Wilkins Jean

Info: Internet mars 2012

[ empathie ]

 

Commentaires: 0

topologie abstraite

Des surfaces au-delà de l'imagination sont découvertes après des décennies de recherche

Grâce à des idées empruntées à la théorie des graphes, deux mathématiciens ont montré que des surfaces extrêmement complexes sont faciles à parcourir.

En juillet dernier, deux mathématiciens de l'Université de Durham, Will Hide et Michael Magee , ont confirmé l'existence d'une séquence de surfaces très recherchée : chacune plus compliquée que la précédente, devenant finalement si étroitement liée à elles-mêmes qu'elles atteignent presque les limites de ce qui est possible. possible.

Au début, il n’était pas évident que ces surfaces existaient. Mais depuis que la question de leur existence s’est posée pour la première fois dans les années 1980, les mathématiciens ont compris que ces surfaces pouvaient en réalité être courantes, même si elles sont extrêmement difficiles à identifier – un exemple parfait de la façon dont les mathématiques peuvent renverser l’intuition humaine. Ce nouveau travail constitue un pas en avant dans une quête visant à aller au-delà de l’intuition pour comprendre les innombrables façons dont les surfaces peuvent se manifester.

"C'est un brillant morceau de mathématiques", a déclaré Peter Sarnak , mathématicien à l'Institute for Advanced Study de Princeton, New Jersey.

Les surfaces comprennent toutes sortes d’objets bidimensionnels : l’enveloppe extérieure d’une sphère, d’un beignet ou d’un cylindre ; une bande de Möbius. Ils sont essentiels aux mathématiques et à la physique. Mais même si la relation des mathématiciens avec les surfaces remonte à plusieurs siècles, ils ne connaissent pas du tout ces objets.

Les surfaces simples ne sont pas le problème. Simple dans ce cas signifie que la surface a un petit nombre de trous, ou un faible " genre ". Une sphère, par exemple, n'a pas de trous et a donc un genre nul ; un beignet en a un.

Mais lorsque le genre est élevé, l’intuition nous fait défaut. Lorsqu'Alex Wright , mathématicien à l'Université du Michigan, tente de visualiser une surface de haut genre, il se retrouve avec des trous disposés en rangée bien rangée. " Si vous vouliez que je sois un peu plus créatif, je pourrais l'enrouler en un cercle avec de nombreux trous. Et j’aurais du mal à imaginer une image mentale fondamentalement différente de celle-là ", a-t-il déclaré. Mais sur les surfaces de grande qualité, les trous se chevauchent de manière complexe, ce qui les rend difficiles à saisir. Une simple approximation est " aussi loin d’être représentative qu’elle pourrait l’être, dans tous les sens du terme ", a déclaré Wright.

Cette lutte était prévisible, a déclaré Laura Monk , mathématicienne à l'Université de Bristol. " On peut souvent faire des choses qui ne sont pas bonnes. Cependant, créer des choses qui sont bonnes, qui ressemblent à ce que nous attendons généralement d’être vrai, est un peu plus difficile ", a-t-elle déclaré.

Cela signifie que les mathématiciens souhaitant vraiment comprendre l’espace des surfaces doivent trouver des moyens de découvrir des objets dont ils ignorent même l’existence.

C’est exactement ce qu’ont fait Hide et Magee dans leur article de juillet, confirmant l’existence de surfaces sur lesquelles les mathématiciens s’interrogeaient depuis des décennies. La conjecture qu’ils ont prouvée et l’histoire qui l’entoure s’inspirent d’un tout autre domaine des mathématiques : la théorie des graphes.

Le maximum possible

Pour les mathématiciens, les graphiques sont des réseaux constitués de points ou de nœuds reliés par des lignes ou des arêtes. Dès 1967, des mathématiciens comme Andrey Kolmogorov étudiaient des réseaux qui imposaient un coût à la connexion de deux nœuds. Cela a conduit à un exemple de ce que l’on appellera plus tard un graphe d’expansion : un graphe qui maintient le nombre d’arêtes à un faible niveau, tout en maintenant une connectivité élevée entre les nœuds.

Les graphiques expanseurs sont depuis devenus des outils cruciaux en mathématiques et en informatique, y compris dans des domaines pratiques comme la cryptographie. À l’instar d’un système routier bien conçu, ces graphiques facilitent le déplacement d’un nœud à un autre sans couvrir l’intégralité du graphique avec des arêtes. Les mathématiciens aiment limiter le nombre d’arêtes en stipulant que chaque nœud ne peut avoir, disons, que trois arêtes en émanant – tout comme vous ne voudriez peut-être pas plus de quelques autoroutes sillonnant votre ville.

Si un ordinateur choisit au hasard où mènent les trois arêtes de chaque nœud, vous constaterez que, surtout lorsque le graphique est très grand, la plupart de ces graphiques aléatoires sont d'excellents expanseurs. Mais bien que l’univers soit rempli de graphiques d’expansion, les êtres humains ont échoué à maintes reprises à les produire à la main.

"Si vous voulez en construire un, vous ne devriez pas les dessiner vous-même", a déclaré Shai Evra , mathématicien à l'Université hébraïque de Jérusalem. "Notre imagination ne comprend pas ce qu'est un expanseur."

L’idée d’expansion, ou de connectivité, peut être mesurée de plusieurs manières. La première consiste à couper un graphique en deux gros morceaux en coupant les bords un par un. Si votre graphique est constitué de deux groupes de nœuds, les groupes étant reliés par une seule arête, il vous suffit de couper une seule arête pour la diviser en deux. Plus le graphique est connecté, plus vous devrez découper d'arêtes.

Une autre façon d’accéder à la connectivité consiste à parcourir le graphique de nœud en nœud, en choisissant à chaque étape une arête sur laquelle marcher au hasard. Combien de temps faudra-t-il pour visiter tous les quartiers du graphique ? Dans l'exemple avec les deux amas, vous serez confiné à l'une des bulles à moins que vous ne traversiez la seule connexion avec l'autre moitié. Mais s’il existe de nombreuses façons de voyager entre les différentes zones du graphique, vous parcourrez l’ensemble en peu de temps.

Ces mesures de connectivité peuvent être quantifiées par un nombre appelé écart spectral. L'écart spectral est nul lorsque le graphe est complètement déconnecté, par exemple s'il est composé de deux groupes de nœuds qui ne sont pas du tout attachés l'un à l'autre. À mesure qu’un graphe devient plus connecté, son écart spectral aura tendance à s’élargir.

Mais l’écart spectral ne peut aller que jusqu’à un certain point. En effet, les deux caractéristiques déterminantes des graphes d’expansion – peu d’arêtes et une connectivité élevée – sont apparemment en contradiction l’une avec l’autre. Mais en 1988, Gregory Margulis et, indépendamment, Sarnak et deux co-auteurs ont décrit des " expanseurs optimaux " – des graphiques dont l’écart spectral est aussi élevé que le maximum théorique. " C'est choquant qu'ils existent ", a déclaré Sarnak.

Plus tard, les mathématiciens prouveront que la plupart des grands graphes sont proches de ce maximum. Mais le travail avec les expanseurs optimaux et les graphiques aléatoires ne consistait pas simplement à trouver les bons endroits pour placer les arêtes. Cela nécessitait le recours à des techniques étranges et sophistiquées empruntées à la théorie des nombres et des probabilités.

Auteur: Internet

Info: https://www.quantamagazine.org/ - Leila Sloman, 2 juin 2022

[ . ]

 
Commentaires: 1
Ajouté à la BD par miguel

nano-monde relatif

Une expérience quantique montre que la réalité objective n'existe pas

Les faits alternatifs se répandent comme un virus dans la société. Aujourd'hui, il semble qu'ils aient même infecté la science, du moins le domaine quantique. Ce qui peut sembler contre-intuitif. Après tout, la méthode scientifique est fondée sur les notions de fiabilité d'observation, de mesure et de répétabilité. Un fait, tel qu'établi par une mesure, devrait être objectif, de sorte que tous les observateurs puissent en convenir.

Mais dans un article récemment publié dans Science Advances, nous montrons que, dans le micro-monde des atomes et des particules régi par les règles étranges de la mécanique quantique, deux observateurs différents ont droit à leurs propres faits. En d'autres termes, selon nos  meilleures théories des éléments constitutifs de la nature elle-même, les faits peuvent en fait être subjectifs.

Les observateurs sont des acteurs puissants dans le monde quantique. Selon la théorie, les particules peuvent se trouver dans plusieurs endroits ou états à la fois - c'est ce qu'on appelle une superposition. Mais curieusement, ce n'est le cas que lorsqu'elles ne sont pas observées. Dès que vous observez un système quantique, il choisit un emplacement ou un état spécifique, ce qui rompt la superposition. Le fait que la nature se comporte de cette manière a été prouvé à de multiples reprises en laboratoire, par exemple dans la célèbre expérience de la double fente.

En 1961, le physicien Eugene Wigner a proposé une expérience de pensée provocante. Il s'est demandé ce qui se passerait si l'on appliquait la mécanique quantique à un observateur qui serait lui-même observé. Imaginez qu'un ami de Wigner lance une pièce de monnaie quantique - qui se trouve dans une superposition de pile ou face - dans un laboratoire fermé. Chaque fois que l'ami lance la pièce, il obtient un résultat précis. On peut dire que l'ami de Wigner établit un fait : le résultat du lancer de la pièce est définitivement pile ou face.

Wigner n'a pas accès à ce fait de l'extérieur et, conformément à la mécanique quantique, il doit décrire l'ami et la pièce comme étant dans une superposition de tous les résultats possibles de l'expérience. Tout ça parce qu'ils sont " imbriqués " - connectés de manière effrayante au point que si vous manipulez l'un, vous manipulez également l'autre. Wigner peut maintenant vérifier en principe cette superposition à l'aide d'une "expérience d'interférence", un type de mesure quantique qui permet de démêler la superposition d'un système entier, confirmant ainsi que deux objets sont intriqués.

Lorsque Wigner et son ami compareront leurs notes par la suite, l'ami insistera sur le fait qu'ils ont observé des résultats précis pour chaque lancer de pièce. Wigner, cependant, ne sera pas d'accord lorsqu'il observera l'ami et la pièce dans une superposition. 

Voilà l'énigme. La réalité perçue par l'ami ne peut être réconciliée avec la réalité extérieure. À l'origine, Wigner ne considérait pas qu'il s'agissait d'un paradoxe, il affirmait qu'il serait absurde de décrire un observateur conscient comme un objet quantique. Cependant, il s'est ensuite écarté de cette opinion. De plus et, selon les canons officiels de mécanique quantique, la description est parfaitement valide.

L'expérience

Le scénario demeura longtemps une expérience de pensée intéressante. Mais reflètait-t-il la réalité ? Sur le plan scientifique, peu de progrès ont été réalisés à ce sujet jusqu'à très récemment, lorsque Časlav Brukner, de l'université de Vienne, a montré que, sous certaines hypothèses, l'idée de Wigner peut être utilisée pour prouver formellement que les mesures en mécanique quantique sont subjectives aux observateurs.

Brukner a proposé un moyen de tester cette notion en traduisant le scénario de l'ami de Wigner dans un cadre établi pour la première fois par le physicien John Bell en 1964.

Brukner a ainsi conçu deux paires de Wigner et de ses amis, dans deux boîtes distinctes, effectuant des mesures sur un état partagé - à l'intérieur et à l'extérieur de leur boîte respective. Les résultats pouvant  être récapitulés pour être finalement utilisés pour évaluer une "inégalité de Bell". Si cette inégalité est violée, les observateurs pourraient avoir des faits alternatifs.

Pour la première fois, nous avons réalisé ce test de manière expérimentale à l'université Heriot-Watt d'Édimbourg sur un ordinateur quantique à petite échelle, composé de trois paires de photons intriqués. La première paire de photons représente les pièces de monnaie, et les deux autres sont utilisées pour effectuer le tirage au sort - en mesurant la polarisation des photons - à l'intérieur de leur boîte respective. À l'extérieur des deux boîtes, il reste deux photons de chaque côté qui peuvent également être mesurés.

Malgré l'utilisation d'une technologie quantique de pointe, il a fallu des semaines pour collecter suffisamment de données à partir de ces seuls six photons afin de générer suffisamment de statistiques. Mais finalement, nous avons réussi à montrer que la mécanique quantique peut effectivement être incompatible avec l'hypothèse de faits objectifs - nous avions violé l'inégalité.

La théorie, cependant, repose sur quelques hypothèses. Notamment que les résultats des mesures ne sont pas influencés par des signaux se déplaçant à une vitesse supérieure à celle de la lumière et que les observateurs sont libres de choisir les mesures à effectuer. Ce qui peut être le cas ou non.

Une autre question importante est de savoir si les photons uniques peuvent être considérés comme des observateurs. Dans la proposition de théorie de Brukner, les observateurs n'ont pas besoin d'être conscients, ils doivent simplement être capables d'établir des faits sous la forme d'un résultat de mesure. Un détecteur inanimé serait donc un observateur valable. Et la mécanique quantique classique ne nous donne aucune raison de croire qu'un détecteur, qui peut être conçu comme aussi petit que quelques atomes, ne devrait pas être décrit comme un objet quantique au même titre qu'un photon. Il est également possible que la mécanique quantique standard ne s'applique pas aux grandes échelles de longueur, mais tester cela reste un problème distinct.

Cette expérience montre donc que, au moins pour les modèles locaux de la mécanique quantique, nous devons repenser notre notion d'objectivité. Les faits dont nous faisons l'expérience dans notre monde macroscopique semblent ne pas être menacés, mais une question majeure se pose quant à la manière dont les interprétations existantes de la mécanique quantique peuvent tenir compte des faits subjectifs.

Certains physiciens considèrent que ces nouveaux développements renforcent les interprétations qui autorisent plus d'un résultat pour une observation, par exemple l'existence d'univers parallèles dans lesquels chaque résultat se produit. D'autres y voient une preuve irréfutable de l'existence de théories intrinsèquement dépendantes de l'observateur, comme le bayésianisme quantique, dans lequel les actions et les expériences d'un agent sont au cœur de la théorie. D'autres encore y voient un indice fort que la mécanique quantique s'effondrera peut-être au-delà de certaines échelles de complexité.

Il est clair que nous avons là de profondes questions philosophiques sur la nature fondamentale de la réalité.

Quelle que soit la réponse, un avenir intéressant nous attend.

Auteur: Internet

Info: https://www.livescience.com/objective-reality-not-exist-quantum-physicists.html. Massimiliano Proietti et Alessandro Fedrizzi, 19 janvier 2022

 

Commentaires: 0

Ajouté à la BD par miguel

syntaxe diachronique

Le premier département de la logique, la grammaire spéculative, est une analyse de la structure des signes : avant même qu’un argument soit analysé en termes de validité et d’utilité, il est nécessaire qu’il soit soumis à une analyse grammaticale. Un argument consiste dans la représentation du fait qu’une proposition découle d’autres propositions, et cette représentation peut être représentée dans une proposition ("si les prémisses, alors la conclusion"). L’analyse de la nature de la proposition est donc préliminaire à l’analyse de la nature, de la validité et de l’utilité de l’argument. La première branche de la logique devra donc avant tout consister en une analyse de la proposition. L’essai "L’essence du raisonnement", chapitre VI du traité sur la logique "How to Reason", qui fut projeté mais jamais achevé, contient la présentation la plus complète de la section grammaticale de la logique que Peirce a écrite avant le Syllabus de 1903. Il existe deux versions de ce chapitre (MS 408 et MS 409). Le point de départ est l’enquête sur la nature de la proposition : 

"§ 62. Examinons maintenant en quoi consiste l’élément assertorique d’un jugement. Qu’y a-t-il dans une affirmation qui en fait plus qu’une simple complication d’idées ? Quelle est la différence entre émettre le mot "singe parlant", soutenir que les singes parlent, et s’informer si les singes parlent ou non ? C’est une question difficile. (MS 409, p. 94)"

La différence à laquelle Peirce fait allusion est évidemment celle, traditionnelle, entre termes, propositions et arguments. Traditionnellement, une proposition est conçue comme une combinaison de termes, et un argument comme une combinaison de propositions. Toutefois, selon Peirce, ce n’est pas la compositionnalité qui distingue ces trois formes ; le terme "singe parlant" n’est pas moins composé que la proposition selon laquelle les singes parlent. La différence entre un terme et une proposition, écrira Peirce dans les "Prolégomènes à une apologie du pragmatisme" de 1906, se trouve dans la fonction logique accomplie.

Selon l’analyse traditionnelle, une proposition est une connexion de termes au moyen d’une copule. Selon Peirce, cette analyse est viciée par l’hypothèse de l’universalité de la structure syntaxique des langues indo-européennes. Sur la base des Principes généraux de la structure des langues de James Byrne mentionnés à plusieurs reprises dans "L’essence du raisonnement", Peirce traite de la structure syntaxique du signe propositionnel dans différentes langues naturelles, dans le but de montrer que l’analyse traditionnelle non seulement ne reflète qu’un petit pourcentage des langues existantes (celles indo-européennes), mais en outre ne reflète pas la structure logique fondamentale du signe propositionnel. Par exemple, dans de nombreuses langues non indo-européennes, la fonction de la copule est accomplie par d’autres éléments linguistiques, parfois par la simple juxtaposition des éléments.

Dans l’ancienne langue égyptienne, qui semble être à portée d’oreille de l’origine de la parole, l’expression la plus explicite d’une copule se fait au moyen d’un mot qui est réellement le pronom relatif, [qui]. Or, à celui qui considère une phrase du point de vue indo-européen, c’est un casse-tête de comprendre comment "que" peut remplir cet office à la place du "est". Pourtant rien n’est plus naturel. Le fait que les hiéroglyphes viennent si facilement aux Égyptiens montre combien leur pensée est picturale. Quand l’Égyptien dessine une image hiéroglyphique comme celle-ci (fig 1) l’Aryen peut être perplexe pour savoir ce qu’il veut dire, mais à l’Égyptien il indique clairement "Ce à propos de quoi nous écrivons est un soldat", et quand il fait l’image (fig 2) le sens est "Ce à propos de quoi nous écrivons est abattu". Écrivez cela avec [pu] (fig 3) "que" entre eux, et mettez un nom propre, disons Aahmes, devant eux, et nous avons "Aahmes sur quoi nous écrivons est un soldat dont ce que nous écrivons à propos est abattu", c’est-à-dire Aahmes le soldat est renversé. Êtes-vous tout compte fait absolument sûr que ce n’est pas le moyen le plus efficace d’analyser le sens d’une proposition ? (MS 409, p. 139)

Le hiéroglyphe (fig1) ne correspond pas au nom commun "soldat", mais à ce que Peirce appelle un rhème "est un soldat" ; de même, le hiéroglyphe (fig 2) correspond non pas au prédicat "abattu" mais au rhème "est abattu". Mais qu’est-ce qu’un rhème ? Un rhème, explique Peirce, est ce qui reste quand tous les éléments d’une proposition qui peuvent jouer le rôle de sujet ont été soustraits. La structure d’un rhème est constituée du nombre de places sujets qu’il manifeste : si on soustrait le sujet Aahmes de la proposition "Aahmes est un soldat", ce qui reste ("est un soldat") est un rhème.

La similitude étroite entre la notion peircienne de rhème et ce que Frege a appelé un concept (fonction insaturée) et Russell une fonction propositionnelle a été remarquée depuis longtemps, et il n’est pas besoin d’y insister ici . Peirce rappelle que les grammaires insistent à tort sur le sujet nominatif, alors que du point de vue d’une grammaire universelle ou spéculative le sujet nominatif n’a pas plus de droit à être considéré comme sujet à part entière de la proposition que les objets directs ou indirects. Tant et si bien que, comme Peirce le rappelle toujours sur la base des Principes de Byrne, dans les langues inuites et samoyèdes le sujet d’un verbe transitif se met au cas possessif, tandis que dans les langues malaises et dans la langue basque on utilise l’ablatif. L’accent mis sur le sujet nominatif est, encore une fois, un préjugé grammatical indo-européen, et la logique doit être en mesure de faire sans lui.

Il est important de souligner que le concept de rhème montre que la copule est un élément dont on peut se dispenser dans la syntaxe. Dans l’ancienne langue égyptienne que Peirce utilise à titre d’exemple, le pronom [pu] peut servir de copule. C’est possible, selon Peirce, parce que dans cette langue les éléments dont une proposition se compose sont des rhemata, c’est-à-dire des prédicats insaturés (incomplets) qui sont saturés grâce à l’identification des positions-sujet que chacun d’eux manifeste dans sa propre structure. Si nous pensons au terme comme à un élément saturé ("soldat", "abattu"), le seul moyen de parvenir à une proposition à partir de ces termes se fait au moyen d’une copule ; mais si nous pensons au terme comme à un élément insaturé ("est un soldat", "est abattu"), le seul moyen d’obtenir une proposition est par la saturation, autrement dit en identifiant les positions-sujet indéterminées : "quelque chose est un soldat, lequel est abattu".

Le "nom commun" des grammairiens est un élément inessentiel de l’analyse logique. Dans de nombreuses langues historico-naturelles, il n’y a pas de noms communs, mais seulement des verbes :

Il semble que, en un sens large, les mots ordinaires dans la majeure partie des langues sont assertoriques. Ils affirment dès qu’ils sont de quelque façon liés à un objet. Si vous écrivez VERRE sur une boîte, on comprendra que vous voulez dire que la boîte contient du verre. Cela semble certainement la déclaration la plus vraie pour la plupart des langues de dire qu’un symbole* est un signe conventionnel qui, étant attaché à un objet, signifie que cet objet a certains caractères (MS 409, p. 95).

Auteur: Bellucci Francesco

Info: In "Peirce, philosophe du langage" Dans Cahiers philosophiques 2017/3 (N° 150), pp 91 à 110

[ fonction motrice ] [ syntagmes ] [ rationalisme onomasiologique ] [ méta-sémantique ] [ vocables ] [ mots-objets ] [ idéogrammes ] [ pictogrammes ]

 

Commentaires: 0

Ajouté à la BD par miguel

russie - occident

Publié il y a près d’un an, alors que l’invasion russe de l’Ukraine ne faisait que commencer, Le mage du Kremlin (Gallimard) a reçu à l’automne le prix de l’Académie française, et a manqué de très peu de remporter aussi le prix Goncourt.

Son auteur, Giuliano Da Empoli, Italo-suisse né en 1973, est le fils d’un conseiller politique blessé lors d’un attentat en 1986. Il a lui-même été conseiller politique pour Matteo Renzi. 

Politique-fiction

Depuis le succès de son livre, qui mêle politique et littérature, on voit régulièrement passer sa chevelure grisonnante sur les télévisions et les radios françaises. Avec son léger accent italien trainant, il y gratifie ses auditeurs de formules marquantes, comme, par exemple "j’ai l’habitude de dire que l’Italie est la Silicon Valley du populisme".

Le Russe Vladislav Sourkov, cofondateur du parti Russie unie, qui mena Vladimir Poutine au pouvoir, photographié ici en 2010. Photo : Wikimedia Commons.

L’ouvrage se penche sur un personnage énigmatique, Vadim Baranov, largement inspiré par Vladislav Sourkov, conseiller politique et idéologue de Vladimir Poutine depuis la fin des années 1990 jusqu’à sa prise de distance avec le Kremlin, en 2020. Au milieu des anciens du KGB, Sourkov, fan de John Lennon et du rappeur Tupac, détonnait quelque peu. En quelque sorte, il était l’un des derniers vestiges, sous l’ère Poutine, de la Russie hédoniste des années 1990, même s’il a lui aussi participé à la forte verticalisation du pouvoir. 

Un grand-père aristo, un père communiste

La part de fiction qu’ajoute Da Empoli semble se résumer à l’histoire d’amour compliquée de Baranov ("il n’existe pas une femme qui soit aussi précieuse que la vérité qu’elle nous révèle en nous faisant souffrir"), à sa solide culture classique, très française, pétrie de citations de Chamfort et de La Bruyère, et à sa généalogie. 

Baranov est le petit-fils d’un aristocrate excentrique, insolent à l’égard du pouvoir soviétique, qui "se serait fait pendre plutôt que de renoncer à un bon mot". Et le fils d’un apparatchik conformiste, qui a mené sa fronde à l’égard du paternel en adhérant totalement au régime communiste. "Je peux comprendre. C’est aussi une rébellion à sa façon. Quand tu grandis auprès d’un personnage tellement hors du commun, la seule révolte possible est le conformisme".

Quatre décennies de politique russe

Au tout début du roman, un narrateur français, de passage en Russie, échange avec un inconnu sur Twitter à coup d’allusions à Evgueni Zamiatine, auteur de science-fiction et compagnon de route très rapidement désillusionné de la Révolution de 1917. Un beau jour, il se laisse entrainer dans une grosse berline qui parcourt les kilomètres dans la forêt russe, avec une inquiétude montante au fil des heures : "La curiosité amusée qui m’avait habité jusque-là était en train de faire place à une certaine appréhension. En Russie, me disais-je, tout se passe en général très bien, mais quand les choses vont mal, elles vont vraiment très mal. À Paris, la pire chose qui puisse vous arriver c’est un restaurant surestimé, le regard méprisant d’une jolie fille, une amende. À Moscou, la gamme des expériences déplaisantes est considérablement plus vaste". Le narrateur se retrouve dans la riche demeure de Vadim Baranov et laisse débuter le long monologue de son hôte qui passe en revue quatre décennies de vie politique russe. Baranov raconte sa jeunesse soviétique et les paniers de victuailles réservés aux hauts fonctionnaires, puis la parenthèse libérale de la décennie 90, au cours de laquelle Baranov devient producteur d’une télévision plus trash encore que celle de l’Occident de la même époque, et l’ascension de Poutine, que l’oligarque Boris Berezovski vient dénicher dans les profondeurs du deep state. 

La première rencontre entre Poutine et Baranov, présentés l’un à l’autre par Berezovsky, est marquante : à ce moment-là, "le Tsar n’était pas encore le Tsar" ; c’est un fonctionnaire un peu terne, la main presque moite, à l’air un peu idiot. Bref, l’homme idéal selon Berezovsky (le vrai maître de la Russie de cette époque) pour donner un tour de vis au régime russe sans sacrifier pour autant les privilèges glanés par les oligarques. Avoir l’air un peu idiot n’a jamais été une mauvaise chose en politique : Louis-Napoléon Bonaparte avait volontiers joué ce jeu auprès des tenants de la droite de son époque, avant de ravir le pouvoir pendant plus de deux décennies. Juan Carlos avait également usé de la même stratégie auprès de Franco : "Faire l’idiot est une discipline fatigante, très dure pour les nerfs", confia-t-il plus tard. 

Berezovsky, capable, lui, de combiner à un haut niveau "intelligence pointue" et "stupidité abyssale", s’aperçoit mais un peu tard qu’il ne maîtrise plus du tout sa créature politique.

Hantises obsidionales et égo russes

Da Empoli parvient à se placer dans la tête du conseiller russe, à restituer les hantises obsidionales d’un pays qui se sent encerclé et qui a eu le sentiment d’être humilié par l’Occident pendant toutes les années 1990. On se souvient de la fameuse scène du fou rire de Clinton face à un Eltsine ivre mort et l’on se dit, nostalgiques, que le monde était globalement plus sûr quand nous étions coincés entre une Russie gouvernée par un alcoolique et une Amérique par un obsédé sexuel. Si la séquence a alimenté pendant des années le bêtisier des Enfants de la télé, elle a aussi mis plus bas que terre l’égo national russe. Lors de la première rencontre Poutine-Clinton, le nouveau président russe fixe tout de suite les nouvelles règles.  Baranov raconte : "Avec lui ce serait différent. Plus de claques dans le dos ni de gros rires. Clinton a été déçu, c’est évident. Il pensait que désormais tous les présidents russes seraient de braves portiers d’hôtels, gardiens des plus vastes ressources de gaz de la planète pour le compte de multinationales américaines. Pour une fois, lui et ses conseillers sont repartis un peu moins souriants que lorsqu’ils sont arrivés". Da Empoli restitue donc la mentalité du conseiller russe, sans entrer dans le jeu de la propagande russe. De toute façon, Baranov-Sourkov est un peu trop décalé, un peu trop occidental pour être totalement dupe de celle-ci.

Écrit avant le début de l’invasion russe, le livre n’avait évidemment pas anticipé le contexte actuel explosif. L’Ukraine n’est toutefois pas absente du roman, Baranov ayant observé attentivement la contestation ukrainienne des élections de 2004 autour d’une jeunesse rassemblée sur la place Maïdan et appuyée notamment par l’argent de Berezovsky. Cette subversion ukrainienne va inspirer directement le régime russe, qui va tenter de se mettre dans la poche tout ce que la Russie compte de marginaux et de subversifs, des bikers aux communistes en passant par l’extrême-droite, afin de maîtriser le mouvement. Baranov reçoit dans son bureau du Kremlin un certain Zaldostanov, chef d’un gang de motards. Baranov le met rapidement au service du pouvoir, grâce à une observation politique froide et clinique : "J’ai pu constater à plusieurs reprises que les rebelles les plus féroces sont parmi les sujets les plus sensibles à la pompe du pouvoir. Et plus ils grognent quand ils sont devant la porte, plus ils glapissent de joie une fois passé le seuil. Contrairement aux notables, qui cachent parfois des pulsions anarchiques sous l’habitude des dorures, les rebelles sont immanquablement éblouis comme les animaux sauvages face aux phares des routiers".

Porté par son écriture mais aussi par l’actualité, le livre connait un grand succès et a fait l’objet de plusieurs tirages depuis sa sortie. Un livre que l’auteur n’écrirait peut-être plus aujourd’hui. En décembre dernier, dans l’Express, il confiait : "il y a quelques années, Vladislav Sourkov m’apparaissait comme un personnage romanesque. C’était déjà un "méchant", mais il était aussi féru de théâtre d’avant-garde et présentait un profil atypique pour un homme de pouvoir. J’ai écrit Le Mage du Kremlin dans un autre contexte. Aujourd’hui, avec la guerre en Ukraine, je n’en aurais plus envie… 



 

Auteur: Magellan Frédéric

Info: Causeur.fr, 20 février 2023. Giuliano Da Empoli n’écrirait plus “Le mage du Kremlin”, aujourd’hui

[ littérature ]

 

Commentaires: 0

Ajouté à la BD par miguel

pédagogie

Les parents envoient leurs enfants à l'école avec les meilleurs intentions, pensant que c'est ce dont ils ont besoin pour devenir des adultes productifs et épanouis. Beaucoup doutent du bon fonctionnement des écoles, mais la sagesse conventionnelle veut que ces problèmes peuvent être résolus avec plus d'argent, de meilleurs enseignants, des programmes plus difficiles, et/ou des examen plus rigoureux.
Mais si le problème était l'école en elle-même ? La triste réalité est que l'une de nos institutions préférées est, par sa nature même, ne répond pas aux besoins de nos enfants et de notre société.
L'école est un lieu où les enfants doivent obligatoirement aller, et où leur liberté est fortement restreinte - bien plus restreinte que le toléreraient la plupart des adultes pour leurs lieux de travail. Ces dernières décennies, nous avons forcés nos enfants à rester de plus en plus de temps dans ce genre de cadre, et des preuves solides (résumées dans mon dernier livre) indiquent que c'est souvent la cause de graves dommages psychologiques. Par ailleurs, plus les scientifiques étudient le mode d'apprentissage naturel des enfants, plus nous comprenons que les enfants apprennent profondément et véritablement, et avec plus d'enthousiasme, dans des conditions presque opposées à celles de l'école.
La scolarité obligatoire fait partie intégrante de notre culture depuis plusieurs générations. La plupart des gens auraient du mal à imaginer aujourd'hui comment les enfants apprendraient ce dont ils ont besoin pour réussir dans notre culture sans l'école. Le président Obama et le secrétaire à l'éducation Arne Duncan aiment tellement l'école qu'ils souhaiteraient même allonger les jours et les années scolaires. La plupart des gens pensent que la conception de base des écoles, telle qu'on la connaît aujourd'hui, est validée par des preuves scientifiques qui montreraient que c'est ainsi que les enfants apprennent le mieux. Mais en réalité, rien n'est plus éloigné de la vérité.
Les écoles telles que nous les connaissons aujourd'hui sont le produit de l'histoire, et non pas d'une recherche sur l'apprentissage. La conception actuelle de nos écoles découle de la Réforme protestante, lorsque des écoles ont été créées pour apprendre aux enfants à lire la Bible, à croire l'Ecriture et les figures d'autorité sans les remettre en question. Les premiers fondateurs des écoles l'indiquaient clairement dans leurs écrits. L'idée que les écoles puissent permettre le développement de la pensée critique, de la créativité, de l'initiative personnelle ou de la capacité à apprendre par soi-même - le genre de compétences les plus importantes dans notre économie actuelle - ne leur effleurait même pas l'esprit. Pour eux, encourager les enfants à agir par eux-mêmes était un péché qu'il fallait casser ou réprimer.
Ce n'est pas parce que les écoles ont été reprises par l'Etat, sont devenues obligatoires et à but laïque, que la structure de base et les méthodes d'enseignement ont changé. Les tentatives ultérieures de réformes ont échoué, et même si elles ont joué sur des points mineurs de la structure, elles n'ont pas modifié la conception de base. La méthode hiérarchique, par l'évaluation, qui suppose que l'apprentissage est motivé par un système de récompense et de punitions plutôt que par la curiosité et un vrai désir d'apprendre, sert surtout à l'endoctrinement et l'obéissance et pas à grand-chose d'autre. Il n'est pas étonnant que de nombreux grands entrepreneurs et innovateurs dans le monde ont quitté l'école à un jeune âge (comme Thomas Edison), ou disaient détecter l'école et apprendre de leur côté, et pas grâce à elle (comme Albert Einstein).
Il n'est pas étonnant qu'aujourd'hui même les " meilleurs élèves " (et peut-être surtout eux) disent souvent être " lessivés " par le processus de scolarisation. Un des meilleurs étudiants diplômés, a expliqué à un journaliste pourquoi il remettait à plus tard l'université : " j'étais rongé par le fait de bien réussir et je ne dormais pas beaucoup ces dernières deux années. J'avais cinq ou six heures de devoirs tous les soirs. La dernière chose que je voulais était que ça continue. "
La plupart de élèves - qu'ils aient de bons résultats, des résultats moyens ou qu'ils soient en échec scolaire - ont perdu leur goût de l'apprentissage au moment où ils entrent au collège ou au lycée. Dans une récente étude, Mihaly Czikszentmihalyl et Jeremy Hunter ont placé sur plus de 800 élèves de la sixième jusqu'à la terminale, dans 33 écoles différentes du pays, une montre-bracelet spéciale qui émettait un signal spécial à des moments aléatoires de la journée. A chaque fois que le signal retentissait, ils devaient remplir un questionnaire indiquant où ils étaient, ce qu'ils faisaient et s'ils étaient heureux ou malheureux. Ils étaient de loin le moins heureux quand ils étaient à l'école et ils étaient le plus heureux quand ils étaient hors de l'école, à jouer ou discuter avec des amis. A l'école, ils éprouvaient de l'ennui, de l'anxiété ou les deux. D'autres chercheurs ont montré qu'à chaque nouvelle année, les élèves adoptent des attitudes de plus en plus négatives envers les matières enseignées, en particulier pour les mathématiques et les sciences.
La société en général tend à ignorer ces conclusions. Nous ne sommes pas surpris de voir que l'apprentissage soit désagréable. Nous pensons que c'est une pilule à avaler qui finira par payer sur le long terme. Certaines personnes pensent même que le fait même que l'école soit désagréable est une bonne chose car elle permet aux enfants d'apprendre à tolérer les situations désagréables, car la vie après l'école est désagréable. Peut-être que ce triste point de vue découle de l'école. Bien sûr, il y a des hauts et des bas dans la vie, à l'âge adulte comme dans l'enfance. Mais il y a bien des façons d'apprendre à tolérer les désagréments sans devoir rajouter une scolarité désagréable. La recherche a montré que les personnes de tous âges apprennent mieux quand elles sont motivées, approfondissant des questions qui les concernent réellement, et des objectifs qui sont leurs propres dans la vie. Dans de telles conditions, apprendre est en général amusant.
J'ai passé une grande partie de ma carrière de chercheur à étudier comment les enfants apprennent. Les enfants viennent au monde avec la capacité magnifique de diriger leur propre éducation. La nature leur a donnés de puissants instincts éducatifs, comme la curiosité, le ludisme, la sociabilité, l'attention à ce qu'il se passe autour d'eux, le désir de grandir et de faire ce que les enfants plus âgés et adultes peuvent faire.
La preuve que tout cela s'applique aux petits enfants se trouve sous les yeux de tous ceux qui ont regardé un enfant grandir de la naissance jusqu'à l'âge scolaire. Par leurs propres efforts, les enfants apprennent à marcher, courir, sauter et grimper. Ils apprennent leur langue maternelle à partir de rien, et partant de là, apprennent à affirmer leur volonté, débattent, amusent, ennuient, se font des amis, charment et posent des questions. En interrogeant et en explorant, ils acquièrent énormément de connaissances sur leur environnement matériel et social, et par leur jeu, des compétences pratiques qui favorisent leur développement physique, intellectuel, social et émotionnel. Ils font tout cela avant que quiconque, de quelque manière systématique que ce soit, essaye de leur enseigner quelque chose.
Cette progression et capacité d'apprendre étonnante ne s'arrête pas toute seule quand l'enfant a 5 ou 6 ans. C'est nous qui y mettons un terme avec ce système coercitif qu'est l'école. La plus importante et mémorable leçon de notre système scolaire est que l'apprentissage sous la forme d'un travail doit être évité autant que possible.
Mes recherches portaient sur l'apprentissage chez les enfants qui sont " d'âge scolaire " mais qui ne sont pas envoyés à l'école, ou qui ne sont pas dans une école tel qu'on l'entend habituellement. J'ai examiné comment les enfants apprennent dans les cultures qui n'ont pas d'écoles, surtout les cultures de chasseurs-cueilleurs, les genres de cultures dans lesquelles notre espèce a évolué. J'ai également étudié l'apprentissage dans notre culture, quand on laisse aux enfants le soin de leur propre éducation et qu'on leur donne la possibilité et les moyens de s'instruire eux-mêmes. Dans ces conditions, la curiosité naturelle des enfants et leur goût de l'apprentissage persiste tout au long de l'enfance et de l'adolescence, jusqu'à l'âge adulte.

Auteur: Gray Peter

Info: Internet

[ fermeture ] [ normalisation ] [ pouvoir ] [ judéo christianisme ]

 

Commentaires: 0

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

indéterminisme

L'essor des thérapies quantiques
Basée sur les découvertes de la physique quantique, une nouvelle façon de se soigner fait de plus en plus parler d'elle. Son postulat : nos cellules émettent des informations, qui déterminent notre état de santé et sur lesquelles il est possible d'agir. Explications.
"Il y a dix ans, on m'a diagnostiqué un lupus érythémateux, une maladie auto-immune chronique, raconte Lucia, une artiste de 50 ans. Depuis, suivie à l'hôpital, j'en étais arrivée à prendre onze médicaments par jour... Il y a six mois, un ami est venu me voir bouleversé après avoir essayé une nouvelle technique de soin qui, disait-il, n'avait rien à voir ni avec la médecine conventionnelle, ni avec les médecines naturelles. Une "machine" donnait des résultats dont l'exactitude l'avait dérouté. Je suis cartésienne et je n'ai pas peur des expériences nouvelles. J'ai donc consulté un thérapeute qui utilise cet appareil de biofeedback. En quelques minutes, l'écran a affiché clairement tout mon parcours médical ! Puis cette machine a effectué un traitement très étrange, consistant à envoyer des "informations" dans le corps. Après quelques séances, la plupart de mes symptômes ont disparu et, aujourd'hui, avec l'accord de mon médecin, je ne prends plus qu'un médicament par jour."
Un diagnostic global
Un appareil capable d'effectuer un diagnostic précis et de traiter aussi rapidement une maladie auto-immune ? Si un cas ne vaut pas pour tous, les résultats sont étonnants. Et ce n'est qu'un des aspects de cette approche de la santé physique et psychique, qui se répand au point que certains médecins et chercheurs n'hésitent plus à dire qu'un changement de paradigme est en train de s'opérer. Le premier congrès sur les thérapies quantiques d'Aix-en- Provence, en novembre 2010, a réuni des scientifiques du monde entier, parmi lesquels l'équipe du professeur Luc Montagnier, prix Nobel de médecine 2008. Depuis, les livres sur le sujet, les congrès affichant complets, les appareils de biofeedback ou les méthodes quantiques se multiplient...
Les "thérapies quantiques", ou la "médecine quantique", nous demandent de voir la vie, la santé et la maladie d'une tout autre façon : notre corps n'est plus un assemblage d'organes à traiter séparément, comme le fait la médecine conventionnelle, c'est un champ vibratoire et énergétique constitué de milliards de particules de lumière - des photons - qui échangent en permanence des informations, un univers lumineux dans lequel l'esprit et la matière ne font qu'un. Avec une idée clé : ce ne sont pas les échanges biochimiques de nos cellules qui déterminent notre état de santé, mais les informations qu'elles se communiquent entre elles. Ici, l'origine de la maladie n'est donc pas un problème purement biologique, mais un défaut d'information ; le symptôme n'est qu'une réaction à ce dernier.
Pour celui qui ne connaît pas le monde scientifique, l'idée peut sembler délirante. Pourtant, elle repose sur des dizaines d'années de recherches, commencées il y a un siècle avec Albert Einstein et ses travaux sur la nature de la lumière. Au fil des décennies, la physique quantique - qui décrit le comportement des atomes et des particules subatomiques - s'est développée en marge de la physique classique, car elle ne répond pas aux mêmes règles. La plus importante, pour comprendre le fondement de la médecine quantique : les ondes électromagnétiques sont en même temps des photons. Ces photons du corps humain sont loin d'être des vues de l'esprit : au cours des années 1970, Fritz-Albert Popp, un biophysicien allemand, a découvert l'existence de ce qu'il a appelé les " bi photons ", des particules de lumière émises par nos cellules, qu'il a réussi à filmer. Ces minuscules courants lumineux, invisibles à l'oeil nu, portent les informations et contrôlent notre organisme. Mais pas n'importe comment.
Des capacités d'auto guérison stimulées
L'une des découvertes les plus importantes de la physique quantique, reprise et développée dans la thérapie quantique, est, en effet, la théorie des "champs énergétiques" : ce sont eux qui organisent et contrôlent notre corps. Ils forment un tout. En somme, le corps humain est une structure organisée d'informations. Ce que les Chinois ont compris depuis longtemps avec l'acupuncture, qui traite les flux d'énergie du corps ; ou les Indiens, avec leur médecine ayurvédique qui traite le "corps de lumière" et ses chakras...
Les appareils de biofeedback quantiques sont conçus pour détecter les ondes électromagnétiques, les " fréquences " émises par chacune des cellules de notre corps. Lorsque certaines sont brouillées ou " fausses ", l'appareil renvoie des fréquences " justes " afin de corriger le problème. Imaginez que vous ayez un coup de déprime. Vous appelez votre meilleur ami. Ses paroles rassurantes vous remontent le moral et vous retrouvez assez d'énergie pour reprendre le cours normal de votre vie. L'aide reçue n'est pas " physique ", mais vient des mots réconfortants. Or ce flot d'informations vous a été transmis par les fréquences du téléphone. Voilà, de manière imagée, comment fonctionnent les appareils de médecine quantique : ils envoient des ondes extrêmement fines qui " parlent " à nos cellules et leur transmettent des informations, elles-mêmes portées par les photons. Pour reprendre la métaphore, on pourrait dire que les fréquences sont les phrases réconfortantes de votre ami ; et les photons, les mots, avec leur sens.
Si la thérapie quantique fait usage d'appareils électroniques de plus en plus sophistiqués, comme le Scio, le Korotkov, le Mora ou le Life, cette approche de la médecine n'est pour autant pas mécaniste : les machines ne fonctionnent pas seules. " En "dialoguant" avec notre champ d'informations, ces appareils stimulent nos capacités d'auto guérison, explique la journaliste et conférencière Lynn McTaggart, auteure du Lien quantique (Macro 2012). Mais rien ne peut se faire sans la présence d'un médecin ou d'un thérapeute. " Une interaction d'autant plus importante que cette nouvelle vision de la santé, donc de la vie, implique non seulement une relation entre le corps et l'esprit, mais l'union fondamentale de l'esprit et de la matière.
J'ai testé un appareil de biofeedback
Des électrodes, un écran d'ordinateur, des graphiques... Notre journaliste, Odile Chabrillac, a confié son corps au Scio, une machine destinée à diagnostiquer les défaillances de l'organisme et à rééquilibrer ce dernier.
" Sitôt arrivée dans le cabinet du praticien en biofeedback qui utilise le Scio, l'un des appareils de médecine quantique dont on parle le plus en ce moment, me voilà assise confortablement et harnachée d'électrodes aux chevilles, aux poignets et sur le front. Face à moi, un mur blanc sur lequel est projeté un écran d'ordinateur rempli d'informations et de graphiques. Adrian M., le thérapeute, me soumet d'abord à un questionnaire sur mon âge, mes habitudes d'hygiène de vie, les maladies et opérations passées, mon niveau de stress... Puis, pendant trois minutes, je suis priée de rester la plus détendue possible, car cette machine va envoyer des milliers d'infirmes fréquences dans mon organisme - plus de dix mille !-, comme autant de questions auxquelles chacune de mes cellules et chacun de mes organes devront répondre. Je ne sens rien, juste de légers picotements...
Le Scio fait un bilan très complet, physiologique et émotionnel. Il affiche d'abord des chiffres sur l'énergie, la pression sanguine, l'hydratation, l'oxygénation, le pH, la vitalité et les échanges cellulaires, la capacité de régénération de mon organisme... L'ensemble est plutôt bon, voire très bon. Ouf ! En revanche, il relève que je suis légèrement intoxiquée par certains produits, le chlore en particulier, et que mon niveau de stress est bien trop important. Le thérapeute me montre les graphiques et m'explique que le stress peut avoir un impact sur ma thyroïde, mon système endocrinien, et sur certains lobes cérébraux, avec un risque de maladie d'Alzheimer. Car cette machine évalue aussi les problèmes potentiels de chaque individu.
Adrian M. me rassure : les appareils quantiques sont fondés sur les probabilités, non sur des certitudes absolues : " C'est comme la météo, m'explique-t-il, si l'on nous annonce de la pluie, mieux vaut prendre un parapluie, mais cela ne veut pas dire qu'il pleuvra ! " Pendant près d'une heure, la machine va procéder au traitement, en renvoyant des fréquences justes pour corriger celles qui sont faussées. En somme, elle donne au corps les bonnes réponses aux questions qu'elle a posées. Là encore, je ne sens rien. La séance dure une heure et demie. (Compter 60 € la séance - prix donné à titre indicatif).
Bilan : si mon mode de vie est plutôt sain, je suis capable de m'empoisonner l'existence, au sens littéral du terme, avec mes " prises de tête ". Voilà ce qui est étonnant ici : cet appareil tient autant compte des facteurs physiologiques et biologiques que de mes émotions, de mon état d'esprit mental et moral, de certains problèmes psychologiques. La fin de la séance se conclut par quelques conseils supplémentaires : boire davantage, bouger, pratiquer le yoga si je peux, rythmer mon mode de vie en fonction de la saison. Le Scio suggère quelques remèdes homéopathiques pour optimiser mon état corporel, mon mental et mon énergie. Sortie de la séance enthousiaste et détendue, je me suis sentie épuisée tout l'après-midi et me réveillerai le lendemain matin légèrement courbaturée. Rendez-vous a été pris pour vérifier si mes efforts auront déjà eu un véritable impact sur mon corps et mon esprit.

Auteur: Pigani Erik

Info:

[ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel