Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 178
Temps de recherche: 0.0755s

biochimie

La découverte d'une nouvelle activité électrique au sein des cellules pourrait modifier la façon dont les chercheurs envisagent la chimie biologique.

Le corps humain est fortement tributaire des charges électriques. Des impulsions d'énergie semblables à des éclairs traversent le cerveau et les nerfs, et la plupart des processus biologiques dépendent des ions électriques qui voyagent à travers les membranes de chaque cellule de notre corps.

Ces signaux électriques sont possibles, en partie, en raison d'un déséquilibre entre les charges électriques présentes de part et d'autre d'une membrane cellulaire. Jusqu'à récemment, les chercheurs pensaient que la membrane était un élément essentiel pour créer ce déséquilibre. Mais cette idée a été bouleversée lorsque des chercheurs de l'université de Stanford ont découvert qu'un déséquilibre similaire des charges électriques pouvait exister entre des microgouttelettes d'eau et d'air.

Aujourd'hui, des chercheurs de l'université Duke ont découvert que ces types de champs électriques existent également à l'intérieur et autour d'un autre type de structure cellulaire appelée condensats biologiques. Comme des gouttelettes d'huile flottant dans l'eau, ces structures existent en raison de différences de densité. Elles forment des compartiments à l'intérieur de la cellule sans avoir besoin de la limite physique d'une membrane.

Inspirés par des recherches antérieures démontrant que les microgouttelettes d'eau interagissant avec l'air ou des surfaces solides créent de minuscules déséquilibres électriques, les chercheurs ont décidé de voir s'il en était de même pour les petits condensats biologiques. Ils ont également voulu voir si ces déséquilibres déclenchaient des réactions d'oxygène réactif, "redox"*comme dans ces autres systèmes.

Publiée le 28 avril dans la revue Chem, leur découverte fondamentale pourrait changer la façon dont les chercheurs envisagent la chimie biologique. Elle pourrait également fournir un indice sur la manière dont les premières formes de vie sur Terre ont exploité l'énergie nécessaire à leur apparition.

"Dans un environnement prébiotique sans enzymes pour catalyser les réactions, d'où viendrait l'énergie ?" s'interroge Yifan Dai, chercheur postdoctoral à Duke travaillant dans le laboratoire d'Ashutosh Chilkoti, professeur émérite d'ingénierie biomédicale.

"Cette découverte fournit une explication plausible de l'origine de l'énergie de réaction, tout comme l'énergie potentielle communiquée à une charge ponctuelle placée dans un champ électrique", a déclaré M. Dai.

Lorsque des charges électriques passent d'un matériau à un autre, elles peuvent produire des fragments moléculaires qui peuvent s'apparier et former des radicaux hydroxyles, dont la formule chimique est OH. Ceux-ci peuvent ensuite s'apparier à nouveau pour former du peroxyde d'hydrogène (H2O2) en quantités infimes mais détectables.

"Mais les interfaces ont rarement été étudiées dans des régimes biologiques autres que la membrane cellulaire, qui est l'une des parties les plus essentielles de la biologie", a déclaré M. Dai. "Nous nous sommes donc demandé ce qui pouvait se passer à l'interface des condensats biologiques, c'est-à-dire s'il s'agissait également d'un système asymétrique.

Les cellules peuvent construire des condensats biologiques pour séparer ou piéger certaines protéines et molécules, afin d'entraver ou de favoriser leur activité. Les chercheurs commencent à peine à comprendre comment fonctionnent les condensats** et à quoi ils pourraient servir.

Le laboratoire de Chilkoti étant spécialisé dans la création de versions synthétiques de condensats biologiques naturels, les chercheurs ont pu facilement créer un banc d'essai pour leur théorie. Après avoir combiné la bonne formule d'éléments constitutifs pour créer des condensats minuscules, avec l'aide de Marco Messina, chercheur postdoctoral dans le groupe de Christopher J. Chang, les chercheurs ont pu créer un banc d'essai pour leur théorie. Christopher J. Chang à l'université de Californie-Berkeley, ils ont ajouté au système un colorant qui brille en présence d'espèces réactives de l'oxygène.

Leur intuition était la bonne. Lorsque les conditions environnementales étaient réunies, une lueur solide est apparue sur les bords des condensats, confirmant qu'un phénomène jusqu'alors inconnu était à l'œuvre. Dai s'est ensuite entretenu avec Richard Zare, professeur de chimie à Stanford (Marguerite Blake Wilbur), dont le groupe a établi le comportement électrique des gouttelettes d'eau. Zare a été enthousiasmé par le nouveau comportement des systèmes biologiques et a commencé à travailler avec le groupe sur le mécanisme sous-jacent.

"Inspirés par des travaux antérieurs sur les gouttelettes d'eau, mon étudiant diplômé, Christian Chamberlayne, et moi-même avons pensé que les mêmes principes physiques pourraient s'appliquer et favoriser la chimie redox, telle que la formation de molécules de peroxyde d'hydrogène", a déclaré M. Zare. "Ces résultats expliquent pourquoi les condensats sont si importants pour le fonctionnement des cellules.

"La plupart des travaux antérieurs sur les condensats biomoléculaires se sont concentrés sur leurs parties internes", a déclaré M. Chilkoti. "La découverte de Yifan, selon laquelle les condensats biomoléculaires semblent être universellement redox-actifs, suggère que les condensats n'ont pas simplement évolué pour remplir des fonctions biologiques spécifiques, comme on le pense généralement, mais qu'ils sont également dotés d'une fonction chimique essentielle pour les cellules.

Bien que les implications biologiques de cette réaction permanente au sein de nos cellules ne soient pas connues, Dai cite un exemple prébiotique pour illustrer la puissance de ses effets. Les centrales de nos cellules, appelées mitochondries, créent de l'énergie pour toutes les fonctions de notre vie grâce au même processus chimique de base. Mais avant que les mitochondries ou même les cellules les plus simples n'existent, il fallait que quelque chose fournisse de l'énergie pour que la toute première fonction de la vie puisse commencer à fonctionner.

Des chercheurs ont proposé que l'énergie soit fournie par des sources thermales dans les océans ou des sources d'eau chaude. D'autres ont suggéré que cette même réaction d'oxydoréduction qui se produit dans les microgouttelettes d'eau a été créée par les embruns des vagues de l'océan.

Mais pourquoi pas par des condensats ?

"La magie peut opérer lorsque les substances deviennent minuscules et que le volume interfacial devient énorme par rapport à leur volume", a déclaré M. Dai. "Je pense que les implications sont importantes pour de nombreux domaines.

Auteur: Internet

Info: https://phys.org/news/2023-04, from Ken Kingery, Université de Duke. *réactions d'oxydoréduction. **les condensats biomoléculaires sont des compartiments cellulaires qui ne sont pas délimités par une membrane, mais qui s'auto-assemblent et se maintiennent de façon dynamique dans le contexte cellulaire

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

horizon anthropique

Qu'est-ce que le paradoxe cérébral de Boltzmann ? Le cerveau est-il l'univers ultime ?

Avez-vous déjà contemplé la nature de votre existence et vous êtes-vous demandé si vous étiez vraiment une personne ayant vécu une vie, ou simplement un cerveau récemment formé avec des souvenirs artificiels, développant momentanément une réalité qui n'est pas réelle ? Cette question, connue sous le nom de paradoxe du cerveau de Boltzmann, peut sembler absurde, mais elle trouble les cosmologistes depuis des générations.

Le paradoxe tire son nom de Ludwig Boltzmann, un éminent physicien du XIXe siècle qui a apporté des contributions significatives au domaine de la thermodynamique. À son époque, les scientifiques étaient engagés dans des débats passionnés sur la question de savoir si l'univers a une durée infinie ou finie. Boltzmann a révolutionné notre compréhension de l'entropie, qui mesure le désordre au sein d'un système. Par exemple, un verre est considéré comme ordonné, alors qu'un verre brisé est dans un état de désordre. La deuxième loi de la thermodynamique affirme que les systèmes fermés tendent à devenir plus désordonnés avec le temps ; un verre brisé ne se reconstitue pas spontanément dans son état originel.

Boltzmann a introduit une nouvelle interprétation de l'entropie en appliquant un raisonnement statistique pour expliquer le comportement des systèmes. Il a mis en évidence que les systèmes évoluent vers un état plus désordonné parce qu'une telle transformation est la plus probable. Cependant, si la direction opposée n'est pas impossible, elle est incroyablement improbable. Par exemple, nous ne verrons jamais des œufs brouillés redevenir des œufs crus. Néanmoins, dans un univers infiniment vieux, où le temps s'étend sans limites, des événements hautement improbables, tels que la formation spontanée de structures complexes à partir de combinaisons aléatoires de particules, finiraient par se produire.

Qu'est-ce que cela signifie dans le contexte d'un univers hypothétique qui existe depuis un temps infini ? Imaginez une étendue apparemment banale de quasi-néant, où environ huit octillions* d'atomes convergent fortuitement pour créer le "Le Penseur" de Rodin, sauf qu'elle est cette fois entièrement constituée de pâtes alimentaires. Cependant, cette sculpture de pâtes se dissout rapidement en ses particules constitutives. Ailleurs dans cette vaste toile cosmique, les particules s'alignent spontanément pour former une structure ressemblant à un cerveau. Ce cerveau est rempli de faux souvenirs, simulant une vie entière jusqu'au moment présent où il perçoit une vidéo véhiculant ces mêmes mots. Pourtant, aussi rapidement qu'il est apparu, le cerveau se décompose et se dissipe. Enfin, en raison de fluctuations aléatoires, toutes les particules de l'univers se concentrent en un seul point, déclenchant l'émergence spontanée d'un univers entièrement nouveau.

De ces deux derniers scénarios, lequel est le plus probable ? Étonnamment, la formation du cerveau est nettement plus probable que la création spontanée d'un univers entier. Malgré sa complexité, le cerveau est minuscule par rapport à l'immensité d'un univers entier. Par conséquent, si l'on suit ce raisonnement, il apparaît très probable que tout ce que nous croyons exister n'est rien d'autre qu'une illusion fugace, destinée à disparaître rapidement.

Bien que Boltzmann lui-même n'ait pas approfondi ces conclusions, les cosmologistes qui se sont inspirés de ses travaux ont introduit le concept des cerveaux de Boltzmann. Il est intéressant de noter que ces cosmologistes, comme la majorité des individus, étaient raisonnablement certains de ne pas être eux-mêmes des cerveaux éphémères. D'où le paradoxe suivant : comment pouvaient-ils avoir raison dans leur hypothèse tout en postulant l'existence d'un univers éternel ?

Le paradoxe a trouvé sa résolution dans un concept communément accepté aujourd'hui : notre univers n'existe pas de manière infinie mais a eu un commencement connu sous le nom de Big Bang. On pourrait donc penser que le paradoxe a été résolu une fois pour toutes. Or, ce n'est peut-être pas le cas. Au cours du siècle dernier, les scientifiques ont découvert des preuves substantielles à l'appui de la théorie du Big Bang, mais la question de savoir ce qui l'a précédé et causé reste sans réponse. Que l'univers soit apparu dans un état extrêmement ordonné et improbable ? Notre univers pourrait-il faire partie d'un cycle sans fin de création et d'effondrement, ou sommes-nous simplement l'un des innombrables univers en expansion dans un vaste multivers ?

Dans ce contexte intrigant, le paradoxe de Boltzmann a suscité un regain d'intérêt chez les cosmologistes contemporains. Certains affirment que les modèles dominants de l'univers suggèrent encore que les cerveaux de Boltzmann ont plus de chances d'exister que les cerveaux humains, ce qui soulève des inquiétudes quant à la validité de ces modèles. Cependant, d'autres réfutent ces arguments en proposant de légères modifications des modèles cosmologiques qui élimineraient le problème ou en affirmant que les cerveaux de Boltzmann ne peuvent pas se manifester physiquement.

Dans le but d'explorer les probabilités impliquées, certains chercheurs ont même tenté de calculer la probabilité qu'un cerveau émerge spontanément à partir de fluctuations quantiques aléatoires et survive suffisamment longtemps pour générer une seule pensée. Le résultat de leurs calculs a donné un nombre étonnamment grand, avec un dénominateur dépassant 10 élevé à une puissance environ un septillion de fois plus grande que le nombre d'étoiles dans l'univers.

Malgré sa nature apparemment absurde, le paradoxe du cerveau de Boltzmann est utile. Il place la barre très haut pour les modèles cosmologiques. Si l'état actuel de l'univers semble excessivement improbable par rapport à des nombres d'une telle ampleur, cela indique que quelque chose ne va pas dans le modèle. Ce paradoxe nous pousse à remettre en question notre compréhension de la réalité et nous incite à rechercher une représentation plus complète et plus précise de l'univers.

Alors que nous continuons à explorer les mystères du cosmos, la nature énigmatique de notre existence reste une source de fascination et un catalyseur pour la poursuite de la recherche scientifique. Dans notre quête de réponses, nous pourrons peut-être découvrir des vérités profondes qui nous éclaireront sur la nature de notre réalité et sur la tapisserie complexe de l'univers.

Auteur: Sourav Pan

Info: *un octillion = 10 puissance 48)

[ humain miroir ] [ monde consensuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

"Voyageons un peu dans le passé et transportons-nous à Falaise, petite ville de Normandie, à la fin du mois de janvier 1386.

Une truie, maladroitement costumée en habits féminins, est rituellement conduite à l’échafaud, puis pendue et brûlée. Qu’avait-elle fait ? Renversé le berceau d’un nourrisson mal surveillé et commencé à lui dévorer le visage.

Capturée, emprisonnée, conduite au tribunal, défendue par un avocat peu efficace, elle est condamnée à mort par le juge-bailli de Falaise qui l’estime responsable de ses actes. Son propriétaire, en revanche, n’écope d’aucune peine ni amende.

Aujourd’hui, de telles pratiques nous font rire, de même que nous nous esclaffons devant les questions que l’on se pose à la même époque en milieu clérical ou universitaire : peut-on faire travailler les animaux le dimanche ? Doit-on leur imposer des jours de jeûne ? Où vont-ils après la mort ? En Enfer ou au Paradis ? Que de croyances absurdes ? Que de superstitions grotesques ! Quels ramassis d’imbéciles tous ces médiévaux !

Nous avons tort de réagir ainsi. En jugeant le passé à l’aune des savoirs, des morales et des sensibilités du présent, nous montrons que nous n’avons rien compris à ce qu’était l’Histoire. En outre, nous oublions aussi que nos propres comportements sont tout aussi ridicules, qu’ils feront pareillement sourire nos successeurs dans quelques siècles, et qu’ils sont souvent plus atroces et beaucoup plus dangereux que ceux de nos ancêtres. Dangereux pour toutes les espèces vivantes, dangereux pour l’avenir de la planète.

Qui parmi nous a déjà visité une porcherie industrielle ? Je suis normand d’origine et breton de cœur, je n’ai aucune animosité envers les éleveurs de porcs, je ne milite dans aucune société protectrice des animaux ; je suis simplement historien, spécialiste des rapports entre l’homme et l’animal. Or l’honnêteté m’oblige à dire que ces porcheries industrielles sont des lieux abominables, constituant une sorte d’enfer sur terre pour les animaux qui s’y trouvent. Les truies sont enfermées par centaines dans des espaces qui leur interdisent de se déplacer. Leur vie durant, elles ne voient jamais la lumière du soleil, ne fouillent jamais le sol, sont nourries d’aliments chimiques, gavées d’antibiotiques, inséminées artificiellement. Elles doivent produire le maximum de porcelets en une seule portée, avoir le maximum de portées dans les quelques années de leur misérable vie, et lorsqu’elles ne sont plus fécondes, elles partent à l’abattoir. Les porcelets eux-mêmes doivent engraisser le plus vite possible, produire le maximum de viande, et tout cela, bien sûr, au moindre coût. Ces crétins du Moyen-Âge qui pensaient que les cochons étaient des êtres sensibles, qu’ils avaient une âme et qu’ils pouvaient comprendre ce qu’était le Bien et le Mal, n’avaient certainement jamais pensé à cela : martyriser des porcs pour gagner de l’argent !

Récemment, un directeur de porcherie industrielle située dans les Côtes d’Armor à qui je venais de faire part de mon indignation m’a répondu d’une manière sordide : "Mais, Cher Monsieur, pour les poulets c’est bien pire". De fait, dans des établissements carcéraux du même genre, les poulets ne peuvent pas poser leurs deux pattes au sol en même temps : il y circule un courant électrique qui les oblige, à longueur de vie, à poser au sol une patte après l’autre. Pourquoi un tel supplice ? Pour faire grossir leurs cuisses, bien sûr, et les vendre ainsi plus cher. La cupidité de l’être humain est devenue sans limite.

Où sont passés les cochons de nos campagnes ? Où peut-on encore les voir gambader autour de la ferme, jouer les uns avec les autres, se faire caresser par les enfants, partager la vie des paysans. Nulle part ! Nous avons oublié que les cochons – mais cela est vrai de tous les animaux de la ferme - étaient des êtres vivants et non pas des produits. Qui, dans la presse, évoque leur sort pitoyable, leur vie de prisonniers et de condamnés lorsque l’actualité parle du prix de la viande de porc et du mécontentement des éleveurs ? Qui a le courage de rappeler qu’avant d’être un produit de consommation le cochon était un animal vivant, intelligent, sensible, anatomiquement et physiologiquement cousin très proche de l’être humain ? A ma connaissance, personne. De même, à propos des débats autour des cantines scolaires, qui s’interroge sur les raisons qui font que certains peuples mangent du porc et d’autres non ? C’est pourtant un dossier passionnant, l’occasion de s’instruire et de rappeler les nombreuses hypothèses qui ont été avancées depuis le Moyen-Âge pour expliquer les rejets et les tabous qui entourent cet animal.

Les animaux domestiques n’ont plus d’histoire, plus de mythologie, plus de symbolique. Ils ne suscitent plus aucune curiosité, aucune interrogation, aucune nostalgie. Ils n’ont même plus droit à une vie simplement animale. Ce sont des produits ! Comme tels, ils doivent participer au "redressement productif" de notre pays (cette expression est en elle-même absolument répugnante) et générer du profit. Un profit ironiquement bien mince, voire inexistant pour les éleveurs de porcs, ce qui rend encore plus aberrante et intolérable l’existence de ces porcheries industrielles, inhumaines, "inanimales" même, si l’on peut oser un tel néologisme. Elles polluent l’air, la terre, les eaux des rivières et celles de la mer. Dans mon petit coin de Bretagne, des sangliers sont morts à cause du rejet dans la nature du lisier produit par l’élevage intensif de leurs cousins domestiques. Un comble ! À la cupidité s’ajoute l’absurdité.

L’être humain est devenu fou. Il tue non seulement ses semblables mais tout ce qui vit autour de lui. Il rêve même d’aller sur Mars ou ailleurs vérifier si la vie existe et, si c’est le cas, y semer la mort. Tout en donnant des leçons à l’univers entier et en paradant à la COP 21, 22, 23, 24.

Protéger la nature, défendre l’environnement, sauver la planète ? Certes. Mais pour quoi faire ? Pour sauver une humanité barbare et suicidaire, cruelle envers elle-même, ennemie de tous les êtres vivants ? Le mérite-t-elle vraiment ? Le souhaite-t-elle réellement ? Il est permis d’en douter."

Auteur: Pastoureau Michel

Info: France Inter, carte blanche du 21 oct 2019

[ historique ]

 
Commentaires: 2
Ajouté à la BD par miguel

biophysique

La photosynthèse des plantes utilise un tour de passe-passe quantique

Des chercheurs ont observé des similitudes étonnantes entre la photosynthèse des plantes vertes et le fameux "cinquième état de la matière" en mettant le doigt sur un curieux phénomène; ils ont trouvé des liens entre le processus de photosynthèse, qui permet aux végétaux d’exploiter la lumière du soleil, et les condensats de Bose-Einstein, des matériaux dans un état très particulier qui fait intervenir la physique quantique.

"Pour autant que je sache, ces deux disciplines n’ont jamais été connectées auparavant, donc ce résultat nous a semblé très intrigant et excitant", explique David Mazziotti, co-auteur de l’étude.

Son laboratoire est spécialisé dans la modélisation des interactions complexes de la matière. Ces derniers temps, son équipe s’est intéressée aux mécanismes de la photosynthèse à l’échelle des atomes et des molécules. Plus précisément, les chercheurs se sont penchés sur le siège de cette réaction : les chloroplastes, les petites structures chlorophylliennes qui donnent leur couleur aux plantes vertes.

Lorsqu’un photon vient frapper une structure bien précise à la surface de ces chloroplastes (le photosystème II, ou PSII), cela a pour effet d’arracher un électron — une particule élémentaire chargée négativement. Ce dernier devient alors l’acteur principal d’une réaction en chaîne complexe. Le mécanisme est déjà relativement bien connu. Il a été étudié en profondeur par des tas de spécialistes, et c’est aujourd’hui l’une des pierres angulaires de la biologie végétale.

Mais le départ de cet électron laisse aussi ce que les physiciens appellent un trou. Il ne s’agit pas d’une particule à proprement parler. Mais cette structure chargée positivement est aussi capable se déplacer au sein d’un système. Elle peut donc se comporter comme un vecteur d’énergie.

Ensemble, l’électron éjecté et le trou qu’il laisse derrière lui forment un couple dynamique appelé exciton. Et si le rôle du premier est bien documenté, le comportement du second dans le cadre de la photosynthèse n’a quasiment pas été étudié.

C’est quoi, un condensat de Bose-Einstein ?

Pour combler cette lacune, Mazziotti et ses collègues ont réalisé des modélisations informatiques du phénomène. Et en observant les allées et venues de ces excitons, ces spécialistes des interactions de la matière ont rapidement remarqué quelques motifs qui leur ont semblé familiers ; ils rappelaient fortement un concept proposé par Einstein en 1925.

Imaginez un gaz où des particules se déplacent aléatoirement les uns par rapport aux autres, animées par leur énergie interne. En le refroidissant (ce qui revient à retirer de l’énergie au système), on force les atomes à s’agglutiner ; le gaz passe à l’état liquide, puis solide dans certains cas.

Lorsqu’on le refroidit encore davantage pour s’approcher du zéro absolu, les atomes arrivent dans un état où ils n’ont quasiment plus d’énergie à disposition ; ils sont presque entièrement figés dans un état ultra-condensé, séparés par une distance si minuscule que la physique newtonienne traditionnelle ne suffit plus à l’expliquer.

Sans rentrer dans le détail, dans ces conditions, les atomes (ou plus précisément les bosons) qui composent certains matériaux deviennent quasiment indiscernables. Au niveau quantique, ils forment un système unique, une sorte de super-particule où chaque constituant est exactement dans le même état (voir la notion de dualité onde-corpuscule pour plus de détails). On appelle cela un condensat de Bose-Einstein.

Ces objets ne suivent pas les règles de la physique traditionnelle. Ils affichent des propriétés très particulières qui n’existent pas dans les gaz, les liquides, les solides ou le plasma. Pour cette raison, ces condensats sont parfois considérés comme les représentants du "cinquième état de la matière". (après le solide, le liquide, le gaz et le plasma)

De la biologie végétale à la physique quantique

La plus remarquable de ces propriétés, c’est que les condensats de Bose-Einstein sont de vraies autoroutes à particules. D’après la physicienne américaine Louise Lerner, l’énergie s’y déplace librement, sans la moindre résistance. Même si les mécanismes physiques sous-jacents sont différents, on se retrouve dans une situation comparable à ce que l’on trouve dans les supraconducteurs.

Or, d’après les modèles informatiques créés par Mazziotti et ses collègues, les excitons générés par la photosynthèse peuvent parfois se lier comme dans les condensats de Bose-Einstein. C’est une observation particulièrement surprenante, car jusqu’à présent, cela n’a été documenté qu’à des températures proches du zéro absolu. Selon Louise Lerner, c’est aussi étonnant que de voir "des glaçons se former spontanément dans une tasse de café chaud".

Le phénomène n’est pas aussi marqué chez les plantes que dans les vrais condensats de Bose-Einstein. Mais d’après les auteurs de l’étude, cela aurait quand même pour effet de doubler l’efficacité des transferts énergétiques indispensables à la photosynthèse.

De la recherche fondamentale aux applications pratiques

Les implications de cette découverte ne sont pas encore parfaitement claires. Mais il y en a une qui met déjà l’eau à la bouche des chercheurs : ces travaux pourraient enfin permettre d’utiliser les formidables propriétés des condensats de Bose-Einstein dans des applications concrètes.

En effet, même si ces matériaux sont très intéressants sur le papier, le fait de devoir atteindre une température proche du zéro absolu limite grandement leur intérêt pratique. Aujourd’hui, ils sont utilisés exclusivement en recherche fondamentale. Mais puisqu’un phénomène comparable a désormais été modélisé à température ambiante, les chercheurs vont pouvoir essayer d’utiliser ces mécanismes pour concevoir de nouveaux matériaux aux propriétés très intéressantes.

"Un condensat d’excitons parfait est très sensible et nécessite des conditions très spécifiques", précise Mazziotti. "Mais pour les applications réalistes, c’est très excitant de voir que ce phénomène qui augmente l’efficacité du système peut survenir à température ambiante", se réjouit-il.

A long terme, cette découverte va sans doute contribuer à la recherche fondamentale, en biologie végétale mais aussi en physique quantique pure. Cela pourrait aussi faire émerger une nouvelle génération de composants électroniques très performants. Il sera donc très intéressant de suivre les retombées de ces travaux encore balbutiants, mais exceptionnellement prometteurs.

Auteur: Internet

Info: https://www.journaldugeek.com/, Antoine Gautherie le 05 mai 2023

[ recherche fondamentale ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

ouverture

CRAINTIFS INVÉTÉRÉS vs CRÉATIFS VERTÉBRÉS,
Bonjour Paul Jorion,
" Pourquoi élisons-nous des gens qui n'ont pas le courage ensuite de faire ce qu'il faut ? " Parce que les gens qui auraient le courage de faire ce qu'il faut n'ont pas eu le courage de frayer pendant des années, dans les eaux troubles et nauséeuses fréquentées par des gens qui n'ont aucun courage... et qu'ils ne se retrouvent donc jamais en position d'être élus, voire de simplement se présenter devant les électeurs.
J'ai cru personnellement que François Hollande était quelqu'un de cette trempe... jouer les figurants appliqués pour avoir un jour le pouvoir de changer les choses de l'intérieur et durablement... Pour l'instant, il semble que je me sois trompé... ou bien ce fut peut-être le cas au début (car je ne me trompe jamais ;o)) mais il se sera peut-être perdu en chemin... par osmose, il aura attrapé la pétochite chronique ou la scélératose aiguë... Ou bien, miracle, je vais bientôt avoir la surprise incroyable de m'apercevoir que je ne m'étais point trompé... que le bonhomme attendait le bon moment... peut-être a-t-il un plan?... Normalement comme je ne me trompe jamais, c'est ce qui va arriver... et l'on pourra dire : " C'est bon, pour une fois, on a élu un type qui avait du courage... " Un type suffisamment intelligent pour se dire qu'il n'a pas besoin de deux quinquennats pour faire changer les choses... Mais peut-être aussi qu'il attend qu'on l'y pousse... c'est ce que j'avais exprimé quelque temps après son élection... j'avais exprimé mon ressentiment contre l'opposition de gauche qui finalement ne donnait pas grand chose à F. Hollande qu'il puisse faire entendre à Bruxelles ou en Allemagne... comme une France bloquée durant des mois par exemple... si c'était le cas, peut-être que sa voix serait plus sûre, ses arguments plus pointus et la nécessité d'un changement profond plus entendue...
Bonjour Michel Leis,
J'ai bien entendu l'esprit de votre dernier billet et dans un sens je comprends les priorités qui vous ont amené à le rédiger mais je pense malgré tout ne pas être en accord avec vous sur un point de détail qui s'avère être si l'on y réfléchit en réalité plus profondément, absolument crucial... Vous écrivez: " Le vrai travail à réaliser, c'est un exercice de prospective pragmatique : dessiner un paysage global pour le futur et un chemin pour y parvenir. " Et cela semble nourri de bon sens mais en fait, je pense que ça va totalement à l'encontre :
1/ De l'objectif que vous fixez vous-même : c'est-à-dire parvenir à enrayer l'alternative " mauvais populisme/TINA " et
2/ ... du fonctionnement naturel de l'Homme.
Cette manière (objectif visé - moyens utilisés) qui à pu faire ses preuves dans certains domaines et à certains moments atteint à présent ses limites... Alors, il est dur pour moi d'expliquer exactement ce que je ressens car c'est en quelque sorte un mélange de deux notions contradictoires, et pourtant... À la fois, oui, savoir où l'on veut aller, en décrivant le chemin à prendre... oui effectivement, c'est ainsi qu'une guerre en Irak se gère, c'est ainsi que tous les jours l'Homme fabrique, cultive, construit etc. mais en même temps, non... pour les choses importantes, et bien je pense que ça n'est pas ainsi que cela se passe... Je pense que l'improvisation est la colonne vertébrale de l'humanité et le berceau de la créativité et du génie... et que justement, si l'on en est là aujourd'hui (dans une impasse qui menace notre avenir) c'est parce que l'homme (craintif) à voulu tout baliser (sans jeu de mots), tout prévoir, tout planifier, tout rationaliser... Lorsque l'on agit ainsi, finalement, on en perd l'objectif premier justement, qui se métamorphose... et qui devient... et bien qui devient " rationaliser "... voilà le danger... tous les objectifs passent au second plan pour laisser la place à la " rationalité "... il n'y a plus qu'un seul objectif... il faut rationaliser, aseptiser, quadriller, étouffer... L'Homme de génie que nous sommes tous avant aseptisation, se lance... il doit posséder des savoirs, avoir une vision de ce qu'il veut, il envisage des possibilités (des chemins) certes... mais il avance comme en transe à la recherche de l'incarnation de ce qu'il a pressenti, entrevu... guidé par ce que j'appelle des " piliers "... (ses piliers qui le délimitent et qui le caractérisent) il se lance sans pouvoir être certain du résultat... et là encore, on se rend compte que les objectifs finalement sont secondaires et qu'ils cachent en fait un objectif plus grand... la spontanéité... Ressentir la spontanéité, prendre du plaisir à voir se créer concrètement devant ses yeux quelque chose que l'on avait seulement pressenti...
Mais aujourd'hui, pour de très bonnes raisons... ou plutôt non... pour de légitimes raisons (la crainte donc...) la vie est figée... on ne peut plus rien faire... Nous avons perdu la liberté... Paradoxal tout de même de s'apercevoir que les pauvres comme les plus riches se retrouvent sur un point... Le manque de liberté... les plus riches font parfois illusion mais en fait il brassent de l'air... ils sont lancés à vive allure dans une direction qu'ils n'ont pas choisie... à suivre les règles d'un monde fantasmé qu'ils ont intégré mais qui s'avère être très vite un miroir aux alouettes...... bref, ils sont coincés comme des rats... à se regarder en chiens de faïence... à se renifler le derrière.... Alors oui, bien sûr qu'il est bon de penser, d'entendre, de connaître les expertises et les propositions de personnes comme Paul... bien sûr que tout ce qui a été dit sur ce blog est essentiel... mais il ne faudrait pas s'enfoncer dans la même erreur et au final se tromper de combat... Les deux camps ne sont pas : les ultra-libéraux fascisants vs les mauvais populistes fascisants.... qui ne sont que les deux faces d'une même pièce... Non, les deux véritables opposants dans cette guerre sont : les craintifs invétérés vs les créatifs vertébrés. Et c'est vrai que les craintifs deviennent très vite d'une manière comme d'une autre, experts en solutions fascisantes... et c'est vrai qu'ils sont légion... mais c'est vrai aussi qu'à une certaine période de l'histoire, des créatifs vertébrés, par lassitude ou par aveuglement ont bel et bien changé de bord... ils ont décidé en quelque sorte de laisser parler leur crainte... tout en poursuivant leur chemin, ce qui fait qu'ils ne se sont rendu compte de rien... les moyens étaient bons puisque la fin les justifiait... Peu importe les objectifs... ou plutôt, ce qu'il importe de garder en tête c'est que l'objectif c'est: la liberté de créer, la liberté d'improviser... c'est cela en définitive que nous défendons... c'est cela qui est aujourd'hui piétiné... Les autoroutes du comment vivre, les clapiers à bonheur, les mensonges, les clichés, les âneries, les magouilles... l'esprit de clan, la compétition, le grand vide... tout cela est de la crainte qui tente de se grimer... et c'est contre ça qu'il faut lutter... aucune certitude sur le chemin à prendre ne nous garantira la réussite de quoique ce soit... Une seule certitude... la certitude c'est de la crainte figée, glorifiée qui nous enterre... Un seul chemin... ouvrir grand les possibles... désengorger... communiquer cela... Improvisation et création sont les piliers... ils sont l'objectif et les moyens... ils doivent être le cadre et le moteur... la référence... et tout ce qui leur porte atteinte doit être modifié... il est là le chemin...

Auteur: Al

Info: 7 juin 2013 sur le blog de JORION

[ helvète ] [ évolution ] [ bricolage ] [ adaptation ]

 

Commentaires: 0

intelligence artificielle

Les capacités imprévisibles des grands modèles d'IA

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles. (...)

Au-delà de l'imitation

En 2020, Dyer et d’autres de Google Research ont prédit que les LLM auraient des effets transformateurs – mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et diverses afin de tracer les limites extérieures de ce qu'un LLM pouvait faire. Cet effort a été appelé projet Beyond the Imitation Game Benchmark (BIG-bench), inspiré du nom du " jeu d'imitation " d'Alan Turing, un test permettant de déterminer si un ordinateur peut répondre aux questions d'une manière humaine et convaincante. (Ceci deviendra plus tard connu sous le nom de test de Turing.) Le groupe s'est particulièrement intéressé aux exemples dans lesquels les LLM ont soudainement atteint de nouvelles capacités qui étaient complètement absentes auparavant.

"La façon dont nous comprenons ces transitions brusques est une grande question de recherche", a déclaré Dyer.

Comme on pouvait s'y attendre, sur certaines tâches, les performances d'un modèle se sont améliorées de manière fluide et prévisible à mesure que la complexité augmentait. Et sur d’autres tâches, l’augmentation du nombre de paramètres n’a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont découvert ce qu’ils ont appelé des " percées " : des progrès rapides et spectaculaires dans les performances à une certaine échelle seuil. Ce seuil variait en fonction de la tâche et du modèle.

Par exemple, les modèles avec relativement peu de paramètres (quelques millions seulement) ne pouvaient pas résoudre avec succès les problèmes d’addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a augmenté dans certains modèles. Des sauts similaires se sont produits pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le déchiffrement des lettres d'un mot, l'identification du contenu offensant dans les paragraphes de Hinglish (une combinaison d'hindi et d'anglais) et la génération d'un équivalent anglais similaire des proverbes kiswahili.

Mais les chercheurs se sont vite rendu compte que la complexité d’un modèle n’était pas le seul facteur déterminant. Certaines capacités inattendues pourraient être extraites de modèles plus petits avec moins de paramètres – ou entraînées sur des ensembles de données plus petits – si les données étaient de qualité suffisamment élevée. De plus, la façon dont une requête était formulée influençait l’exactitude de la réponse du modèle. Lorsque Dyer et ses collègues l'ont fait avec la tâche des emoji de film via un format à choix multiples, par exemple, l'amélioration de la précision était moins un saut soudain qu'une augmentation progressive avec plus de complexité. Et l'année dernière, dans un article présenté à NeurIPS , la réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (une capacité appelée raisonnement en chaîne de pensée) pouvait résoudre correctement un problème de mots mathématiques, alors que le même le modèle sans cette invite ne pourrait pas.

Yi Tay, un scientifique de Google Brain qui a travaillé sur l'enquête systématique sur les percées, souligne des travaux récents suggérant que l'incitation à la chaîne de pensée modifie les courbes d'échelle et donc le point où l'émergence se produit. Dans leur article NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites de chaîne de pensée pouvait susciter des comportements émergents non identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d’expliquer son raisonnement, pourraient aider les chercheurs à commencer à étudier les raisons pour lesquelles l’émergence se produit.

Des découvertes récentes comme celles-ci suggèrent au moins deux possibilités pour expliquer pourquoi l'émergence se produit, a déclaré Ellie Pavlick, une informaticienne à l'Université Brown qui étudie les modèles informatiques du langage. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les modèles plus grands acquièrent effectivement spontanément de nouvelles capacités. "Il se peut très bien que le mannequin ait appris quelque chose de fondamentalement nouveau et différent qu'il n'aurait pas pu apprendre dans une taille plus petite", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'un changement fondamental se produit lorsque les modèles sont étendus."

L’autre possibilité, moins sensationnelle, dit-elle, est que ce qui semble émerger pourrait plutôt être le point culminant d’un processus interne, axé sur les statistiques, qui fonctionne selon un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement apprendre des heuristiques hors de portée pour ceux qui disposent de moins de paramètres ou de données de moindre qualité.

Mais, a-t-elle déclaré, déterminer laquelle de ces explications est la plus probable dépend d’une meilleure compréhension du fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit."

Pouvoirs et pièges imprévisibles

Il y a un problème évident à demander à ces modèles de s’expliquer : ce sont des menteurs notoires. " Nous comptons de plus en plus sur ces modèles pour effectuer le travail de base ", a déclaré Ganguli, « mais je ne me contente pas de leur faire confiance. Je vérifie leur travail. Comme exemple parmi de nombreux exemples amusants, Google a présenté en février son chatbot IA, Bard. Le billet de blog annonçant le nouvel outil montre que Bard fait une erreur factuelle .

L’émergence conduit à l’imprévisibilité, et l’imprévisibilité – qui semble augmenter avec l’échelle – rend difficile pour les chercheurs d’anticiper les conséquences d’une utilisation généralisée.

" Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés ", a déclaré Ganguli. "Et pour étudier des phénomènes émergents, vous devez avoir un cas en tête, et vous ne saurez pas avant d'avoir étudié l'influence de l'échelle quelles capacités ou limitations pourraient survenir."

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont examiné si les modèles montreraient certains types de préjugés raciaux ou sociaux, un peu comme ceux précédemment rapportés dans les algorithmes non basés sur LLM utilisés pour prédire quels anciens criminels sont susceptibles d'en commettre un autre. crime. Cette étude a été inspirée par un paradoxe apparent directement lié à l’émergence : à mesure que les modèles améliorent leurs performances lors de leur mise à l’échelle, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des dommages.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", a déclaré Ganguli. Il cite une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. " Les modèles plus grands deviennent brusquement plus biaisés. " Ne pas prendre en compte ce risque, a-t-il ajouté, pourrait mettre en péril les sujets de ces modèles.

Mais il propose un contrepoint : lorsque les chercheurs ont simplement dit au modèle de ne pas s’appuyer sur des stéréotypes ou des préjugés sociaux – littéralement en tapant ces instructions – le modèle était moins biaisé dans ses prédictions et ses réponses. Cela suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a fait état d'un nouveau mode " d'autocorrection morale ", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

L’émergence, a déclaré Ganguli, révèle à la fois un potentiel surprenant et des risques imprévisibles. Les applications de ces grands LLM prolifèrent déjà, donc une meilleure compréhension de cette interaction aidera à exploiter la diversité des capacités des modèles linguistiques.

"Nous étudions comment les gens utilisent réellement ces systèmes", a déclaré Ganguli. Mais ces utilisateurs bricolent aussi constamment. "Nous passons beaucoup de temps à discuter avec nos modèles", a-t-il déclaré, "et c'est en fait là que vous commencez à avoir une bonne intuition sur la confiance – ou son absence."

Auteur: Internet

Info: Quanta Magazine, Stephen Ornes, 16 mars 2023 - Les capacités imprévisibles des grands modèles d'IA Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

[ dépassement ]

 

Commentaires: 0

Ajouté à la BD par miguel

polémique évolutionniste

L'épigénétique, qui existe depuis 50 ans, n'est pas un nouvel acteur majeur de l'évolution. Dans la mesure où son importance avérée est d'ordre génétique. L'évolution culturelle et comportementale est un phénomène réel, mais ce n'est pas une évolution biologique.

Synthèse moderne

La variation génétique est aléatoire. Les mutations qui se produisent n'améliorent pas nécessairement la condition physique. Si les mutations donnent lieu à des caractéristiques qui améliorent la capacité des organismes à survivre et à prospérer, il s'agit d'un simple hasard.

Synthèse évolutionniste élargie (Laland)

La variation phénotypique n'est pas aléatoire. Les individus se développent en réponse aux conditions locales, de sorte que les nouvelles caractéristiques qu'ils possèdent sont souvent bien adaptées à leur environnement.

Presque toute l'évolution est finalement due à une mutation d'une sorte ou d'une autre. Nombreux sont ceux qui pensent que le hasard des mutations est le thème dominant de l'évolution. L'affirmation concernant la synthèse moderne est parfaitement correcte, en première approximation. (On peut ergoter sur les détails.)

L'idée que les phénotypes changent en fonction des conditions locales - par exemple, l'opéron lac s'exprime en présence de lactose - n'est guère révolutionnaire et n'exige pas de changement dans notre compréhension de la théorie moderne de l'évolution.

Synthèse moderne

L'évolution se produit généralement par le biais de multiples petites étapes, conduisant à un changement graduel. C'est parce qu'elle repose sur des changements progressifs provoqués par des mutations aléatoires.

Synthèse évolutive élargie (Laland)

L'évolution peut être rapide. Les processus de développement permettent aux individus de répondre aux défis environnementaux ou aux mutations par des changements coordonnés dans des ensembles de traits.

Est-il possible que Kevin Laland ignore totalement le débat sur le gradualisme, l'hybridation, la symbiose, le transfert horizontal de gènes, les mutations homéotiques, la saltation et les macromutations ? Est-il possible qu'il n'ait jamais pensé aux équilibres ponctués et à la théorie hiérarchique ?

Il est vrai que les vues démodées d'Ernst Mayr et compagnie ("Synthèse moderne") rejetaient toutes ces idées, mais l'évolution a évolué depuis les années 1950. Elle ne se limite plus à de petites étapes graduelles.

Les "révolutionnaires" pensent que les mutations peuvent être dirigées dans un but ultime. L'idée de base d'une augmentation des taux de mutation dans certaines conditions est débattue activement depuis très longtemps (avant 1996). On ne pense pas qu'il s'agisse d'une caractéristique majeure de l'évolution, sauf dans le sens d'une augmentation du taux de mutations "aléatoires".

Synthèse moderne

La perspective est centrée sur les gènes : l'évolution nécessite des changements dans la fréquence des gènes par le biais de la sélection naturelle, de la mutation, de la migration et de la perte aléatoire de variantes génétiques.

Synthèse évolutionniste élargie

La perspective est centrée sur l'organisme, avec des conceptions plus larges des processus évolutifs. Les individus s'adaptent à leur environnement au fur et à mesure qu'ils se développent et modifient les pressions de sélection.

Cette description de la synthèse moderne est la seule fois où j'ai vu Kevin Laland mentionner quelque chose qui ressemble à la dérive génétique aléatoire. Cela ne fait manifestement pas partie de sa vision normale du monde.

Je reconnais que la théorie moderne de l'évolution est "centrée sur les gènes" à cet égard. C'est parce que nous DÉFINISSONS l'évolution comme un changement dans la fréquence des allèles au sein d'une population. Je ne sais pas ce que cela signifie de passer à un point de vue "centré sur l'organisme" comme le décrit Laland. Il est certainement vrai que les cyanobactéries individuelles s'adaptent à leur environnement au fur et à mesure qu'elles grandissent et se développent, et il est certainement vrai qu'elles peuvent modifier l'environnement. Dans le cas présent, elles ont provoqué une augmentation des niveaux d'oxygène qui a affecté toutes les espèces vivantes.

Les cyanobactéries ont évolué pour s'adapter à leur environnement par le biais de mutations aléatoires et de changements dans la fréquence des allèles au sein de la population, en partie sous l'effet de la sélection. Beaucoup d'entre elles se sont éteintes. En quoi est-ce un changement dans notre vision de l'évolution ?

Synthèse moderne

Les processus micro-évolutifs expliquent les schémas macro-évolutifs. Les forces qui façonnent les individus et les populations expliquent également les changements évolutifs majeurs au niveau des espèces et au-delà.

Synthèse évolutionniste élargie

D'autres phénomènes expliquent les changements macro-évolutifs en augmentant l'évolutivité, c'est-à-dire la capacité à générer une diversité adaptative. Il s'agit notamment de la plasticité du développement et de la construction de niches.

L'un des principes de base de la synthèse moderne était que la macroévolution peut être expliquée efficacement comme étant simplement une multitude de microévolutions cumulatives. Les manuels modernes de biologie évolutive abordent d'autres caractéristiques de la macroévolution qui nécessitent un apport supplémentaire, notamment en ce qui concerne la spéciation. La vieille idée selon laquelle la microévolution suffit à expliquer la macroévolution n'est plus un axiome en biologie évolutive, et ce depuis plusieurs décennies [voir Macroévolution].

Les manuels modernes traitent de toutes sortes de choses qui influencent l'histoire à long terme de la vie (= macroévolution). Des éléments tels que les extinctions massives, la stase, la spéciation allopatrique, les contraintes, etc. L'évolutivité a été activement débattue pendant un demi-siècle et elle est bien couverte dans la plupart des manuels. (Voir Futuyma, 2e édition, p. 599). L'évolutivité n'est pas une idée nouvelle qui va révolutionner la théorie de l'évolution. En fait, le consensus, après de nombreux débats et discussions, est que l'évolutivité échoue sur les bancs de la téléologie. La théorie ne résiste tout simplement pas à un examen approfondi.

La sélection organisationnelle pour des caractéristiques qui confèrent un succès reproductif différentiel dans le moment écologique ne peut tout simplement pas générer, de manière active ou directe, un ensemble de caractéristiques qui n'acquièrent une importance évolutive qu'en conférant une flexibilité pour des changements dans un avenir lointain. Nous ne pouvons pas nier que ces caractéristiques d'évolutivité "comptent" profondément dans l'histoire des lignées ; mais comment des avantages pour l'avenir peuvent-ils découler d'un processus causal ici et maintenant ? (Gould, 2002 p. 1274)

Il est malhonnête de laisser entendre, dans un article destiné au lecteur moyen, qu'un sujet comme l'évolutivité est récent et n'a pas été examiné en profondeur, et rejeté, dans la littérature théorique sur l'évolution. Il en va de même pour les concepts de plasticité et de construction de niche. Ce ne sont pas des concepts nouveaux. Les experts compétents en matière d'évolution - ceux qui ont lu et écrit les manuels - ont examiné ces idées et les ont rejetées en tant que facteurs majeurs de la théorie de l'évolution.

Kevin Laland peut ne pas être d'accord avec ces analyses, mais en tant que scientifique, il a l'obligation de les mentionner au moins lorsqu'il écrit des articles promouvant un changement radical de la théorie de l'évolution. Il a la responsabilité de déclarer sa partialité.

Mais je fais une supposition qui n'est peut-être pas justifiée. Peut-être ne sait-il pas que ses opinions ont déjà été débattues, discutées et, pour la plupart, rejetées. Dans ce cas, son omission n'est pas due au fait qu'il induit délibérément ses lecteurs en erreur au sujet de la controverse. Il y a une autre raison.

1. L'accent mis sur les changements héréditaires (allèles) fait partie de la définition minimale actuelle de l'évolution. Elle est très différente de la perspective du "gène égoïste" défendue par Richard Dawkins. Ceux qui ne voient pas la différence ne sont tout simplement pas attentifs.

2. Je me demande comment "l'évolution culturelle" fonctionne chez les cyanobactéries et les érables ? Les principaux participants à la réunion de la Royal Society ont un penchant extrême pour l'évolution des organismes multicellulaires complexes - essentiellement des animaux et surtout des mammifères. Cela influence grandement leur point de vue sur l'évolution. Ils ont tendance à utiliser des exemples qui ne s'appliquent qu'à l'espèce qui les intéresse comme des leviers pour faire basculer l'ensemble de la théorie de l'évolution.

King, J. L., et Jukes, T. H. (1969) Non-darwinian evolution. Science, 164:788-798. PDF (en anglais)

Auteur: Moran Laurence A.

Info: A propos de la nouvelle vision de l'évolution de Kevin Laland, 4 décembre 2016

[ tâtonnements ] [ biogénétique ] [ auto-domestication ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

anthropomorphisme

Les plantes sont-elles frigides?

La plante évoque l'inertie. On dit "végéter" pour "stagner". Mais il y a quelques siècles encore, "végéter" signifiait le contraire. En latin, ce mot désigne la surabondance d'énergie qui pousse une plante à jaillir. Plus on la coupe, plus elle reverdit : la plante, c'est l'énergie sexuelle incarnée. Sur le plan étymologique en tout cas. Les termes latins dont le mot "végétal" dérive désignent à l'origine "force et croissance". Le mot silva (forêt) est attesté dès Cicéron dans le sens de "grande quantité" et d'"abondance de matière". Le mode d'être de la plante est celui d'une prolifération virtuellement infinie, en constante expansion. Quel plus beau modèle prendre pour l'humain que celui du lierre ou du lichen? A la différence des végétaux dont la vie se confond avec la croissance, la plupart des bêtes, une fois adultes atteignent leurs dimensions définitives, explique Dominique Brancher, ce qui explique peut-être pourquoi les plantes font si peur. Elles ne connaissent pas de limites. Elles ne respectent pas l'ordre. Est-ce la cause du stigmate qui les frappe en Occident ? Les plantes sont-elles victimes de spécisme, de sexisme ou de racisme?

Chercheuse à l'Université de Bâle, Dominique Brancher est l'auteure d'un livre qui entend rendre justice au règne végétal : on en a fait un règne dormant, voué à l'immobilité, à l'absence de pensée, de sentiments, de sensations... Quel dommage d'avoir ainsi perverti ce qui - à l'origine de notre culture - était considéré comme une forme de débordement vital. Trop vital. "Eclipsé par l'attention exclusive donnée au vaste débat sur la distinction entre l'animal et l'homme, [...] le végétal s'est vu relégué au rang de tiers-exclu", dit-elle, regrettant que le mot végéter soit devenu synonyme d'inertie. Mais pourquoi un tel revirement? Pour quelle raison notre culture a-t-elle ainsi châtré la plante? Dans un livre au titre explicite Quand l'esprit vient aux plantes (allusion ironique au poème de La Fontaine "Comment l'esprit vient aux filles"), Dominique Brancher retrace l'histoire de ce qu'elle désigne comme l'invention d'un sexisme anti-flore. Nous avons discriminé les végétaux comme l'ont été les femmes : en leur déniant tout désir. Comme l'ont été les "sauvages" : en leur déniant toute intelligence. Comme le sont encore les animaux : en les parquant dans des réserves. C'est pourquoi il faut lire son enquête sur la sexualité des plantes comme un révélateur de nos choix de vie.

Quand les plantes étaient humaines...

Aux origines présocratiques de notre culture, les cosmogonies imaginées par Thalès (né en 640 av. J.-C.), Héraclite (504 av. J.-C.) ou Empédocle (492 av. J.-C.) reposent sur un principe d'équation : nous sommes faits de la même matière que tout ce qui existe, fleur ou astres. Cette règle d'analogie poétique "dit la trame vitale qui tisse les êtres et confond leurs attributs et leurs formes. Les arbres "pondent" leurs fruits et les êtres humains se développent comme des plantes." Pour Empédocle, qui rédige sa théorie en vers fabuleux face au paysage volcanique de sa Sicile natale, il n'y a ni naissance ni mort. Tout chose se renouvelle sous l'effet d'une ardeur brûlante qui traverse la matière. "Toute chose pense", dit-il. Toute chose aime et hait. "Dans ses transmigrations, l'âme humaine épouse les métamorphoses de la matière car elle a "déjà été autrefois garçon et fille, buisson, oiseau ou poisson cheminant à la surface de l'eau" (Empédocle, VIII).". Dans cet univers foisonnant, les plantes ont du plaisir et souffrent comme les humains qui, eux-mêmes, viennent au monde mouillés par la rosée de leur larmes. Empédocle résume ainsi leur première apparition : "Or donc voici comment des hommes et des femmes trempés de pleurs, Feu, se séparant, fit jaillir les pousses dans la nuit" (Empédocle III, Les Origines).

Avec la "raison" vient l'inégalité

Mais cette vision-là du monde est trop poétique sans doute. Dès le 1er siècle avant J.-C., Nicolas de Damas écrit dans son ouvrage De Plantis : "Il faut rejeter ces idées grossières et nous mettre à dire la vérité". Platon (427 av. J.-C.), deux siècles avant lui, n'accorde aux plantes qu'une âme inférieure et en fait des animaux immobiles. Mais c'est Aristote (384 av. J.-C.) qui "réduit encore plus considérablement la dignité du végétal en lui laissant seulement une sorte d'âme (De Anima, A5, 411)". La classification qu'Aristote met en place devient le modèle dominant d'une pensée occidentale qui place l'homme au sommet de la hiérarchie. Dans ce nouvel ordre moral, "les plantes jouissent seulement d'une âme végétative", désormais privées d'entendement. Avec le christianisme, leur statut ne s'améliore pas, au contraire. "Selon l'agenda cloisonné de la Genèse, Dieu créa les plantes le troisième jour, les animaux le cinquième et l'homme le sixième". Dans l'échelle des êtres, le végétal est en bas. Deux attitudes prévalent à son égard. La première repousse les plantes du côté du péché. Le seconde, guère plus enviable, du côté du paradis. Dans les deux cas, la plante est vue comme une créature frigide.

La plante comme symbole du péché de gourmandise Bien qu'ils lui dénient toute capacité de percevoir et donc de jouir, les théologiens estiment en effet que la plante est gourmande. Ne passe-t-elle pas son temps à sucer la terre? Voilà pourquoi elle est au bas de cette Scala Naturae ("échelle de la nature") que de nombreux ouvrages du XVIe siècle décrivent en termes de menace : attention de ne pas tomber ! Chaque échelon figure un degré de déchéance. Quand l'homme commet le péché de luxure (sensualis), il est ravalé au rang d'animal. Quand il a trop d'appétit (vitalis), le voilà végétal. Quand il sombre dans la tristesse (acédie), il rétrograde en minéral. Le christianisme "est une religion qui déconsidère la vie organique au profit de la pensée rationnelle", rappelle Dominique Brancher. Aux yeux des chrétiens, l'homme ne peut prétendre à son statut supérieur qu'à la condition de ne rien avoir en commun avec la (vile) matière. Les bêtes qui forniquent, les rivières qui ondoient et les plantes qui têtent la glaise sans penser, avec une gloutonnerie "stupide et insensible" (Jean Pic de la Mirandole) sont des choses détestables, qui renvoient à la chute.

La plante comme symbole de l'asexualité

Mais il existe une autre attitude vis à vis des plantes : pour certains chrétiens, elles présentent cet avantage sur les animaux d'être "pures". Cela commence au XIIIe siècle, avec Innocent III : dans un texte intitulé De Contemptu mundi, le pape attribue aux plantes la "candeur de l'âme végétative". La plante n'est pas sexuée, dit-il (ignorant qu'il existe des espèces végétales où les mâles et les femelles sont distincts). "Dégagés des ardeurs charnelles qui abêtissent et abrutissent, les végétaux offrent ainsi la rédemption d'un nouvel Eden. Combien d'auteurs de la Contre-Réforme ne célèbrent-ils pas la pureté de la reproduction végétale?". Dominique Brancher cite par exemple Thomas Browne qui, dans les années 1630, déclare : "Je serais heureux, si nous pouvions procréer comme les arbres sans union et s'il existait un moyen de perpétuer le monde sans passer par le coït vulgaire et trivial. C'est l'acte le plus sot qu'un homme sage puisse commettre dans sa vie". Edifiant. La chercheuse enfonce le clou : "Aux yeux de la mystique flamande, la perfection végétale figure une complétude originelle que la Faute, en modifiant le corps physique des premiers hommes, a définitivement dérobé à l'humanité : "Au lieu d'hommes qu'ils devaient être, ils sont devenus des monstres divisés en deux sexes imparfaits, impuissants à produire leurs semblables seuls, comme se produisent les arbres et les plantes".

Savez-vous planter des choux?

Dans la tradition ouverte par Innocent III, tout un imaginaire puritain se cristallise aux XVIe et XVIe siècles autour des plantes. La botanique devient "une technique de maîtrise des instincts, explique Dominique Brancher. On en trouve les répercussions jusque chez Rousseau, "persuadé qu'à tout âge l'étude de la nature émousse le goût des amusements frivoles, prévient le tumulte des passions". "La campagne a toujours été considérée comme le séjour de l'innocence", renchérit Trembley. L'herborisation devient l'activité favorite des puritains. On associe le curé de campagne à un brave jardinier, expert en sirops pour la gorge. "La méconnaissance concertée de la sexualité des plantes, depuis Aristote jusqu'aux naturalistes de la Renaissance, entretient cette vision angélique." Heureusement, il existe à toute époque des empêcheurs de tourner en rond. Au XVIe siècle, en particulier, des voix dissidentes s'élèvent : non, la plante n'est pas sage. Nous ferions bien d'en prendre de la graine.

Auteur: Giard Agnes

Info: 4 janvier 2016

[ historique ] [ Grèce antique ]

 

Commentaires: 0