Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 9
Temps de recherche: 0.0364s

être humain

Je pense que ce que l'on peut voir au travers du récit darwinien, c'est comment l’apport de la culture chez l'homme l'a transformé en une sorte d'animal très spécial, un animal qui a une responsabilité morale, probablement comme aucun autre animal ne n'en a jamais eu.

Auteur: Dennett Daniel C.

Info: "Les grands penseurs de l'évolution". NOVA Interview, www.pbs.org. 6 octobre 2009.

[ animal particulier ]

 

Commentaires: 0

Ajouté à la BD par miguel

procréation médicalement assistée

La PMA valorise au contraire le naturel si l’on oppose ce terme non à artificiel, mais à conventionnel. […] La médecine permet au désir on ne peut plus naturel d’enfanter d’être enfin réalisé […] indépendamment même de la capacité biologique de le faire : l’apport de la science ne change rien au caractère "naturel" de la PMA.

Auteur: Spranzi Marta

Info: "La PMA pour tous ou le triomphe de la nature", Libération" 15.10.2017

[ éloge ] [ encouragements ] [ fins-moyens ] [ technique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

transfert

La difficulté en analyse est celle de la médiété aristotélicienne, autrement dit la fiabilité, le plus déterminée possible, et le moins vindicative possible. La fiabilité dans son ennui, en quelque sorte, qui n’a pas le panache de la passion amoureuse, mais qui ne provoque pas non plus le risque d’un sentiment abandonnique. N’être que fiable est un défi modeste, mais nécessaire à la désaliénation du patient. N’être que fiable est un chemin qui mène nécessairement à l’ingratitude du patient ; parfois, dans un temps plus lointain, ce dernier reconnaîtra la valeur de l’apport ; mais rien n’est moins sûr, et le moment où l’analysant idéalise son analyste n’est pas durable, heureusement pour l’enjeu de sa désaliénation, mais plus douloureusement pour l’analyste renvoyé à sa valeur limitée.

Auteur: Fleury Cynthia

Info: Dans "Ci-gît l'amer", éditions Gallimard, 2020, page 110

[ contre-transfert ] [ qualité ] [ psychanalyse ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

recherche et développement

Certains datent leur naissance avec le Projet Manhattan. Ce sont ces technosciences qui vont jouer un rôle central dans le développement. Il faut comprendre leurs différences avec la science. Quand Albert Einstein met au point sa théorie de la relativité, c’est un scientifique. Ce n’est pas un technicien. Il est alors bibliothécaire à l'Institut Fédéral de la Propriété Intellectuelle à Berne, en Suisse, et il travaille avec du papier et un crayon, rien de plus. Et cela lui permet de découvrir l'une des théories les plus extraordinaires qui soient. Rien à voir avec les laboratoires scientifiques des années 1950 ou d’aujourd’hui.

Avec le Projet Manhattan − projet technoscientifique par excellence −, des techniciens vont travailler avec des scientifiques. Les techniciens se font scientifiques et les scientifiques, techniciens. 3 Jusque-là, les scientifiques travaillaient avec de petits moyens. À partir de cette époque, il va y avoir l’apport de procédés techniques et de moyens colossaux dans la recherche scientifique. Aujourd’hui, si l’on regarde aux États-Unis, le moindre laboratoire de recherche a du matériel qui vaut plusieurs millions de dollars. Ce sont les technosciences, plus que la science, qui vont endosser un rôle essentiel dans le développement.

Auteur: Latouche Serge

Info: https://sciences-critiques.fr/serge-latouche-il-faut-decoloniser-les-sciences/

[ origine ] [ complexe militaro-industriel ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

lavage de cerveau

La sécurité est très souvent vécue dans nos sociétés démocratiques comme une atteinte aux libertés individuelles. Il faut donc faire accepter par la population les technologies utilisées et parmi celles-ci la biométrie, la vidéosurveillance et les contrôles.

Plusieurs méthodes devront être développées par les pouvoirs publics et les industriels pour faire accepter la biométrie. Elles devront être accompagnées d’un effort de convivialité par une reconnaissance de la personne et par l’apport de fonctionnalités attrayantes :

- Éducation dès l’école maternelle, les enfants utilisent cette technologie pour rentrer dans l’école, en sortir, déjeuner à la cantine, et les parents ou leurs représentants s’identifieront pour aller chercher les enfants.

- Introduction dans des biens de consommation, de confort ou des jeux : téléphone portable, ordinateur, voiture, domotique, jeux vidéo ;

- Développer les services "cardless" à la banque, au supermarché, dans les transports, pour l’accès Internet...

La même approche ne peut pas être prise pour faire accepter les technologies de surveillance et de contrôle, il faudra probablement recourir à la persuasion et à la réglementation en démontrant l’apport de ces technologies à la sérénité des populations et en minimisant la gêne occasionnée. Là encore, l’électronique et l’informatique peuvent contribuer largement à cette tâche.

Auteur: GIXEL acronyme

Info: Dans le "Livre bleu" GIXEL : Groupement des industries de l’interconnexion des composants et des sous-ensembles électroniques

[ asservissement ] [ fabrication du consentement ] [ formatage ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

moi

Le fait fondamental que nous apporte l’analyse [...] c’est que l’ego est une fonction imaginaire. [...]

Si l’ego est une fonction imaginaire, il ne se confond pas avec le sujet. Qu’est-ce que nous appelons un sujet ? Très précisément, ce qui, dans le développement de l’objectivation, est en dehors de l’objet.

On peut dire que l’idéal de la science est de réduire l’objet à ce qui peut se clore et se boucler dans un système d’interactions de forces. L’objet, en fin de compte, n’est jamais tel que pour la science. Et il n’y a jamais qu’un seul sujet – le savant qui regarde l’ensemble, et espère un jour tout réduire à un jeu déterminé de symboles enveloppant toutes les interactions entre objets. [...]

Pendant l’analyse, par exemple d’un comportement instinctuel, on peut négliger un certain temps la position subjective. Mais cette position ne peut absolument pas être négligée quand il s’agit du sujet parlant. Le sujet parlant, nous devons forcément l’admettre comme sujet. Et pourquoi ? Pour une simple raison, c’est qu’il est capable de mentir. C’est-à-dire qu’il est distinct de ce qu’il dit.

Eh bien, la dimension du sujet parlant, du sujet parlant en tant que trompeur, est ce que Freud nous découvre dans l’inconscient.

Dans la science, le sujet n’est finalement maintenu que sur le plan de la conscience, puisque le x du sujet dans la science est au fond le savant. [...] Freud au contraire nous montre qu’il y a dans le sujet humain quelque chose qui parle, qui parle au plein sens du mot, c’est-à-dire quelque chose qui ment, en connaissance de cause, et hors de l’apport de la conscience. [...]

Du même coup, cette dimension ne se confond plus avec l’ego.

Auteur: Lacan Jacques

Info: Dans le "Séminaire, Livre I", "Les écrits techniques de Freud (1953-1954)", éditions du Seuil, 1975, pages 301-302

[ discours de l'analyste ] [ discours scientifique ] [ différences ] [ sujet de l'inconscient ] [ subjectif-objectif ]

 
Mis dans la chaine
Commentaires: 2
Ajouté à la BD par Coli Masson

offre-demande

Comment rentabiliser les milliards investis dans les micro et nanotechnologies ? En leur trouvant des applications sous forme d’objets et de services à vendre. Pour s’assurer du succès des nouveaux produits et de leur "acceptabilité" par la société, ingénieurs et industriels s’associent à des chercheurs en sciences sociales au sein d’un labo spécialisé : IDEAs Lab.

[…]

La hantise des industriels qui investissent dans le développement d’"innovations", c’est l’échec commercial. Comme celui des OGM, qui a fait plonger les multinationales de l’agro-business. Dominique David, du LETI : "dans la high tech, les marchés les plus importants seront ceux tirés par le grand public." Comment éviter les mauvaises surprises ? "Nous ne prétendons pas trouver la vérité : nous réduisons la part des incertitudes et des opportunités manquées", répond Michel Ida. "Ceci grâce à l’apport d’autres disciplines scientifiques, en particulier les sciences humaines, qui disposent de méthodes éprouvées pour faire naître des idées et évaluer un projet" . Bref, ils ont les moyens de nous faire consommer.

Dans leur techno-jargon, experts, scientifiques et industriels parlent d’"acceptabilité". On sait l’importance de la propagande (publicité, marketing, communication, relations publiques, sponsoring, lobbying, etc) pour fourguer aux "gens" toutes sortes de produits dont ils ignoraient le besoin ("comment j’ai fait pour m’en passer ?") et qu’éventuellement ils jugeaient néfastes. On connaît moins l’intervention des sciences humaines en amont, avant même la conception du produit, et leurs "méthodes éprouvées pour faire naître des idées et évaluer un projet". C’est ce qu’on découvre à regarder IDEAs Lab d’un peu plus près.

"Quand les bénéfices perçus prennent le pas sur les inconvénients, les inquiétudes disparaissent, affirme Patrice Senn, directeur du laboratoire Objets Communicants de France Telecom R&D, co-fondateur d’IDEAs Lab. Devant les facilités offertes par la carte bancaire ou les téléphones portables, les utilisateurs oublient qu’ils sont suivis à la trace." Voilà l’admirable efficacité de la méthode dite de "Conception Assistée par l’Usage" ("design smart process"), au cœur du dispositif d’IDEAs Lab.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Aujourd'hui le nanomonde", pages 219 à 222

[ vente forcée ] [ création du besoin ] [ opinion publique ] [ société de profit ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

désillusion

La neurobiologie de la déception: la douleur qui dure le plus longtemps  

La déception a un impact douloureux sur notre cerveau. Ce fait s'explique par l'activité des neurotransmetteurs, comme le GABA, qui subissent une altération très spécifique que la science peut désormais expliquer.

La neurobiologie de la déception nous montre une fois de plus qu’il y a des aspects de notre vie que le cerveau vit de façon particulièrement douloureuse. Ainsi, pour une raison que nous ne connaissons pas, dans ces expériences où nous perdons des opportunités ou lorsque la confiance avec quelqu’un de significatif est rompue, une sorte de souffrance est générée qui dure plus longtemps.

William Shakespeare a dit que l’attente est la racine de toute détresse, et c’est peut-être vrai. Mais il est également vrai que nous avons souvent besoin de nous accrocher à certaines choses pour trouver la stabilité. Afin de ne pas perdre courage face à toutes les incertitudes de la vie. Ainsi, nous tenons souvent pour acquis que nos plus proches parents, partenaires ou amis ne nous trahiront pas d’une manière ou d’une autre.

Nous entretenons également des attentes à notre égard, en tenant pour acquis que nous n’échouerons pas dans les domaines où nous sommes si bons. Ou encore que ce que nous avons aujourd’hui restera avec nous demain. Cependant, parfois le destin donne un changement de direction et notre château de cartes s’écroule. Ces expériences, définies essentiellement par une perte de sécurité, sont interprétées au niveau du cerveau comme des signaux d’alarme pour notre survie.

La disparition d’une opportunité qui était si excitante pour nous, être licenciés du jour au lendemain, subir une trahison émotionnelle... Voilà des événements plus que douloureux. Ils sont, d’une certaine façon, des coups portés au tissu de ce qui faisait partie de nous de façon significative. Voyons donc ce qui se passe au niveau du cerveau lorsque nous vivons ces expériences.

La neurobiologie de la déception répond à un intérêt récent dans le domaine des neurosciences. Depuis de nombreuses années, les psychologues, les psychiatres et les neurologues se demandent pas seulement pourquoi cette émotion est vécue si intensément. Une chose qui est claire, c’est que les déceptions font aussi partie de notre personnalité.

Ceux qui les ont vécues deviennent souvent plus méfiants. Les déceptions nuisent à la recherche d’espoir et nous rendent parfois plus prudents lorsqu’il s’agit de susciter des attentes impliquant les gens. Quoi qu’il en soit, il faut qu’il se passe quelque chose au niveau du cerveau pour que son impact soit aussi évident. Découvrons ensemble ce que la science nous dit à ce sujet.

Les neurotransmetteurs et la déception. Comme nous le savons, les neurotransmetteurs sont des produits chimiques qui transmettent des signaux aux neurones. Grâce à cette neurochimie, les émotions, les comportements, les pensées, etc. sont facilités. Ainsi, il est utile de rappeler qu’il existe des neurotransmetteurs très spécifiques, comme la dopamine et la sérotonine. Ils mesurent complètement notre état d’esprit.

Or, dans une étude intéressante réalisée par le Dr Roberto Malinow, du département de neurobiologie de l’Université de Californie, à San Diego, les chercheurs ont révélé qu’il existe deux neurotransmetteurs très spécifiques qui régulent complètement l’expérience de la déception. Il s’agit du glutamate et du GABA, qui agissent dans une zone très spécifique de notre cerveau : l’habénula latérale.

L’habénula et la libération de GABA et de glutamate. L’habénula latérale est l’une des plus anciennes structures de notre cerveau. Nous savons donc, par exemple, qu’elle fait partie des processus émotionnels qui facilitent notre prise de décision. Cependant, malgré le fait qu’elle agisse souvent de manière positive, en stimulant la motivation, cette région a aussi son côté sombre.

Son bon fonctionnement dépend essentiellement d’une libération correcte et équilibrée de glutamate et de GABA. Ainsi, plus l’apport de ces neurotransmetteurs dans l’habénula est important, plus le sentiment de déception est grand. En revanche, plus la libération de GABA et de glutamate est faible, moins cette émotion a d’impact sur notre cerveau.

Le Dr Roberto Malinowski, cité ci-dessus, fait une remarque importante sur la neurobiologie de la déception. On a vu que l’impact de la déception maintenue dans le temps conduit dans de nombreux cas à des troubles dépressifs. C’est-à-dire que lorsque la libération de GABA et de glutamate est intense, il y a un plus grand risque de souffrir de ce trouble psychologique.

On sait aussi que cette excitation de l’habénula due à la libération excessive de ces neurotransmetteurs, nous rend plus obsédés par certaines idées, souvenirs ou situations douloureuses vécues. Il nous est très difficile de tourner la page, d’où la stagnation émotionnelle et la souffrance.

Cependant, la découverte de la relation entre le glutamate et le GABA dans la déception et la dépression ouvre également la porte à de nouveaux traitements. Jusqu’à présent, on supposait que grâce aux antidépresseurs et à la régulation de la sérotonine, le rapport GABA-glutamate était également équilibré. Aujourd’hui, cependant, il est devenu évident que malgré l’amélioration, il est courant de ressentir divers effets secondaires.

Le défi actuel est donc de développer des traitements qui agissent spécifiquement sur certains neurotransmetteurs et non sur d’autres. De cette façon, des réponses plus appropriées seraient données aux patients qui, en raison de diverses altérations au niveau neurochimique, vivent plus intensément certaines réalités. La neurobiologie de la déception est donc un domaine de grand intérêt dont nous améliorons progressivement la compréhension. 

Auteur: Internet

Info: https://nospensees.fr, 01 juin, 2020

[ déconvenue ] [ insuccès ] [ désenchantement ] [ désabusement ] [ désappointement déclic ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel