Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 226
Temps de recherche: 0.0622s

palier évolutif

La découverte d'une extraordinaire symbiose marine résout l'un des grands mystères de l'océan

Une équipe dirigée par l'Institut Max Planck de microbiologie marine a mis au jour la symbiose entre une bactérie Rhizobium et une algue marine du groupe des diatomées. Ce couple d'organismes permettrait d'expliquer une grande partie de la fixation de l'azote dans l'océan – un processus crucial.

C'était l'un des grands mystères dont les biologistes marins cherchaient encore la clé : comment, en dehors des régions océaniques riches en cyanobactéries, les végétaux marins obtiennent-ils de l'azote sous une forme qu'ils sont capables d'assimiler ?

Il aura fallu une grande expédition océanographique depuis la côte allemande jusqu'aux zones tropicales de l'Atlantique Nord, et quatre années d'analyses ADN, pour résoudre l'énigme. La réponse, dévoilée dans une étude publiée par la revue Nature (9 mai 2024), tient en un mot : la symbiose.

Cette association très intime entre deux êtres vivants a façonné la planète telle que nous la connaissons aujourd'hui, depuis les récifs coralliens (symbiose entre le corail et l'algue zooxanthelle) jusqu'à la mycorhize,  fine dentelle qui fait vivre nos sols (symbiose entre des champignons et les racines des plantes). Et trouve désormais une nouvelle illustration.

Un travail de détective

Partie de la côte allemande à bord de deux navires direction les tropiques en 2020, l'équipe dirigée par des chercheurs de l'Institut Max Planck de microbiologie marine a recueilli plusieurs centaines de litres d'eau de mer. Dans cet échantillon massif, il leur a d'abord fallu repérer le gène codant pour une enzyme impliquée dans la fixation biologique de l'azote, pour ensuite reconstituer pas à pas le reste du génome de l'organisme inconnu qui s'avérait capable d'effectuer cette transformation chimique.

"Il s'est agi d'un travail de détective long et minutieux", confie Bernhard Tschitschko, premier auteur de l'étude et expert en bio-informatique (communiqué), "mais en fin de compte, le génome a résolu de nombreux mystères. Nous savions que le gène de la nitrogénase provenait d'une bactérie apparentée (au genre) Vibrio, mais de manière inattendue, l'organisme lui-même était étroitement lié aux (bactéries) Rhizobia qui vivent en symbiose avec les légumineuses."

En effet, sur la terre ferme, les bactéries du genre Rhizobium se trouvent en symbiose avec les racines des plantes légumineuses, telles que les haricots ou les pois, au niveau de petits renflements appelés "nodosités". En échange d'azote assimilable par ses propres cellules, le végétal fournit à son minuscule symbiote de l'énergie ainsi qu'un milieu pauvre en oxygène, propice à son activité.

Mais dans l'océan, quel hôte pouvait bien héberger ces précieux fixateurs d'azote ? À l'aide d'un marquage fluorescent appliqué à ces bactéries, les auteurs de l'étude ont constaté que celles-ci se nichaient à l'intérieur de diatomées – des algues microscopiques faisant partie de la composition du plancton. Il s'agit selon eux de la " première symbiose connue entre une diatomée et un fixateur d'azote autre qu'une cyanobactérie. " 

Le stade précoce d'une fusion ?

La bactérie symbiotique, qui a reçu le nom (provisoire) de Can­did­atus Tecti­glo­bus di­at­omi­c­ola, reçoit du carbone de la part de l'algue en échange d'une forme d'azote assimilable par celle-ci… et pas qu'un peu, d'ailleurs !

" Pour soutenir la croissance de la diatomée, la bactérie fixe 100 fois plus d'azote qu'elle n'en a besoin pour elle-même ", détaille Wiebke Mohr, co-auteur de l'étude.

En retournant en mer, les scientifiques ont repéré cette nouvelle symbiose un peu partout dans le monde, en particulier dans des zones pauvres en cyanobactéries. Ce qui tend à confirmer le rôle crucial joué par cette intime alliance dans le fonctionnement de l'écosystème marin, lequel absorbe la moitié du dioxyde de carbone émis par les activités humaines, limitant ainsi en partie le réchauffement climatique.

Par ailleurs, les auteurs notent que cette symbiose bactérie-diatomée pourrait constituer le stade précoce d'une fusion entre deux organismes pour n'en former qu'un, le plus petit étant amené à devenir un simple organite, ou compartiment cellulaire, au sein du plus grand. Un processus qui s'est déjà produit au cours de l'évolution, donnant naissance aux mitochondries, les " usines à énergie " de nos cellules, ainsi qu'aux chloroplastes, sièges de la photosynthèse chez les végétaux.



 

Auteur: Internet

Info: geo.fr - Nastasia Michaels, 14 mai 2024

[ microbiome ]

 

Commentaires: 0

Ajouté à la BD par miguel

biochimie

L'IA prédit la fonction des enzymes mieux que les principaux outils

Un nouvel outil d'intelligence artificielle peut prédire les fonctions des enzymes sur la base de leurs séquences d'acides aminés, même lorsque ces enzymes sont peu étudiées ou mal comprises. Selon les chercheurs, l'outil d'intelligence artificielle, baptisé CLEAN, surpasse les principaux outils de pointe en termes de précision, de fiabilité et de sensibilité. Une meilleure compréhension des enzymes et de leurs fonctions serait une aubaine pour la recherche en génomique, en chimie, en matériaux industriels, en médecine, en produits pharmaceutiques, etc.

"Tout comme ChatGPT utilise les données du langage écrit pour créer un texte prédictif, nous tirons parti du langage des protéines pour prédire leur activité", a déclaré Huimin Zhao, responsable de l'étude et professeur d'ingénierie chimique et biomoléculaire à l'université de l'Illinois Urbana-Champaign. "Presque tous les chercheurs, lorsqu'ils travaillent avec une nouvelle séquence de protéine, veulent savoir immédiatement ce que fait la protéine. En outre, lors de la fabrication de produits chimiques pour n'importe quelle application - biologie, médecine, industrie - cet outil aidera les chercheurs à identifier rapidement les enzymes appropriées nécessaires à la synthèse de produits chimiques et de matériaux".

Les chercheurs publieront leurs résultats dans la revue Science et rendront CLEAN accessible en ligne le 31 mars.

Grâce aux progrès de la génomique, de nombreuses enzymes ont été identifiées et séquencées, mais les scientifiques n'ont que peu ou pas d'informations sur le rôle de ces enzymes, a déclaré Zhao, membre de l'Institut Carl R. Woese de biologie génomique de l'Illinois.

D'autres outils informatiques tentent de prédire les fonctions des enzymes. En général, ils tentent d'attribuer un numéro de commission enzymatique - un code d'identification qui indique le type de réaction catalysée par une enzyme - en comparant une séquence interrogée avec un catalogue d'enzymes connues et en trouvant des séquences similaires. Toutefois, ces outils ne fonctionnent pas aussi bien avec les enzymes moins étudiées ou non caractérisées, ou avec les enzymes qui effectuent des tâches multiples, a déclaré Zhao.

"Nous ne sommes pas les premiers à utiliser des outils d'IA pour prédire les numéros de commission des enzymes, mais nous sommes les premiers à utiliser ce nouvel algorithme d'apprentissage profond appelé apprentissage contrastif pour prédire la fonction des enzymes. Nous avons constaté que cet algorithme fonctionne beaucoup mieux que les outils d'IA utilisés par d'autres", a déclaré M. Zhao. "Nous ne pouvons pas garantir que le produit de chacun sera correctement prédit, mais nous pouvons obtenir une plus grande précision que les deux ou trois autres méthodes."

Les chercheurs ont vérifié leur outil de manière expérimentale à l'aide d'expériences informatiques et in vitro. Ils ont constaté que non seulement l'outil pouvait prédire la fonction d'enzymes non caractérisées auparavant, mais qu'il corrigeait également les enzymes mal étiquetées par les principaux logiciels et qu'il identifiait correctement les enzymes ayant deux fonctions ou plus.

Le groupe de Zhao rend CLEAN accessible en ligne pour d'autres chercheurs cherchant à caractériser une enzyme ou à déterminer si une enzyme peut catalyser une réaction souhaitée.

"Nous espérons que cet outil sera largement utilisé par l'ensemble de la communauté des chercheurs", a déclaré M. Zhao. "Avec l'interface web, les chercheurs peuvent simplement entrer la séquence dans une boîte de recherche, comme dans un moteur de recherche, et voir les résultats.

M. Zhao a indiqué que son groupe prévoyait d'étendre l'intelligence artificielle de CLEAN à la caractérisation d'autres protéines, telles que les protéines de liaison. L'équipe espère également développer davantage les algorithmes d'apprentissage automatique afin qu'un utilisateur puisse rechercher une réaction souhaitée et que l'IA lui indique l'enzyme appropriée.

"Il existe de nombreuses protéines de liaison non caractérisées, telles que les récepteurs et les facteurs de transcription. Nous voulons également prédire leurs fonctions", a déclaré Zhao. "Nous voulons prédire les fonctions de toutes les protéines afin de connaître toutes les protéines d'une cellule et de mieux étudier ou concevoir la cellule entière pour des applications biotechnologiques ou biomédicales.

Zhao est également professeur de bio-ingénierie, de chimie et de sciences biomédicales et translationnelles au Carle Illinois College of Medicine. 

Auteur: Internet

Info: "Enzyme function prediction using contrastive learning, "30 mars 2023. Université de l'Illinois à Urbana-Champaign

[ cofacteurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

complexité

Epigénétique. Sous ce nom, se cache un tremblement de terre qui fait vaciller la statue la plus emblématique du monde du vivant : le génome. Depuis un demi-siècle, l'ADN était considéré comme un coffre-fort protégeant les plans de l'être humain. Des instructions portées par un collier de 3 milliards de bases lues par d'infatigables nanomachines fabriquant nuit et jour des protéines. C'était trop simple ! "Il y a une deuxième couche d'informations qui recouvre le génome. C'est l'épigénome", résume Marcel Méchali de l'Institut de génétique humaine de Montpellier. En fait, le message génétique n'est pas gravé pour toujours dans les chromosomes. "Des protéines et des molécules viennent se greffer sur l'ADN de base et modifient sa lecture. Cela dépend de l'environnement, de l'air que vous respirez et peut-être même des émotions que vous ressentez à un moment donné. De plus, ces informations sont transmissibles d'une génération à l'autre", poursuit Marcel Méchali. Le poids des régulateurs Tout comme le cerveau, qui n'est pas tout à fait le même après la lecture d'un livre ou à la suite d'une conversation animée, l'ADN est une structure plastique. "Des jumeaux qui partagent le même génome ne réagissent pas de la même façon aux agressions extérieures ou aux médicaments", indique Marcel Méchali. En résumé, l'expression d'un gène varie au fil du temps, d'un individu à l'autre et même d'une cellule à sa voisine. Les experts résument la nouvelle donne d'une phrase : "Ce ne sont pas les gènes qui comptent, mais les facteurs qui assurent leur régulation." Ces régulateurs qui contestent le pouvoir des gènes sont innombrables et souvent inattendus. Des molécules, des protéines, des micro-ARN et même des "pseudo-gènes". "La lecture du génome s'effectue dans des usines à transcription. Elles sont très localisées, mais très riches au plan chimique", ajoute Peter Fraser du Babraham Institute de Cambridge en Angleterre. Guerre des sexes Ce concept remet en cause de très nombreux dogmes, à commencer par celui de la non-transmission des caractères acquis. Certains généticiens pensent ainsi qu'une partie de nos maladies, voire de nos comportements est la conséquence du mode de vie de nos grands-parents. Récemment, le chercheur britannique Marcus Pembrey a démontré, en réanalysant d'anciennes données épidémiologiques, que les préférences alimentaires de préadolescents suédois du début du siècle dernier ont influencé la santé de leurs descendants sur au moins deux générations. Ce chercheur très atypique est connu pour une formule qui résume bien la situation : "Il y a des fantômes qui rôdent dans nos gènes." Darwin et Lamarck vont se retourner dans leur tombe en entendant ces discours, qui brouillent les frontières entre l'inné et l'acquis. Dans ce contexte, les chercheurs s'intéressent aux premiers instants qui suivent la fécondation de l'ovocyte par un spermatozoïde. Une question taraude la communauté scientifique : comment l'ovule décide-t-il d'être un XX (femme) ou un XY (homme) ? En d'autres termes, quand démarre la guerre des sexes ? A l'Institut Curie à Paris, Edith Heard, spécialiste de la biologie du développement, s'intéresse aux mécanismes d'inactivation du chromosome X chez les mammifères. Elle répond simplement à cette question : "Dès les premiers jours." Là encore, ce sont des facteurs aléatoires qui lancent les dés de la sexualité. En fait, ce sont des collisions entre des molécules dans les toutes premières cellules qui font de l'homme un Mozart ou une Marilyn Monroe."C'est la loi du hasard", résume Edith Heard. Minuscules mais puissants Reste enfin la question qui tue. Pourquoi l'homme et le chimpanzé, qui partagent plus de 99 % de leurs gènes, sont-ils si différents l'un de l'autre ? Certains chercheurs, comme l'Américaine Katherine Pollard, se sont lancés dans la quête du "gène de l'humanité" pour l'instant introuvable. D'autres voient dans ces différences la confirmation que ce ne sont pas les gènes qui comptent, mais toutes leurs variations. En réalité, la cellule est un indescriptible chaos. Elle contient, entre autres, des centaines de minuscules fragments d'ARN d'une puissance extravagante. Ils sont capables de bloquer un gène 10.000 fois plus gros. Comme si une mouche posée sur le pare-brise du TGV Paris-Marseille interdisait son départ. Une chose est sûre, ce nouvel horizon de la biologie va générer des océans de données qu'il faudra stocker, analyser et interpréter. Un défi presque surhumain, qui conduira peut-être à la découverte du gène de l'obstination.

Auteur: Perez Alain

Info: les échos, 27,09,2010, La nouvelle révolution génétique

[ sciences ] [ hyper-complexité ] [ adaptation ]

 

Commentaires: 0

biopouvoir

C’est d’ailleurs ce laboratoire P4 de Lyon qui assure les transferts de technologie et la formation des équipes chinoises, sous la houlette de l’Inserm, après le démarrage des travaux à Wuhan en 2011. Pourquoi la France transfère-t-elle des technologies aussi dangereuses ? D’abord pour des raisons sanitaires, afin d’ "aider les Chinois à bloquer H7N9, H5N1, SRAS ou un prochain coronavirus", explique un expert à l’AFP en 2014. Apparemment, il y a eu une petite complication.

Ensuite, pour rester dans la compétition mondiale. La santé, c’est la vitrine ; l’important, c’est la guerre : si la France ne va pas à Wuhan, d’autres iront. Enfin, par naïveté. Selon le même expert, les Français pensent que les Chinois respecteront l’accord : "L’accueil de Français à Wuhan est de nature à rassurer sur ce qui s’y passe". Là aussi, il y a eu une petite complication. [...]

[En 2013,] La représentante du techno-gratin dauphinois [Geneviève Fioraso] signe avec ses homologues chinois 11 accords de partenariat dans les domaines de l’enseignement, de la recherche et de l’innovation. Elle assiste à la signature de protocoles d’accord entre l’Institut Pasteur de Shanghai et des partenaires, dont BioMérieux, représenté par son patron Alain Mérieux, ami de Jacques Chirac et élu RPR au conseil régional de Rhône-Alpes. [...]

Au printemps 2016, le premier train assurant la liaison Wuhan-Lyon parcourt le trajet en quinze jours. La Route de la soie transporte désormais des produits chimiques et des articles manufacturés de Chine, du vin et du matériel biotechnologique de France. [...]

Le 23 février 2017, le Premier ministre Bernard Cazeneuve se rend à Wuhan pour l’accréditation officielle du laboratoire. Le directeur du P4 lyonnais, Hervé Raoul, annonce une coopération avec une cinquantaine de chercheurs français, sous l’égide de l’Inserm. La France financera cette coopération à hauteur d’un million d’euros sur cinq ans. Le patron du labo de virologie lyonnais VirPath, Bruno Lina, se félicite de la disponibilité, à Wuhan, de singes pour tester des vaccins – sans les emmerdeurs de la cause animale. [...]

Cette ouverture n’enchante pas les Américains. Eux-mêmes construisent à tout va des laboratoires de haute sécurité sur leur territoire, passant de 465 à 1295 entre 2001 et 2014. La compétition avec la Chine s’accélère. Le biochimiste Richard Ebright, expert en biosécurité de la Rutgers University (New Jersey), rappelle en 2017 que "le SRAS s’est échappé de laboratoires de haute sécurité de Pékin à de multiples reprises". [...]

Inquiète, l’ambassade des États-Unis en Chine visite le laboratoire de Wuhan et envoie dès janvier 2018 des câbles alarmés au gouvernement américain. Les visiteurs font état de manquements de sécurité et d’un nombre insuffisant de techniciens formés ; ils recommandent de fournir une assistance aux Chinois. Ça, c’est l’histoire racontée par le Washington Post en avril 2020, donnant le beau rôle à des Américains empêtrés dans le Covid-19 comme des amateurs. Voilà des câbles diplomatiques ressortis à point nommé, dans la guerre froide sino-américaine. [...]

Qu’en est-il vraiment ? Demandez aux Chinois. En fait, les Américains sont plus impliqués dans le laboratoire de Wuhan qu’ils ne le laissent croire. Le partenariat franco-chinois battant de l’aile, ils s’engouffrent dans la brèche dès 2015 pour mener des collaborations scientifiques avec le labo P4. [...]

A l’occasion de sa visite d’État en Chine en janvier 2018, Emmanuel Macron signe malgré tout avec Xi Jinping des accors de coopération. Leur déclaration commune souligne : "la Chine et la France conduiront des recherches de pointe conjointes sur les maladies infectieuses et émergentes, en s’appuyant sur le laboratoire P4 de Wuhan".

C’est se leurrer sur le partenaire. D’après un fonctionnaire français cité par le journaliste Antoine Izambard dans son livre France Chine, les liaisons dangereuses :

"Nous leur avons demandé ce qu’étaient devenus les P3 et ils nous ont répondu que certains, situés dans une région proche de l’Himalaya, avaient gelé durant l’hiver et que d’autres avaient disparu. C’était assez déroutant".

Quant aux 50 chercheurs français attendus au P4 de Wuhan – cette coopération qui rassurait tant lors de la signature de l’accord – ils ne sont jamais venus. Le comité franco-chinois sur les maladies infectieuses ne s’est plus réuni depuis 2016. Les Chinois font ce qu’ils veulent, à l’abri des regards dans leur enceinte confinée.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Le règne machinal", éditions Service compris, 2021, pages 105 à 110

[ historique ] [ infectiologie ] [ orient-occident ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

procréation médicalement assistée

La PMA est promise à devenir l’une de ces techniques qu’on utilise par défaut, à avoir la destinée de l’automobile : plus les gens l’utilisent, plus elle est rentable pour ceux qui la promeuvent et la produisent (eu égard aux infrastructures et institutions nécessaires à son fonctionnement), mais moins elle est utile, c’est-à-dire efficace pour satisfaire les besoins (la voiture allonge les distances, ralentit les déplacements par rapport au temps investi dans son coût et réduit les possibilités de déplacement aux trajets prévus par l’infrastructure, tout en rendant impossibles ou problématiques les autres modes de déplacements). Une telle technique devient aussi de plus en plus indispensable : on ne peut pas s’en passer parce qu’il n’y a plus d’alternatives instituées.

Dans le film Gattaca (1997), des parents décident de faire un enfant de manière "naturelle", c’est-à-dire sans PMA et sans modification des gènes de l’embryon par thérapie génique ; l’enfant né de cette union est parfaitement normal, cependant que dans la société où il naît, l’immense majorité des gens choisissent de modifier leur enfant pour qu’il soit conforme aux critères socialement en vigueur, autrement dit qu’il soit génétiquement compétitif (d’autant qu’il est un investissement).
L’enfant "naturel" se retrouve rejeté des institutions comme anormal, fut-ce parce qu’il ne peut plus être assuré et parce que sa santé présente un risque statistiquement indéfendable pour un employeur. Même les enfants modifiés se retrouvent hiérarchisés en fonction des modifications apportées, des investissements consentis (donc des revenus) des parents, et, finalement, ces mêmes enfants n’ont pas plus de chance qu’auparavant de s’en tirer mieux, puisque leur avantage génétique est comparatif, donc relatif aux normes et modes en vigueur – la technique est dès lors devenue aussi indispensable (c’est-à-dire, au fond, obligatoire) qu’inutile. Ce film met admirablement en scène le processus en jeu dans ces techniques génétiques et le résultat que les choix individuels peuvent avoir sur le fonctionnement global, structurel d’une société.

Le scénario est le suivant : plus les gens vont (pouvoir) utiliser la PMA, moins elle va être chère et plus elle sera techniquement confortable (son principal défaut actuel étant d’être une procédure très lourde et encore fort souvent inefficace), ce qui entraînera plus de gens à l’utiliser et donc plus d’offres de services dans une véritable gamme de produits dérivés, souvent bien plus intéressantes que le produit de base, et déjà très avancées techniquement, telles que le dépistage pré-préimplantatoire et les thérapies géniques germinales (impossibles in utero), ou encore la possibilité, encore à l’étude, du développement de l’embryon hors de l’utérus.

En amont – et sans parler de ce qui concerne la loi, les mentalités, les représentations sociales et la demande –, son infrastructure nécessite des laboratoire, des techniciens et des institutions hospitalières spécialisées, répondant pour partie à des besoins-prétextes bien réels (la pollution chimique amenant de plus en plus de cas de stérilité ou de déficiences spermatiques), ainsi que du sperme (bientôt peut-être des ovules, puisque l’on est en passe d’utiliser un seul ovule pour créer plusieurs gamètes) et tout le travail de classification et de rentabilité autour de sa récolte et de sa distribution.

En aval, ce dispositif conduira à l’utilisation de larges produits dérivés (thérapies géniques, DPI, voire utérus artificiel, etc.), à des techniques de conservation des spermatozoïdes ou des gamètes, ou encore à l’utilisation des embryons surnuméraires à des fins de recherches (qui concernent souvent les techniques dérivées) ou pour la production de cellules souches. Or, à des degrés divers, tout cela est en ordre de bataille : notamment, en aval, le DPI et, désormais, les thérapies géniques (grâce au développement récent de l’outil "crispr cas 9") sont parfaitement au point, même s’il reste des limites (énormes) dans la connaissance des interactions entre gènes, de leur activation ; et la recherche sur les utérus artificiels – qui a notamment pour prétexte le sauvetage des grands prématurés – avance à grands pas.

La consommation de la PMA est le nœud du processus : son augmentation rendra l’infrastructure en amont rentable et plus efficace, et nourrira les produits dérivés, les rendant, là encore, plus rentables et plus efficaces. De plus, concourant avec la panique hygiéniste à laquelle se réduit actuellement la question environnementale, on fait du désir d’enfant un droit à assouvir (comme, par exemple, on en a fait un de l’accès à l’Internet) et un enjeu d’égalité ou de non-discrimination : on légitime, on adoube la technologie, pendant que tout le reste de la structure technique (la pollution qui rend stérile) et économique (les exigences de production et de consommation qui tendent à faire de la naissance de l’enfant un obstacle imprévisible et difficile à gérer s’il n’est pas planifié) la rendent "utile".

Auteur: Dufoing Frédéric

Info: https://linactuelle.fr/index.php/2020/01/22/pma-veritables-enjeux-frederic-dufoing/

[ enjeux sociétaux ] [ marchandisation du vivant ] [ big pharma ] [ fuite en avant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Une nouvelle "loi de la nature" qui englobe le vivant, les planètes et les étoiles

(Photo) Ammonite irisée trouvée près de Calgary, Canada. La diversité biologique (biodiversité) entraîne la diversité minérale, et vice versa.


Selon une équipe composée de scientifiques et de philosophes, la théorie de l'évolution formulée par Charles Darwin au 19e siècle n'est qu'un "cas particulier" d'une loi de la nature qui engloberait le vivant mais aussi les minéraux, les planètes et les étoiles. Attention, débats en perspective !

Et si l'évolution ne se limitait pas à la vie sur Terre ? C'est ce que suggère une équipe de neuf scientifiques et philosophes américains dirigés par la Carnegie Institution for Science, à travers un nouvel article publié dans la revue Proceedings of the National Academy of Sciences.

La publication énonce la "loi de l'augmentation de l'information fonctionnelle", selon laquelle tous les "systèmes naturels complexes" – qu'il s'agisse de la vie sur Terre ou des atomes, des minéraux, des planètes et des étoiles – évoluent vers des états "plus structurés, plus diversifiés et plus complexes".

Vivant, atomes, étoiles…

Concrètement, qu'est-ce que cela signifie ? Juste avant d'en venir aux exemples, il faut définir en quelques mots ce que les auteurs entendent par "évolution". Un terme qu'il faut ici comprendre comme "sélection pour la fonction". Restez concentré, c'est tout simple !

Si le naturaliste du 19e siècle Charles Darwin avait globalement assimilé la "fonction" à la survie des êtres, c'est-à-dire à la capacité de vivre assez longtemps pour produire une progéniture fertile, les auteurs vont plus loin en reconnaissant également comme fonctions la "stabilité" (capacité à perdurer) et la "nouveauté" (nouvelles configurations).

Pour illustrer la sélection de la "nouveauté", l'article évoque à la fois des cas qui concernent le vivant, à l'instar de la photosynthèse, de la vie multicellulaire (quand les cellules ont "appris" à coopérer jusqu'à ne former plus qu'un organisme) et des comportements animaux. Mais aussi des exemples au sein du règne minéral !

Ainsi, les minéraux de la Terre, qui étaient au nombre d'une vingtaine à l'aube de notre système solaire, sont aujourd'hui près de 6 000. Et c'est à partir de seulement deux éléments majeurs – l'hydrogène et l'hélium – que se sont constituées, peu après le big bang, les premières étoiles, au sein desquelles se sont ensuite formés une vingtaine d'éléments chimiques plus lourds, avant que la génération suivante d'étoiles ne s'appuie sur cette diversité initiale pour produire près d'une centaine d'autres éléments.

"L'évolution est partout"

"Charles Darwin a décrit avec éloquence la façon dont les plantes et les animaux évoluent par sélection naturelle, avec de nombreuses variations et caractéristiques des individus et de nombreuses configurations différentes. Nous soutenons que la théorie darwinienne n'est qu'un cas très particulier et très important au sein d'un phénomène naturel beaucoup plus vaste", résume dans un communiqué le Pr Robert M. Hazen, de Carnegie, qui a supervisé les travaux.

Et son collègue Michael L. Wong, astrobiologiste à Carnegie et premier auteur de l'étude, de compléter : "l'univers génère de nouvelles combinaisons d'atomes, de molécules, de cellules, etc. Les combinaisons qui sont stables et qui peuvent engendrer encore plus de nouveauté continueront à évoluer."

"C'est ce qui fait de la vie l'exemple le plus frappant de l'évolution, mais l'évolution est partout."

Cette nouvelle "loi de la nature" qui décrit une complexité croissante n'est pas sans en rappeler une autre : le deuxième principe de la thermodynamique. Celui-ci stipule en effet que "l'entropie" (autrement dit, le désordre) d'un système isolé augmente avec le temps – raison pour laquelle la chaleur circule toujours des objets les plus chauds vers les objets les plus froids.

Discussion ouverte

Forces et mouvement, gravité, électromagnétisme, énergie… La plupart des "lois de la nature", décrivant et expliquant les phénomènes observés en permanence dans le monde naturel, ont été énoncées il y a plus de 150 ans.

Nul doute que la nouvelle "loi de la nature" énoncée par l'équipe américaine – formée de trois philosophes des sciences, de deux astrobiologistes, d'un spécialiste des données, d'un minéralogiste et d'un physicien théorique – suscitera moult réactions au sein de la communauté scientifique.

"À ce stade du développement de ces idées, un peu comme les premiers concepts au milieu du 19e siècle pour comprendre "l'énergie" et "l'entropie", une discussion ouverte et large est maintenant essentielle", a d'ailleurs commenté dans le communiqué Stuart Kauffman, chercheur à l'Institut de biologie des systèmes (Seattle).

Pour rappel, une théorie n'est "scientifique" que si les principes qui la constituent conduisent à au moins une prédiction suffisamment précise pour pouvoir être testée par une expérience (ou une mesure) susceptible de la réfuter…

Auteur: Internet

Info: https://www.geo.fr, Nastasia Michaels, 16/10/2023

[ panthéisme ] [ panpsychisme ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel

communisme

Les théories de Marx sont assez bien connues pour ne nécessiter qu’un résumé. Il commence par définir la valeur des marchandises en tant que fonction du travail nécessaire pour les produire. Ce travail, source de la dignité du travailleur, est la seule marchandise qu’il puisse vendre. Une fois que le capitaliste a acheté assez de travail pour satisfaire ses propres besoins, il exploite le travailleur – par l’oppression directe ou par les améliorations indirectes de la productivité – pour en tirer un profit. Ce profit s’accumule, rendant les capitalistes de plus en plus puissants, jusqu’à ce que la classe moyenne ait été absorbée dans la classe des travailleurs, et que toute cette masse misérable et dégradée se révolte et engendre le socialisme. Pour Marx, ce processus était à la fois nécessaire et inévitable, et c’est pourquoi il vantait le capitalisme et l’État bourgeois, dont il pensait qu’ils préparaient les conditions pour le mode de production supérieur du socialisme. C’est aussi la raison pour laquelle il vouait un culte à la production elle-même, la machinerie de la société, à laquelle il estimait que l’homme devait se soumettre jusqu’au jour où elle cesserait de le détruire. Ensuite, selon Marx, tous les antagonismes sociaux se seraient magiquement arrêtés.

[...]

Pour Marx, l’histoire était une machine téléologique, ou orientée vers la finalité, visant à une société sans classe à laquelle les divers antagonismes que renferme la société devaient inévitablement aboutir. Un tel paradis n’était pas fondamentalement différent du paradis judéo-chrétien standard, promis, mais constamment différé, qu’il rejetait. À cette fin, Marx vantait continuellement le développement du capitalisme – même s’il aboutissait à l’extrême déchéance des travailleurs. Marx défendait l’insistance de David Ricardo sur la production pour la production, sans considération pour l’humanité, comme étant "absolument juste". Suivant le nationalisme quasi fasciste de Hegel, pour qui l’individu était un moyen "subordonné" et consommable au service d’une fin étatique, il a fait l’éloge du saccage de l’Inde par l’Angleterre, écrivant dans son essai "La domination britannique en Inde" que l’empire anglais était "l’outil inconscient de l’histoire" et que nous pouvions regretter les crimes des Britanniques ou l’effondrement d’un empire ancien, mais que nous avions la consolation de savoir que cette torture grotesque finirait par "nous apporter un plaisir plus grand". Il était pareillement sanguinaire concernant la colonisation des États-Unis par l’Europe. De tels événements étaient des étapes nécessaires dans le processus historique linéaire, soumis à des lois, envers lequel il était engagé.

[...]

ce qui se passe en réalité ne correspond simplement pas aux prédictions de Marx. Par exemple, il avait la conviction que la paupérisation du prolétariat l’amènerait à se révolter contre l’oppression capitaliste. Pour autant que nous le sachions, cela n’a pas eu lieu et ne s’annonce pas ; l’homme intègre le monde capitaliste dans un état de soumission qui ne fait qu’empirer tandis que la pauvreté l’abrutit et l’affaiblit (particulièrement dans le tiers-monde), que le professionnalisme l’estropie et le désoriente, que la technologie le domestique, le distrait et l’endort avec les compensations qui lui sont offertes par l’État providence – un mécanisme quasi socialiste qui résonne parfaitement avec l’autoreproduction du capitalisme.

[...]

Nous nous trouvons maintenant dans l’impasse que Bakounine avait prédite et vers laquelle Marx et ses nombreux disciples nous ont dirigés, où ceux qui nous oppriment ne sont plus principalement les rois ou les capitalistes, mais les experts professionnels et techniques, et l’ahurissante supermachine qu’ils dirigent. Le pouvoir militaire et le pouvoir usufruitier des rois et des capitalistes existent toujours, mais ils ont été supplantés par le pouvoir de gestion des techniciens (qui, comme l’a démontré leur acceptation universelle des confinements et de la dernière phase biofasciste du système, sont aussi heureux que l’étaient les capitalistes et les rois de voir les classes ouvrières brutalement disciplinées) et le pouvoir d’absorption de la réalité de l’inculture virtuelle et du monde construit pour la servir.

Tout cela explique pourquoi Marx méprisait la classe sociale la moins touchée par l’industrialisation, à savoir la paysannerie. Marx (comme Platon) n’avait aucun intérêt pour les leçons que la nature sauvage pouvait offrir à l’homme, et préconisait en réalité la fin de la production rurale à petite échelle. Il souhaitait qu’on applique à l’agriculture "les méthodes modernes, telles que l’irrigation, le drainage, le labourage à la vapeur, le traitement chimique et ainsi de suite…" et qu’on cultive la terre "à grande échelle", dans ce que nous appellerions aujourd’hui une ferme "monoculturale". En fin de compte, l’extermination de la nature biodiverse et des vies conscientes de ceux qu’elle nourrissait ne le concernait pas vraiment, comme elle ne concerne pas ceux qui, malgré leur pompeuse rhétorique "écoresponsable", sont toujours engagés dans la destruction de l’autosuffisance et de l’indépendance rurale.

Auteur: Allen Darren

Info: https://expressiveegg.org/2022/11/05/adieu-monsieur-marx/

[ critique ] [ historique ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

artificialisation

L’élevage paysan est menacé parce que les lobbies financiers, ceux de l’agriculture productiviste et même une partie du lobby de la viande industrielle ont décidé de remplacer la vraie viande, plus assez rentable à leurs yeux, par de la fausse viande, du faux lait, du faux fromage, des faux œufs, beaucoup plus rentables.

Le système industriel de production de protéines animales est un échec financier comme le dénonce depuis trois décennies Via Campesina: les épizooties coûtent de 18 à 50 % du chiffre d’affaires, la Banque mondiale chiffre le coût de la grippe aviaire à 1250 milliards de dollars… mais pas question pour ces lobbies de laisser se développer l’élevage paysan. Leur réponse est simple : toujours plus d’industrialisation grâce aux biotech.

Ces lobbies veulent gagner la bataille de l’opinion publique car ils se souviennent de l’échec de la viande clonée qu’ils avaient précédemment voulu imposer, c’est pourquoi ils financent mondialement des groupes animalistes. L214 a reçu ainsi plus de 1,3 million de dollars d’une organisation états-unienne qui finance, par ailleurs le secteur de la fausse viande et notamment celui des faux œufs. Chacun appréciera à sa valeur qu’une organisation fondée par deux militants anarchistes soient subventionnée par le grand capital international et qu’elle se retrouve aux côtés des lobby financiers, de la malbouffe et de ce qu’il y a de pire dans l’industrie de la viande contre l’Internationale Via Campesina… Ce généreux donateur de L214, prénommé Open Philanthropy Project (OP2), a été créé par le fonds d’investissement de Dustin Moskovitz, co-fondateur de Facebook et son épouse Cari Tuna, journaliste au Wall Street Journal. Ce généraux donateur travaille aussi avec le Fonds d’investissement de Google, et avec des milliardaires comme Bill Gates, William Hewlett (Packard), etc…

Le secteur de la fausse viande n’est pas séparable des autres biotechnologies alimentaires, comme les OGM 2eet 3egénérations, comme les imprimantes 3D alimentaires, qui fonctionnent comme une imprimante classique sauf qu’elles utilisent différents ingrédients sous forme de pâte dont des hydro-colloïdes, une substance gélatineuse chimique que l’on peut structurer, aromatiser, coloriser à volonté.. La première imprimante 3D végane a été lancée, en avril 2019, en Israël, par la société Jet Eat, dont le PDG Eshchar Ben Shitrit est un personnage central de l’industrie alimentaire sous forme d’impression 3D ….

Les grandes firmes disposent déjà de tout un vocabulaire marketing pour imposer leurs productions, elles parlent de "viande propre", de "viande éthique", de "viande cultivée", une façon de sous-entendre que la vraie viande, le vrai fromage, le vrai lait, les vrais œufs ne seraient ni propres, ni éthiques, ni même, peut être, ne relèveraient d’une quelconque culture…

La fabrication industrielle de faux produits carnés comprend une production dite a-cellulaire et une autre dite cellulaire. La production acellulaire est une technique de biologie synthétique qui utilise des micro-organismes comme des bactéries, des levures, pour synthétiser des protéines et molécules. Le gène codant d’une protéine donnée est alors clonée dans un micro-organisme qui est ensuite en mesure de le produire. Pour obtenir des protéines de lait ou de blanc d’œuf, on cultive des micro-organismes génétiquement modifiés (des bactéries, des levures et autres champignons) et on mélange ensuite ces protéines à d’autres substances végétales.

La production cellulaire consiste à reconstituer des tissus animaux en mettant en culture des cellules prélevées sur l’animal. Elle utilise pour cela des bioréacteurs sur le modèle de ceux utilisés en médecine pour fabriquer de la fausse peau. La culture des cellules se fait avec du sérum de fœtus de veau. Certaines start-up, financées par la NASA, ont pour objectif de remplacer ce sérum par des extraits de champignon… Cette fausse viande cellulaire suppose toujours un animal donneur de cellules sous forme de biopsie (sous anesthésie locale) mais un seul échantillon pourrait permettre de produire jusqu’à 20 000 tonnes de viande. Mosa Meat explique que 150 vaches suffiraient pour satisfaire la demande actuelle mondiale de viande. Cette firme néerlandaise avait précédemment inventé le premier hamburger à base de cellules (un simple collage de 20 000 fibres). Son coût de 325 000 euros avait été financé par Sergey Brin, co-fondateur de Google, Patron de la firme Alphabet inc, une émanation de Google dénoncée pour être un faux nez permettant d’échapper à l’impôt via les paradis fiscaux, il dirige aussi Google X chargé de développer la voiture automatique Google et un service mondial de livraison par drone. Il fallait donc absolument dans l’intérêt de Google que la viande soit accusée de tous les maux plutôt que les transports. Sergey Brin est non seulement la treizième fortune mondiale, mais l'une des vedettes du Forum économique de Davos dont les membres, à peine descendus de leur jet privé, ordonnait en février 2019, au petit peuple de consommer moins de viande pour… sauver la planète (prétendent-ils).

Auteur: Ariès Paul

Info: https://blogs.mediapart.fr/paul-aries/blog/230419/futurs-deputes-europeens-resisterez-vous-au-lobby-de-la-viande-de-laboratoire?

[ apprentis sorciers ] [ culpabilité ] [ schizophrénie ] [ rendement économique ] [ malbouffe ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson