Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 48
Temps de recherche: 0.0483s

psycho-sociologie

Comment le cerveau résout-il le "dilemme du volontaire" ?

Un problème important en sciences sociales est de savoir quand il faut ou non se sacrifier pour le groupe. Lors de décisions collectives, les individus décident souvent de contribuer ou non de leurs ressources à un bien public qui est effectivement implémenté si et seulement si un certain niveau de contribution est atteint.

Cependant, leur contribution est gaspillée s'il y a trop de volontaires, et le projet public échoue si pas assez de volontaires y contribuent. Ce dilemme social s'appelle le dilemme du volontaire. Un exemple classique de ce dilemme est le comportement adopté par les voisins de Kitty Genovese, une jeune femme assassinée en bas de son immeuble sans qu'aucun voisin n'intervienne alors qu'ils avaient entendu ses appels au secours (chacun pensant que d'autres contribueraient à la secourir).

Dans le dilemme du volontaire, l'utilité de la décision de l'un dépend de la décision des autres. Lorsque de telles décisions collectives sont prises à plusieurs reprises au sein d'un même groupe, il est donc crucial d'actualiser sa croyance relative à la décision des autres après chaque interaction. En particulier, le cerveau doit calculer non seulement le bénéfice supplémentaire attendu de l'interaction immédiate, mais également le bénéfice potentiel que le groupe peut tirer des récompenses collectives des interactions sociales restantes après l'interaction en cours. Le cerveau pondère ensuite ces utilités individuelles et collectives pour choisir la stratégie optimale afin de maximiser les bénéfices totaux lors d'interactions sociales.

Ici, les chercheurs ont utilisé l'imagerie cérébrale et le jeu du dilemme du volontaire dans lequel les participants prenaient des décisions avec les mêmes membres d'un groupe à plusieurs reprises lors d'interactions sociales répétées. Le groupe n'obtenait des récompenses que lorsque qu'un certain nombre spécifique de membres consacraient leurs ressources. Une telle règle incitait les individus à prendre des décisions sur le moment où ils devaient ou non engager leurs ressources. Chaque membre du groupe assignait donc des probabilités spécifiques à des stratégies de contribuer ou pas, et la décision optimale variait de manière dynamique en fonction de sa croyance en la décision potentielle des autres.

Malgré l'omniprésence de la prise de décision collective dans la société, la façon dont le cerveau calcule ces utilités individuelles et de groupe reste peu comprise. Les résultats de cette recherche montrent que le cerveau calcule les utilités individuelles et collectives de contribuer ou non dans des régions cérébrales distinctes. Une région antérieure du cerveau, le cortex préfrontal ventromédial calcule l'utilité individuelle tandis que le cortex frontopolaire calcule l'utilité collective. De cette façon, la valeur de chaque état lors des interactions futures est mis à jour en fonction des changements de la croyance quant à la décision d'autres.

Ces résultats permettent de comprendre les mécanismes cérébraux sous-jacents aux décisions collectives stratégiques. Cette étude a permis d'identifier les mécanismes cérébraux engagés lors de décisions collectives de contribuer ou pas à un bien public.

Auteur: Internet

Info: traduit et publié par Adrien le 22/11/2019, Source: CNRS INSB. Source A : Neural computations underlying strategic social decision-making in groups. Park, S.A., Sestito, M., Boorman, E.D, Dreher, J.C.

[ PNL ] [ égoïsme ] [ altruisme ] [ éthologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

santé mondiale

Un champignon, une levure, à la une de l’édition électronique du New York Times. Candida auris est un nouvel exemple de ces agents infectieux qui au fil des dernières années, des dernières décennies, ont développé une résistance aux traitements qui sont pourtant censés les détruire. Le journal publie des témoignages de chercheurs, expliquant que l'utilisation généralisée de fongicides, notamment en agriculture, contribue à la recrudescence de champignons résistants aux médicaments destinés aux humains. C’est un phénomène connu depuis longtemps pour les bactéries, qui deviennent de plus en plus pharmaco-résistantes à mesure qu’on use et qu’on abuse des antibiotiques.

Les center for disease control (CDC) aux Etats-Unis attirent l’attention, sur ces bactéries résistantes à la plupart, si ce n’est désormais à tous les antibiotiques.

Le New York Times, en quelques chiffres, donne une bonne mesure du phénomène, et de l’urgence : on estime qu’aux États-Unis, au début des années 2010, deux millions de personnes chaque année contractaient des infections résistantes et que 23.000 en mouraient. Des études plus récentes de chercheurs de la faculté de médecine de l’Université de Washington font état d’un nombre de morts désormais 7 fois plus élevé.

En ce qui concerne Candida Auris, découvert pour la première fois en 2009 au Japon, on n’en est pas à la première alerte, c'est ce que rappelle Forbes : en 2016 déjà les autorités sanitaires britanniques s’étaient inquiétées d’un cas à Londres. Et le Corriere Della Serra, de son côté, explique que de nombreux foyers sont répertoriés, et surveillés, en Inde au Pakistan ou encore en Afrique du Sud. C'est que Candida auris voyage très bien, et est devenu extrêmement résistant. L’histoire de cet homme âgé, admis l'an dernier à l’hôpital Mount Sinaï, à New York, illustre bien le problème. Il est mort 90 jours après son admission en soins intensifs, et, explique au New York Times le président de l’hôpital, le docteur Scott Lorin, ça aura été un temps suffisant pour que Candida auris colonise entièrement sa chambre : les murs, le lit, les portes, les rideaux, les téléphones, l'évier, le tableau blanc, les poteaux, la pompe, le matelas, les barrières de lit, les trous de la cartouche, les stores, le plafond : tout dans la chambre était positif”. L'hôpital a dû détruire une partie du carrelage du plafond et du sol de la chambre pour venir à bout du champignon.

Alors le New York Times décortique le phénomène, et explique que la vente des fongicides et des antibiotiques rapporte énormément d'argent aux industries pharmaceutique et phytosanitaire. C'est un marché de 40 milliards de dollars à l'échelle mondiale, rien que pour les antibiotiques. Ce que nous voyons arriver, ce sont peut-être de nouvelles maladies du capitalisme. Ou plus exactement : un effet du "darwinisme... multiplié par les conséquences du capitalisme globalisé", selon l'expression de Matt Richtel, un des auteurs de l'enquête, très complète, et composée d'une série d'articles. A lire, d'ailleurs ce matin, sur le New York Times : un reportage au Kenya, où des antibiotiques à pas cher inondent le marché, et contribuent à créer des bactéries extrêmement dangereuses pour la population, et notamment pour les plus fragiles.

Auteur: Internet

Info: https://www.franceculture.fr, 8 mars 2019

[ big pharma ]

 

Commentaires: 0

Ajouté à la BD par miguel

biophysique

Comment les végétaux gèrent le trop-plein d’énergie solaire

La photosynthèse, c’est-à-dire la conversion d’énergie lumineuse en énergie chimique par les plantes, est essentielle à la vie sur terre. Un excès de lumière s’avère toutefois néfaste pour les complexes de protéines responsables de ce processus. Des chercheurs de l’Université de Genève (UNIGE) ont découvert comment Chlamydomonas reinhardtii, une algue unicellulaire mobile, active la protection de sa machinerie photosynthétique. Leur étude, publiée dans la revue PNAS, indique que les récepteurs (UVR8) qui détectent les rayons ultraviolets provoquent l’activation d’une valve de sécurité qui permet de dissiper sous forme de chaleur l’excès d’énergie. Un second rôle protecteur est ainsi attribué à ces récepteurs, dont l’équipe genevoise avait déjà montré la capacité à induire la production d’une "crème solaire" anti-UV.

Grâce à la photosynthèse, l’énergie du soleil est convertie par les végétaux en énergie chimique afin de produire des sucres pour se nourrir. La première étape de ce processus, qui se déroule dans des compartiments cellulaires nommés chloroplastes, consiste à capturer des photons de lumière grâce à la chlorophylle. Si la lumière est essentielle aux plantes, un excès de soleil pourrait endommager leur machinerie photosynthétique, ce qui affecterait leur croissance et leur productivité. Pour se protéger, les plantes activent alors un mécanisme de protection lorsque la lumière est trop abondante, qui fait appel à une série de protéines capables de convertir l’excès d’énergie en chaleur afin qu’elle se dissipe.

Produire des protéines qui détournent l’énergie

"Ce sont les rayons ultraviolets de type B qui sont susceptibles de causer le plus de dégâts à l’appareil photosynthétique, et nous avons voulu savoir s’ils jouaient un rôle de déclencheur du mécanisme de protection et, le cas échéant, lequel», expliquent Michel Goldschmidt-Clermont et Roman Ulm, professeurs au Département de botanique et biologie végétale de la Faculté des sciences de l’UNIGE. Ces travaux, menés en collaboration avec des chercheurs du Laboratoire de physiologie cellulaire et végétale (CEA/CNRS/Université Grenoble Alpes/INRA) et de l’Université de Californie, ont été effectués chez Chlamydomonas reinhardtii, une algue mobile unicellulaire employée comme organisme modèle.

L’équipe de Roman Ulm avait découvert en 2011 l’existence d’un récepteur aux UV-B, baptisé UVR8, dont l’activation permet aux plantes de se défendre contre ces UV et d’élaborer leur propre "crème solaire" moléculaire. Les chercheurs découvrent aujourd’hui que, chez cette algue, ce récepteur déclenche un deuxième mécanisme de protection. "En effet, lorsqu’UVR8 détecte des UV-B, il active un signal qui enclenche, au niveau du noyau cellulaire, la production de protéines , qui seront ensuite importées dans les chloroplastes. Une fois intégrées à l’appareil photosynthétique, elles contribuent à détourner l’énergie en excès, qui sera dissipée sous forme de chaleur grâce à des vibrations moléculaires", détaille Guillaume Allorent, premier auteur de l’article.

Chez les plantes terrestres, la perception des UV-B par ce récepteur est également importante pour la protection de la machinerie photosynthétique, mais le mécanisme n’a pas encore été élucidé. "Il est cependant crucial pour la productivité agricole et l’exploitation biotechnologique des processus photosynthétiques de mieux comprendre les mécanismes responsables de la photoprotection contre la lumière solaire et ses rayons UV-B", indique Michel Goldschmidt-Clermont. La recherche continue.



 

Auteur: Internet

Info: https://www.unige.ch, 2016

[ assimilation chlorophyllienne ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

hypothèse évolutive

Les concepts biosémiotiques de Marcello Barbieri explorent l'idée que les organismes vivants peuvent être considérés comme des systèmes de signes. Il suggère que les unités fondamentales de la vie sont sémiotiques, ce qui signifie que les organismes et leurs comportements peuvent être compris comme des processus d'interprétation et de production de signes.

Ainsi c'est un système où les organismes et leurs actions peuvent être considérés comme un langage. Tout comme nous interprétons et produisons des signes pour communiquer un sens, les êtres vivants font de même à travers leurs comportements et leurs interactions. Cette perspective nous aide à comprendre la vie comme un processus dynamique de communication et d'interprétation basé sur des signes.

Dans sa théorie biosémiotique Marcello Barbieri propose deux aspects fondamentaux : la copie et le codage.

1. La copie, qui désigne le processus par lequel l'information biologique est transmise d'une génération à l'autre. Elle implique la réplication et la transmission du matériel génétique, tel que l'ADN. Ce processus de copie assure le transfert des traits et des caractéristiques des parents à la progéniture.

2. Le codage, quant à lui, fait référence à la traduction de l'information génétique en caractères phénotypiques. Il implique le décodage et l'interprétation des instructions génétiques par la machinerie cellulaire pour produire des caractéristiques physiques et des comportements particuliers. Le processus de codage est responsable de la traduction de l'information génétique dans le développement et le fonctionnement des organismes.

Ces deux aspects fonctionnent ensemble dans la biosémiotique pour faciliter la transmission et l'expression de l'information génétique. La copie assure la continuité du matériel génétique d'une génération à l'autre, tandis que le codage permet de traduire l'information génétique en traits et comportements visibles c'est à dire qu'elles peuvent être considérées comme des signes qui transmettent des informations sur les processus internes de l'organisme et les interactions avec l'environnement. 

Il y a donc ici un lien entre la biosémiotique et l'épigénétique qui réside dans la manière dont ces deux concepts contribuent à notre compréhension de la transmission et de l'expression de l'information biologique.

L'épigénétique fait référence aux changements dans l'expression des gènes qui n'impliquent pas de modifications de la séquence d'ADN sous-jacente. Ces changements peuvent être influencés par divers facteurs tels que des indices environnementaux, des choix de mode de vie et des interactions sociales.

Changements épigénétiques qui peuvent donc être considérés comme une forme de transmission d'informations puisqu'ils influencent l'expression de l'information génétique, entraînant des modifications du phénotype d'un organisme. Ces changements peuvent ensuite être hérités d'une génération à l'autre ou se produire de manière dynamique au cours de la vie d'un individu.

Les modifications épigénétiques agissent essentiellement comme une couche d'information qui influence l'expression des gènes et peut réagir à l'environnement. Elles peuvent être considérées comme une forme de codage, où l'information génétique sous-jacente est "interprétée" et modifiée pour répondre à des circonstances changeantes.

En comprenant l'interaction entre les facteurs génétiques et épigénétiques, la biosémiotique offre un cadre permettant d'explorer la manière dont l'information est transmise, interprétée et exprimée aux niveaux génétique et épigénétique. Cela nous aide à saisir la complexité des systèmes biologiques et le rôle du traitement de l'information dans la formation de la variation phénotypique et de l'adaptation.

Auteur: chatGPT4

Info: août 2023

[ biophysique ] [ interactivité ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

Des cancers peuvent être induits par des modifications épigénétiques, sans mutations de l’ADN 

Des chercheurs français ont montré chez des drosophiles que des facteurs épigénétiques peuvent provoquer des cancers, sans mutation de l’ADN. Leurs travaux sont publiés dans la revue Nature.

L’épigénétique est l’étude des mécanismes qui permettent à une même séquence d’ADN d’avoir une expression génique différente et de transmettre ces états fonctionnels différentiels aux cellules filles.

" Dans notre laboratoire, nous étudions comment des facteurs épigénétiques interagissent dans le développement et comment ils contribuent à maintenir un organisme en bonne santé ", indique Giacomo Cavalli, directeur de recherche au CNRS, à l’institut de génétique humaine de Montpellier.

Son équipe s’est notamment penchée sur l’étude de cancers chez la drosophile, un modèle animal qui détient la plupart des gènes importants chez l’humain.

Depuis plus de 30 ans, la théorie communément admise suppose que les cancers sont dus à des mutations de l’ADN. Mais ces 15 dernières années, les chercheurs se sont rendus compte qu’il était parfois difficile voire impossible de trouver des mutations à qui la cause du cancer pouvait être attribuée, en particulier pour les métastases. Ils se sont donc intéressés à d’autres causes, notamment aux mutations épigénétiques.

Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus

Pas besoin de mutation de l’ADN pour induire un cancer

" Nous nous sommes demandés si, en l’absence de mutation de l’ADN, il n’y aurait jamais de tumeurs. Chez l’insecte, nous pouvons induire des mutations et réduire ou augmenter les niveaux d’expression d’un facteur souhaité. Nous l’avons fait avec des protéines connues pour jouer un rôle de suppresseur de tumeurs, comme les protéines appelées " Polycomb ", détaille le chercheur.

Son équipe a réduit pendant 24 heures les niveaux d’expression de ces facteurs à un stade donné de développement et dans un tissu donné, le tissu précurseur de l’œil. " Lorsqu’on retire ces facteurs, même pendant un temps court, on constate déjà que des gènes sont déréglés. Ce sont les mêmes qui sont déréglés dans les tumeurs. Nous avons alors regardé ce qui se passait si on établissait à nouveau les niveaux normaux de protéines Polycomb dans les cellules : beaucoup de gènes déréglés sont revenus à leur état normal, mais une partie est restée surexprimée de manière irréversible, même si les protéines répressives étaient revenues ", développe-t-il.

Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers

Perspectives de traitements

En étudiant de plus près les raisons de ce phénomène, les chercheurs ont observé que ces gènes mettaient en place un circuit d’activation qui s’auto-maintenait. " Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus ", commente Giacomo Cavalli.

"Nous avons ainsi montré qu’il n’y avait pas besoin de mutation de l’ADN pour induire un cancer ".

Les scientifiques vont désormais poursuivre leurs recherches en menant des expériences similaires avec des cellules de rongeurs ou humaines en culture et en continuant les études chez l’insecte pour observer la naissance de ces cancers épigénétiques.

* Nous pouvons mener des études très fines, en isolant de toutes petites quantités de cellules qui commencent à proliférer. On peut ensuite étudier les gènes qui se surexpriment pour mettre en lumière toute la chaîne des mécanismes moléculaires qui est déréglée. Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers ", espère-t-il.

Auteur: Internet

Info: https://francais.medscape.com/ - Anne-Gaëlle Moulun, 2 mai 2024

[ cause-effet ] [ amorçage ] [ début ] [ déclic ] [ épithéliome ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

communisme

Le nom de Gramsci revient sans cesse depuis plusieurs mois, dans les médias, sur les réseaux sociaux, il est cité en permanence. Qui est-il et quelle est sa pensée?
Gramsci distingue deux types de sociétés. Pour faire simple, celles où il suffit, comme en Russie, de prendre le central téléphonique et le palais présidentiel pour prendre le pouvoir. La bataille pour "l’hégémonie" vient après, ce sont les sociétés "orientales" qui fonctionnent ainsi… Et celles, plus complexes, où le pouvoir est protégé par des tranchées et des casemates, qui représentent des institutions culturelles ou des lieux de productions intellectuelles, de sens, qui favorisent le consentement. Dans ce cas, avant d’atteindre le central téléphonique, il faut prendre ces lieux de pouvoir. C’est ce que l’on appelle le front culturel, c’est le cas des sociétés occidentales comme la société française, italienne ou allemande d’alors.
Au contraire de François Hollande et de François Lenglet, Antonio Gramsci ne croit pas à l’économicisme*, c’est-à-dire à la réduction de l’histoire à l’économique. Il perçoit la force des représentations individuelles et collectives, la force de l’idéologie… Ce refus de l’économicisme mène à ouvrir le "front culturel", c’est-à-dire à développer une bataille qui porter sur la représentation du monde tel qu’on le souhaite, sur la vision du monde…
Le front culturel consiste à écrire des articles au sein d’un journal, voire à créer un journal, à produire des biens culturels (pièces de théâtre, chansons, films etc…) qui contribuent à convaincre les gens qu’il y a d’autres évidences que celles produites jusque-là par la société capitaliste.
L’hégémonie, c’est l’addition de la capacité à convaincre et à contraindre
La classe ouvrière doit produire, selon Gramsci, ses propres références. Ses intellectuels, doivent être des "intellectuels organiques", doivent faire de la classe ouvrière la "classe politique" chargée d’accomplir la vraie révolution: c’est-à-dire une réforme éthique et morale complète. L’hégémonie, c’est l’addition de la capacité à convaincre et à contraindre.
Convaincre c’est faire entrer des idées dans le sens commun, qui est l’ensemble des évidences que l’on ne questionne pas.
La crise (organique), c’est le moment où le système économique et les évidences qui peuplent l’univers mental de chacun "divorcent". Et l'on voit deux choses: le consentement à accepter les effets matériels du système économique s’affaiblit (on voit alors des grèves, des mouvements d’occupation des places comme Occupy Wall Street, Indignados, etc); et la coercition augmente: on assiste alots à la répression de grèves, aux arrestations de syndicalistes etc…
Au contraire, un "bloc historique" voit le jour lorsqu’un mode de production et un système idéologique s’imbriquent parfaitement, se recoupent: le bloc historique néolibéral des années 1980 à la fin des années 2000 par exemple. Car le néolibéralisme n’est pas qu’une affaire économique, il est aussi une affaire éthique et morale.
A travers ces écrits, il devient le grand penseur des crises, casquette qui lui donne tant de pertinence aujourd’hui, et surtout depuis 2007 et 2008 que la crise financière propage ses effets. Dans ces Cahiers, il apporte à l’œuvre de Marx l'une des révisions ou l’un des compléments les plus riches de l’histoire du marxisme. Pour beaucoup de socialistes, il faut attendre que les lois de Marx sur les contradictions du capitalisme se concrétisent pour que la Révolution advienne. La Révolution d’Octobre, selon Gramsci, invalide cette thèse. Elle se fait "contre le Capital", du nom du grand livre de Karl Marx.
Le penseur italien fait partie du patrimoine intellectuel de l’Europe. Il a forgé des outils qui sont utiles aujourd’hui pour analyser le monde, comprendre comment les gens le voient et participent à la vie sociale, comment individus et médias interagissent, comment les représentations et les identités se forment continuellement et magmatiquement. Il a donné naissance à des écoles de pensée foisonnantes et utiles pour qui veut agir sur le monde.

Auteur: Brustier Gaël

Info: *Doctrine visant à considérer l'économie comme centrale dans le fonctionnement

[ socialisme ]

 

Commentaires: 0

proto-vie

Preuve que les premières cellules de la Terre - il y a 3,8 milliards d'années - auraient pu créer des compartiments spécialisés

De nouvelles recherches menées par l'Université d'Oslo montrent que les "protocellules" qui se sont formées il y a environ 3,8 milliards d'années, avant les bactéries et les organismes unicellulaires, pourraient avoir eu des compartiments spécialisés ressemblant à des bulles formées spontanément, ont encapsulé de petites molécules et ont formé des protocellules "filles".

Les scientifiques ont longtemps spéculé sur les caractéristiques que nos lointains ancêtres unicellulaires auraient pu avoir et sur l'ordre dans lequel ces caractéristiques sont apparues. Les compartiments en forme de bulles sont une caractéristique du super-royaume auquel nous appartenons, ainsi que de nombreuses autres espèces, dont la levure. Mais les cellules du supra-royaume actuel possèdent une multitude de molécules spécialisées qui contribuent à la création et à la formation de ces bulles à l'intérieur de nos cellules. Les scientifiques se demandaient ce qui vint en premier : les bulles ou les molécules qui les façonnent ? De nouvelles recherches menées par Karolina Spustova, étudiante diplômée, et ses collègues du laboratoire d'Irep Gözen à l'université d'Oslo, montrent qu'avec seulement quelques éléments clés, ces petites bulles peuvent se former d'elles-mêmes, encapsuler des molécules et se diviser sans aide. Mme Spustova présentera ses travaux, publiés en janvier, le mercredi 24 février lors de la 65e réunion annuelle de la Biophysical Society.

Il y a 3,8 milliards d'années, c'est à peu près la date à laquelle notre ancêtre unicellulaire est apparu. Il aurait précédé non seulement les organismes complexes de notre super-royaume, mais aussi les bactéries les plus élémentaires. La question de savoir si cette "protocellule" possédait des compartiments en forme de bulles reste un mystère. Pendant longtemps, les scientifiques ont pensé que ces bulles de lipides étaient un élément qui distinguait notre superroyaume des autres organismes, comme les bactéries. C'est pourquoi ils pensaient que ces compartiments avaient pu se former après l'apparition des bactéries. Mais des recherches récentes ont montré que les bactéries possèdent elles aussi des compartiments spécialisés, ce qui a amené l'équipe de recherche de Gözen à se demander si la protocellule qui a précédé les bactéries et nos ancêtres pouvait en posséder. Et si oui, comment auraient-ils pu se former ?

L'équipe de recherche a mélangé les lipides qui forment les compartiments cellulaires modernes, appelés phospholipides, avec de l'eau et a placé le mélange sur une surface de type minéral. Ils ont constaté que de grosses bulles se formaient spontanément et qu'à l'intérieur de ces bulles se trouvaient des bulles plus petites. Pour vérifier si ces compartiments pouvaient encapsuler de petites molécules, comme ils devraient le faire pour avoir des fonctions spécialisées, l'équipe a ajouté des colorants fluorescents. Ils ont observé que ces bulles étaient capables d'absorber et de retenir les colorants. Ils ont également observé des cas où les bulles se divisaient, laissant des bulles "filles" plus petites, ce qui est "un peu comme une simple division des premières cellules", explique Mme Spustova. Tout cela s'est produit sans machine moléculaire, comme celles que nous avons dans nos cellules, et sans apport d'énergie.

L'idée que cela ait pu se produire sur Terre il y a 3,8 milliards d'années n'est pas inconcevable. M. Gözen explique que l'eau aurait été abondante et que "la silice et l'aluminium, que nous avons utilisés dans notre étude, sont présents dans les roches naturelles". Les recherches montrent que les molécules de phospholipides pourraient avoir été synthétisées dans les premières conditions terrestres ou être arrivées sur Terre avec des météorites. Selon M. Gözen, "on pense que ces molécules ont atteint des concentrations suffisantes pour former des compartiments phospholipidiques". Il est donc possible que l'ancienne "protocellule" qui a précédé tous les organismes actuellement présents sur Terre ait eu tout ce qu'il fallait pour que des compartiments en forme de bulles se forment spontanément.

Auteur: Internet

Info: https://scitechdaily.com/ - BIOPHYSICAL SOCIETY FEBRUARY 24, 2021

[ microgoutte ] [ protobionte ] [ inorganique organique ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

greenwashing

La découverte climatique de Zeller-Nikolov utilise les données officielles de la NASA pour quantifier les températures moyennes des corps satellites à surface dure en orbite autour de notre Soleil. La formule n’est pas applicable aux planètes gazeuses: Jupiter, Saturne, Uranus et Neptune. Zeller et Nikolov déclarent pouvoir déterminer la température moyenne à long terme de Vénus, de la Terre, de Mars, de Titan (une lune de Saturne) et de Triton (une lune de Neptune) en utilisant seulement deux valeurs informatives: leur distance au Soleil. et leur pression atmosphérique.

Zeller et Nikolov ont constaté que la composition gazeuse des atmosphères n’était pas essentielle pour déterminer les températures moyennes à long terme. Par exemple, l’atmosphère de Vénus est composée à 96,5% de dioxyde de carbone, alors que l’atmosphère terrestre ne contient que 0,04% de dioxyde de carbone, mais ces différences considérables n’ont aucune incidence sur les calculs mathématiques nécessaires pour déterminer les températures moyennes. Cette preuve mathématique nous dit que même si Vénus a 2412 fois plus de dioxyde de carbone que la Terre, mesurée en pourcentage de son atmosphère, le CO2 n’a aucun effet mesurable sur sa température moyenne à long terme. Zeller et Nikolov affirment que le dioxyde de carbone et tous les autres gaz atmosphériques ne contribuent à la température que par leur masse physique et la pression atmosphérique résultante.

La découverte de Zeller-Nikolov signifie que l’atmosphère de la Terre nous maintient au chaud grâce à un chauffage par compression de gaz sous le poids de l’atmosphère de la Terre, d’une épaisseur d’environ 300 milles, et non par effet de serre. Une serre réelle est entourée d’un mur de verre. La Terre n’a pas d’enceinte et est ouverte sur l’espace. Les deux scientifiques suggèrent donc de remplacer le terme "effet de serre" par "rehaussement thermique atmosphérique". La chaleur est créée en comprimant les gaz atmosphériques sous l’effet de la gravité. De même, dans un moteur diesel, un piston est utilisé pour comprimer les gaz afin de générer suffisamment de chaleur pour éliminer le besoin d’une bougie d’allumage. L’attraction gravitationnelle énorme exercée sur la masse énorme de l’atmosphère terrestre combinée au rayonnement solaire réchauffe notre planète suffisamment pour permettre aux formes de vie à base de carbone de s’épanouir.

Si le dioxyde de carbone était le puissant catalyseur de gaz à effet de serre que les alarmistes prétendent, les calculs de Vénus devraient être radicalement différents de ceux de la Terre, mais ils sont identiques. Cela nous indique que le CO2 n’a pas d’effet direct mesurable sur la température de la planète, ce qui est parfaitement logique puisque la Terre a connu de graves périodes glaciaires lorsque les niveaux de CO2 dans l’atmosphère étaient bien plus élevés qu’aujourd’hui.

La théorie des gaz à effet de serre basée sur le dioxyde de carbone Le scientifique suédois Svante Arrhenius, proposé pour la première fois en 1896, n’a jamais été prouvée valide par des tests empiriques. Les idées de Svante semblaient plausibles, alors les gens les acceptèrent sans preuve. Plus récemment, des politiciens américains ont littéralement ordonné au GIEC de dépenser des sommes énormes en dollars des contribuables en concoctant des projections farfelues et fantaisistes de modèles informatiques fondées sur les hypothèses de Svante. Comme le dit le vieil adage de la programmation informatique, "garbage in, garbage out" (GIGO).

Toutes les prévisions climatiques catastrophiques du GIEC ont échoué, en dépit des efforts de nos médias fortement biaisés pour déformer et exagérer. Les vagues de chaleur estivales ordinaires et les tempêtes hivernales ont été faussement décrites comme des précurseurs de la fin du monde, ce qui ne se produira certainement pas si nous n’élisons plus de démocrates. Les gourous du climat continuent à repousser la date de la catastrophe dans l’avenir parce que la catastrophe mondiale qu’ils continuent de prédire n’arrive jamais. Ce qui est arrivé, ce sont des fluctuations ordinaires et attendues du climat de la Terre depuis sa formation. Demandez-vous quand le climat de la Terre était plus agréable et bénéfique pour l’homme que le climat actuel. La réponse honnête est simplement jamais .

Malgré les nombreuses revues techniques effectuées par des scientifiques du monde entier, personne n’a trouvé d’erreur dans les formules mathématiques et les calculs spécifiques de Zeller et Nikolov. Les objections soulevées contre leur découverte portent en grande partie sur le fait que cela ne correspond pas aux théories climatiques acceptées, qui sont populaires sur les plans professionnel et politique. La science du climat est devenue un outil de pouvoir politique orwellien et une énorme activité lucrative pour les scientifiques, les professeurs, les universités, les employés des gouvernements fédéral et des États et de mille et une entreprises écologiques. Il suffit de penser aux milliards de dollars consacrés au "réchauffement de la planète" et aux faux remèdes prescrits. Aucun malheur n’équivaut à aucun recours coûteux ni à aucun profit pour ceux qui vendent la peur.

Auteur: Internet

Info: La terre du futur, https://www.laterredufutur.com/accueil/la-decouverte-climatique-de-zeller-nikolov-pourrait-bouleverser-le-monde/

[ climatosceptique ] [ cycle naturel ] [ catastrophisme ] [ lobbyisme écologique ] [ Gaïa ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

évolution biologique

Une nouvelle étude de Yale sur la levure montre comment des facteurs non génétiques sont impliqués dans l'évolution en temps réel.

Dans l'étude, publiée dans la revue Cell Reports du 27 octobre, des chercheurs de l'Institut de biologie systémique de Yale ont montré comment les mécanismes épigénétiques - des modifications du phénotype d'un organisme non causées par des altérations de sa séquence d'ADN - contribuent à l'évolution du réseau de gènes chez la levure qui est responsable de la régulation de l'utilisation du sucre galactose. L'étude a montré qu'un changement épigénétique dans l'activité des gènes se transmettait à travers des centaines de générations de levure, et elle a des implications plus larges concernant le rôle de l'épigénétique dans l'évolution.

"La nature est futée", a déclaré Murat Acar, auteur principal de l'article et professeur associé de biologie moléculaire, cellulaire et du développement, ainsi que de physique. "Elle trouve toujours une solution chaque fois qu'elle est mise au défi par quelque chose. Vous voulez avoir une sorte de gagnant parmi votre population pour surmonter cet environnement difficile".

Jusqu'à récemment, l'explication de l'évolution reposait uniquement sur des mutations génétiques spontanées stimulant des adaptations avantageuses dans les organismes, selon David Moreno Fortuno, associé postdoctoral à l'Institut de biologie des systèmes et l'un des co-auteurs de l'article. Il a expliqué que cette théorie est connue sous le nom de néodarwinisme parce que la nature des gènes n'avait pas encore été découverte à l'époque de Darwin.

La théorie darwinienne de l'évolution contraste avec l'idée de Jean-Baptiste Lamarck, autrefois largement discréditée, selon laquelle l'évolution consiste à transmettre de petits changements qui sont acquis au cours de la vie d'un organisme, selon le PBS. Lamarck a publié sa théorie au début du 19ème siècle en France, et l'exactitude de cette théorie est toujours débattue aujourd'hui, surtout au vu de la résurgence, au cours des deux dernières décennies, de l'étude des influences épigénétiques - ou pas - sur l'évolution.

Les chercheurs ont utilisé un marquage fluorescent dans les cellules de levure pour suivre l'expression des gènes codant du galactose, des cellules plus brillantes correspondant à une plus grande expression de ces gènes. Ils ont observé les niveaux de fluorescence sur une période de sept jours et ont sélectionné à plusieurs reprises les cellules les plus faibles de la population. Les chercheurs nomment cette séparation des cellules plus faibles de la population générale de "pression sélective". Par rapport à la population de levure d'origine, ils ont constaté une diminution dans le temps de la quantité d'expression de ces marqueurs au sein de la population expérimentale.

 "Cette diminution s'est maintenue, même lorsque  la pression sélective fut supprimée pendant plus de 200 générations", a déclaré M. Fortuno.

Du fait que le génome de la levure soit si petit - seulement 12 millions de paires de bases contre 3 milliards pour l'homme - l'analyse de l'ensemble du génome de l'organisme pour les mutations génétiques est beaucoup plus facile à réaliser dans les cellules de levure.

Certaines des cellules de levure qui avaient modifié l'expression du gène codant pour le galactose ne présentèrent aucune mutation dans le réseau de gènes spécifié. Les chercheurs ont donc pu exclure les contributions génétiques à leurs observations.

"En fin de compte, nous avons vu que les théories darwiniennes de l'évolution génétique ne sont pas en mesure d'expliquer ces résultats par elles-mêmes", a déclaré M. Acar. "Il est nécessaire d'y inclure la théorie évolutionniste lamarckienne pour expliquer tout le spectre de nos résultats".

M. Fortuno a abordé les implications potentielles de l'étude, en prédisant que les cellules cancéreuses malignes sont similaires aux cellules de levure dans la mesure où les deux types de cellules sont en "évolution constante". Il a ajouté que la compréhension du rôle des mécanismes épigénétiques dans les génomes des cellules de levure pourrait ouvrir des pistes de recherche pour développer des traitements contre le cancer ou déterminer le stade du cancer dont souffre un patient.

Il note également que certains scientifiques pensent que la culture est un mécanisme épigénétique. Bien que la culture soit non génétique, il est possible qu'elle ait un impact mesurable sur nos marques épigénétiques si ces experts ont raison.

Le document indique également que les mécanismes génétiques et épigénétiques "n'ont pas à s'exclure mutuellement". 

"En réponse à une condition environnementale particulière, les deux types de mécanismes peuvent jouer un rôle et se compléter l'un l'autre", peut-on lire dans le document.

Le document explique également que les mécanismes épigénétiques peuvent provoquer des adaptations plus rapides à un environnement changeant, ils agissent généralement sur une échelle de temps plus courte que les mécanismes génétiques. À l'inverse, les mécanismes génétiques sont en jeu sur des périodes plus longues et entraînent des changements plus permanents dans un organisme.

M. Acar souligne que cette étude n'est qu'une première étape vers une meilleure compréhension du rôle des facteurs épigénétiques et qu'il attend avec impatience de voir des expériences similaires être réalisées sur d'autres organismes.

"Ce n'est qu'alors que nous verrons si ces résultats peuvent être généralisés, qu'ils soient darwiniens, lamarckiens ou hybrides - une théorie unifiée de l'évolution régissant l'évolution des organismes", a-t-il déclaré.

Les cellules de levure se reproduisent de manière asexuée toutes les 90 à 100 minutes.

Auteur: Jalbert Jonathan

Info: https://yaledailynews.com/ NOV 12, 2020

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel