Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5229
Temps de recherche: 0.0525s

biologie moléculaire

Les MicroARN sont au cœur d’une révolution médicale 

(video : Les repliements d'une molécule d'ARN modélisés par informatique Des scientifiques ont produit une vidéo incroyable à partir de données expérimentales sur le repliement...)

La découverte des microARN, récompensée lundi par le Nobel de médecine, montre combien nos gènes fonctionnent de manière complexe. Reste toutefois à savoir à quel point leur connaissance peut permettre d'élaborer des traitements efficaces.

Hier, lundi 7 octobre, le prix Nobel de médecine et physiologie a ouvert la cérémonie des récompenses philanthropiques qui se tient cette semaine, à Stockholm en Suède. Deux biologistes américains ont été nominés pour leurs éminents travaux en génétique, et plus particulièrement leur découverte des microARN. En quoi est-ce révolutionnaire ? Explications.

Qu'est-ce qu'un micro-ARN ?

Ce sont des bribes d'ARN, pour acide ribonucléique. Petit rappel concernant l'ARN : présent dans toutes nos cellules, il est synthétisé par notre organisme à partir des gènes rassemblés dans notre ADN. Son rôle le plus connu est celui d'intermédiaire entre nos gènes et la production des myriades de protéines qui font fonctionner notre corps, pour lequel on parle d'ARN messager.

Les microARN, eux, font partie de l'ARN dit " non codant " : ils ne sont pas traduits en protéines. Mais ce n'est pas pour autant qu'ils ne jouent aucun rôle ! La découverte des microARN dans les années 1990 par Victor Ambros et Gary Ruvkun, tous deux nobélisés lundi, a montré que notre génome ne se résumait pas une simple ligne droite entre ADN, ARN puis protéines.

(photo : Le 07 octobre, Victor Ambros et Gary Ruvkun ont reçu le prix Nobel de médecine et physiologie pour leurs découvertes sur les microARN.)

Comment agissent les micro-ARN ?

" La découverte des microARN a amené un niveau supplémentaire de complexité en révélant que des régions que l'on pensait non codantes jouent un rôle dans la régulation des gènes ", explique à l'AFP Benoît Ballester, chercheur à l'Inserm et spécialiste du génome non codant. Ces microARN viennent interférer avec le fonctionnement de l'ARN messager : " C'est comme un Velcro qui viendrait s'y fixer et l'empêcherait d'être traduit en protéines ", avance M. Ballester. Conséquence : certains gènes s'expriment peu ou pas - ils sont inhibés -, et d'autres de manière plus marquée - ils sont intensifiés.

Il ne faut cependant pas imaginer les microARN comme une forme de parasites internes qui viendraient gâcher le bon fonctionnement de notre génome. Ils forment " une part intégrante de la régulation de notre génome, c'est aussi important que la traduction classique d'un gène en protéine ", souligne le spécialiste du génome non codant.

(image : Schéma de la formation et de la fonction d'un microARN"

Pourquoi est-ce si intéressant ?

La découverte en 1993 du premier microARN par Victor Ambros n'a dans l'immédiat pas été saluée comme une avancée majeure. Le chercheur était un spécialiste de la biologie de certains vers, et c'est chez l'un d'eux (un ver rond d'un millimètre, appelé C. elegans) qu'il a identifié l'existence de microARN. " Personne n'a vraiment fait attention ", reconnaît auprès de l'AFP Eric Miska, généticien à l'université de Cambridge, admettant qu'il avait fallu des années pour y voir autre chose " qu'un truc bizarre chez les vers ".

C'est en 2000 que Gary Ruvkun a identifié l'existence de mécanismes semblables chez l'humain, ouvrant la voie à tout un nouveau pan de la génomique. " Ce minuscule morceau d'ARN, si important pour le développement de ce petit ver, on l'a aussi, vous et moi, souligne Eric Miska. Et il joue même un rôle essentiel, puisqu'il empêche l'apparition de tumeurs ".

Quelles retombées concrètes ?

Si la connaissance des microARN permet déjà de bien mieux comprendre notre génome, reste à savoir s'ils peuvent servir de levier d'action pour guérir des maladies. Depuis plusieurs années, nombre d'entreprises de biotechnologie misent sur cette piste. C'est notamment un terrain prometteur contre les cancers, dans l'idée d'établir des traitements très ciblés. Ces recherches s'inscrivent plus largement dans un contexte où l'on comprend de mieux en mieux comment les tumeurs peuvent se développer différemment au niveau moléculaire d'un patient à l'autre.

Toutefois, contre le cancer ou d'autres pathologies, il n'y a encore " rien qui ne soit proche d'une application réelle ", a précisé à la presse Gunilla Karlsson Hedestam, professeure à l'institut Karolinska, lors de l'annonce du prix Nobel à Stockholm. Les microARN sont en effet une cible complexe à gérer en raison de leur instabilité. Mais, sans forcément en faire la base d'un médicament, nombre de chercheurs espèrent d'abord les utiliser comme " biomarqueur ", c'est-à-dire un outil de diagnostic qui permettrait par exemple d'identifier à quelle typologie de cancer le patient est confronté.

Auteur: Internet

Info: https://www.futura-sciences.com, 7 octobre 2024

[ interrupteurs ] [ contrôleurs ]

 
Commentaires: 1
Ajouté à la BD par miguel

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

post-cybernétique

L’informatique quantique prête à transformer l’humanité : nous sommes à quelques pas de son moment " Spoutnik " !

L'un des principaux freins au développement de l'informatique quantique réside dans la complexité à réduire les erreurs induites. Pour soutenir cette technologie prometteuse, la société Riverlane produit des microprocesseurs qui rendent ses résultats plus fiables. D'énormes investissements dans ce domaine et les progrès réalisés montrent que l'informatique quantique pourrait bientôt atteindre un stade où elle pourra révolutionner de nombreux secteurs.

Du développement de nouveaux médicaments à la lutte contre le réchauffement climatique, l'informatique quantique attise des espoirs de progrès majeurs. Dans une rue commerçante de Cambridge, la course vers cette révolution technologique annoncée bat son plein.

Pour Steve Brierley, fondateur de la société Riverlane, basée dans la célèbre ville universitaire du centre de l'Angleterre, la technologie connaîtra dans les années qui viennent son moment " Spoutnik ", du nom du satellite soviétique dont le lancement en 1957 avait constitué une étape majeure de la conquête spatiale. " L'informatique quantique ne constituera pas seulement une légère amélioration par rapport aux précédents ordinateurs, ce sera un énorme pas en avant ", assure-t-il à l'AFP.

La complexité de la correction des erreurs quantiques

Son entreprise produit le premier microprocesseur dédié à cette technologie aux puissances de calcul gigantesques, qui détecte et corrige les erreurs freinant actuellement son développement. Fabriquer des appareils " à la hauteur des promesses incroyables de cette technologie nécessite un changement massif d'échelle et de fiabilité, ce qui nécessite des systèmes fiables de correction des erreurs ", explique John Martinis, ancien responsable du développement de cette technologie au sein du laboratoire Google Quantum AI.

Signe de l'intérêt pour les activités de Riverlane, et en général pour cette technologie comparée à l'intelligence artificielle (IA) pour ses bouleversements potentiels, la société a annoncé mardi 6 août avoir levé 75 millions de dollars (près de 69 millions d'euros) auprès d'investisseurs.

D'ici deux à trois ans, nous pourrons atteindre des systèmes capables de supporter un million d'opérations sans erreurs ", contre un millier seulement actuellement, avance Earl Campbell, vice-président de Riverlane. Ce seuil, précise-t-il, est considéré comme crucial pour rendre les ordinateurs quantiques plus performants que leurs équivalents actuels.

Avec ses capacités de stimulation des interactions entre particules, atomes et molécules, la technologie est considérée comme susceptible de permettre le développement de médicaments révolutionnaires ou d'améliorer radicalement la production d'engrais, une industrie très émettrice de CO2. Elle pourrait ouvrir la voie à des batteries bien plus efficaces, au rôle clé dans la lutte contre le réchauffement climatique.

L'infinité d'états des qubits

La quantité d'informations que les ordinateurs quantiques peuvent exploiter augmente de manière exponentielle avec leur taille, contrairement aux appareils actuels. L'informatique classique repose en effet sur des données stockées sous la forme de bits, qui n'ont que deux états possibles (0 ou 1). Les ordinateurs quantiques, eux, utilisent des " qubits ", briques de base qui ont une infinité d'états possibles pouvant se superposer et s'enchevêtrer.

Mais ce fonctionnement qui utilise les extraordinaires propriétés de la matière à l'échelon atomique ou sub-atomique a un désavantage : leur comportement étrange rend nécessaire l'utilisation d'algorithmes complexes pour les traiter. Les qubits sont aussi très sensibles aux erreurs dues au bruit et résoudre ce problème sera " crucial ", souligne Steve Brierley, entouré d'oscilloscopes et circuits intégrés dans le laboratoire de son entreprise.

Les géants de l'informatique comme Google, IBM et Microsoft investissent des sommes énormes pour cette technologie et en particulier pour tenter de réduire les erreurs induites, soit en protégeant les appareils ou en utilisant des algorithmes pour détecter et corriger ces erreurs.

Tirer les leçons de l'IA

Vu cette complexité, l'intérêt de la technologie s'exprime surtout avec des ordinateurs de grande taille. Quand on augmente leur échelle, les possibilités offertes augmentent plus vite que les défauts à régler. Autrement dit, ces engins fonctionnent mieux pour des tâches complexes.

On ne se servira certainement pas des ordinateurs quantiques pour envoyer des courriels ", sourit Steve Brierley. En revanche, " on pourra résoudre des problèmes qui seraient autrement insolubles ", ajoute-t-il. L'entrepreneur juge " très enthousiasmants " les résultats obtenus. " Le défi maintenant est de pouvoir passer à plus grande échelle ".

Les progrès actuels, en plus du potentiel d'une technologie susceptible de surmonter tous les systèmes de cryptage existants et créer de nouveaux matériaux, attirent déjà l'attention des régulateurs. Steve Brierley juge " très important de tirer les leçons de l'IA pour ne pas se retrouver surpris par cette technologie et réfléchir très tôt à ses implications ".

Je pense que l'informatique quantique finira par être régulée, car c'est une technologie très importante, relève-t-il. Et je pense qu'il s'agit d'une technologie pour laquelle aucun gouvernement ne veut passer en second ".

Auteur: Internet

Info: futura-sciences.com, 18 août 2024

[ anticipation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nanomonde

Les scientifiques découvrent de nouvelles formes de vie à l’intérieur du corps humain

Des chercheurs ont découvert des structures microscopiques inédites, baptisées " obélisques ", qui remettent en question les bases de la biologie moderne. Ces entités, présentes dans le microbiote humain, intriguent par leur forme et leur origine inconnues, et pourraient révéler de nouvelles interactions fondamentales entre les microbes et leur environnement hôte. Cette découverte ouvre une porte vers des catégories de vie encore non explorées, bouleversant notre compréhension des mécanismes évolutifs.

Une découverte scientifique majeure pourrait changer notre compréhension des micro-organismes peuplant le corps humain. Des chercheurs ont identifié des entités microscopiques inédites, baptisées " obélisques ", présentes dans des bactéries associées au microbiote humain. Ces structures d’ARN circulaire remettent en question les frontières actuelles des formes de vie connues.

Une découverte inattendue au cœur des bactéries humaines

Les obélisques ont été découverts par une équipe dirigée par Andrew Fire, prix Nobel de médecine, en collaboration avec des experts en biologie cellulaire et moléculaire. L’étude, publiée sur la plateforme scientifique bioRxiv, repose sur une analyse approfondie de gigantesques bases de données génétiques. Ces bibliothèques contiennent des informations issues de microbes associés à divers environnements, y compris le corps humain.

Ces entités microscopiques, bien que comparables à des viroïdes (des agents pathogènes végétaux constitués uniquement d’ARN), présentent des caractéristiques uniques. Contrairement aux virus, les obélisques ne possèdent pas d’enveloppe protéique. Leur ARN forme de petites boucles compactes, et leur taille est si réduite qu’ils avaient échappé à toute détection jusqu’ici.

Mark Peifer, biologiste cellulaire à l’université de Caroline du Nord, décrit ces structures comme " totalement inattendues " et souligne l’importance de cette découverte pour la microbiologie moderne.

Une présence omniprésente dans le microbiote humain

L’analyse des données a révélé la présence d’obélisques dans plusieurs parties du corps humain, notamment dans les bactéries de la bouche et de l’intestin. Ces découvertes suggèrent que ces entités ne sont ni rares ni isolées. Au contraire, elles semblent avoir une distribution large et une diversité remarquable, avec des milliers de variantes identifiées.

Chaque région du corps humain abriterait des types spécifiques d’obélisques, en interaction étroite avec les bactéries qui composent le microbiote. Selon Simon Roux, biologiste computationnel au Lawrence Berkeley National Laboratory, cette découverte pourrait indiquer une relation complexe et encore méconnue entre ces entités d’ARN et notre écosystème interne.

Des implications sanitaires encore floues

Pour le moment, les scientifiques ignorent si les obélisques ont des conséquences sur la santé humaine. Leur mode d’action, leur rôle potentiel dans les interactions bactériennes ou leur influence sur l’organisme hôte restent incertains. Matthew Sullivan, biologiste intégratif à l’université d’État de l’Ohio, affirme que leur simple découverte ouvre un champ d’études inédit, qui nécessitera des années de recherche.

Une hypothèse avancée est que ces structures pourraient moduler le comportement bactérien, influençant indirectement des aspects de la biologie humaine. Si tel est le cas, les obélisques pourraient jouer un rôle dans des processus encore inconnus, voire contribuer à des pathologies.

Une redéfinition des catégories de la vie

Les obélisques posent des questions fondamentales sur les classifications actuelles des formes de vie. Ni bactéries, ni virus, ni viroïdes, ils ne correspondent à aucune définition existante. Cette découverte pourrait signaler l’existence de nouvelles classes d’agents biologiques, élargissant les limites de notre compréhension de l’évolution.

Historiquement, les scientifiques se sont interrogés sur l’origine des virus et sur l’apparition des formes d’ARN simples ou complexes dans l’évolution biologique. Les obélisques pourraient fournir des indices sur les mécanismes évolutifs ayant conduit à l’émergence de formes de vie primitives.

Les perspectives pour la recherche

L’identification des obélisques n’est qu’un début. Grâce aux avancées en bioinformatique et en analyse génétique, les chercheurs espèrent mieux comprendre ces structures et leur rôle dans le microbiote. Cette quête pourrait révéler d’autres entités similaires et élargir notre vision de l’univers microscopique.

Simon Roux résume cette effervescence scientifique : " Nous sommes à un moment où la technologie nous permet de regarder plus profondément que jamais. Chaque nouvelle découverte nous rappelle à quel point notre connaissance est encore limitée. "

Alors que des études sont en cours pour mieux cerner ces structures, leur impact potentiel sur la biologie humaine pourrait redéfinir des pans entiers de la microbiologie et de la médecine.

La découverte des obélisques est un rappel puissant que le corps humain, loin d’être entièrement cartographié, recèle encore des mystères. Ces entités pourraient révéler des aspects inconnus de l’interaction entre microbes et humains, avec des répercussions profondes sur notre compréhension de la vie.



 

Auteur: Internet

Info: https://armees.com/, Jean-Marc, 18 décembre 2024

[ biologie-évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

biogénétique

Une partie de l' " ADN indésirable " sert un objectif 

Si on étire tout l’ADN d’une seule cellule humaine, il mesurerait plus de 5 mètres de long. Mais seul un fragment de cet ADN produit des protéines, la machinerie biologique nécessaire à la vie. En 2003, le Human Genome Project a montré que seulement 1 à 2 % de notre ADN – environ 4 cm sur ces 5 mètres – code des gènes pour les protéines. Les séquences non codantes qui constituent les 98 % restants sont souvent appelées " ADN indésirable (junk dna) ", un terme inventé en 1972 par le généticien Susumu Ohno, qui a suggéré que, tout comme les archives fossiles regorgent d'espèces disparues, nos génomes sont remplis d'espèces disparues. gènes éteints ou mal copiés endommagés par des mutations.

Mais même si 98 % du génome est non codant, il ne s’agit pas précisément d’un poids mort. En 2012, un consortium de centaines de scientifiques a rapporté dans l'Encyclopédie des éléments de l'ADN qu'au moins 80 % du génome est " actif " au sens où une partie de l'ADN est traduite en ARN*, même si cet ARN est pas ensuite traduit en protéines. Il existe peu de preuves que la plupart de cet ARN provenant de gènes brisés ait un effet.

Cependant, certaines séquences non codantes, qui représentent environ 8 à 15 % de notre ADN, ne sont pas du tout indésirables. Elles remplissent des fonctions importantes, en régulant les gènes actifs des cellules et la quantité de protéines qu’ils produisent. Les chercheurs découvrent encore de nouvelles façons dont l'ADN non codant fait cela, mais il est clair que la biologie humaine est massivement influencée par les régions non codantes, qui ne codent pas directement pour les protéines mais façonnent quand même leur production. Les mutations dans ces régions, par exemple, ont été associées à des maladies ou à des troubles aussi variés que l'autisme, les tremblements et le dysfonctionnement hépatique.

De plus, en comparant les génomes humains à ceux des chimpanzés et d’autres animaux, les scientifiques ont appris que les régions non codantes peuvent jouer un rôle important dans ce qui nous rend uniques : il est possible que la régulation des gènes par l’ADN non codant différencie plus les espèces que les gènes et les protéines elles-mêmes.

Les chercheurs découvrent également que de nouvelles mutations peuvent parfois conférer de nouvelles capacités à des séquences non codantes, ce qui en fait une sorte de ressource pour une évolution future. En conséquence, ce qui mérite l’étiquette " ADN indésirable " reste à discuter. Les scientifiques ont clairement commencé à nettoyer ce tiroir à déchets depuis 1972 – mais ce qui reste dedans est encore à débattre.

Quoi de neuf et remarquable

Les scientifiques ont travaillé pour comprendre un type d’ADN non codant appelé " transposons** " ou " gènes sauteurs ". Ces bribes peuvent parcourir le génome, créant des copies d’elle-mêmes, qui sont parfois insérées dans des séquences d’ADN. Les transposons se révèlent de plus en plus essentiels au réglage de l'expression des gènes ou à la détermination des gènes codants activés pour être transcrits en protéines. C'est en partie pour cette raison qu'ils s'avèrent importants pour le développement et la survie d'un organisme . Lorsque les chercheurs ont conçu des souris dépourvues de transposons, la moitié des petits des animaux sont morts avant la naissance. Les transposons ont laissé des traces sur l'évolution de la vie. Quanta a rapporté qu'ils peuvent passer d'une espèce à l'autre - comme du hareng à l'éperlan et des serpents aux grenouilles - offrant parfois même certains avantages, comme protéger les poissons du gel dans les eaux glacées.

Les généticiens étudient également les " courts tandem  répétés ", dans lesquels une séquence d’ADN longue d’une à six paires de bases seulement est fortement répétée, parfois des dizaines de fois de suite. Les scientifiques soupçonnaient qu'elles aidaient à réguler les gènes, car ces séquences, qui représentent environ 5 % du génome humain, ont été associées à des maladies telles que la maladie de Huntington et le cancer. Dans une étude couverte par Quanta en février, les chercheurs ont découvert une manière possible par laquelle de courtes répétitions en tandem pourraient réguler les gènes : en aidant à réunir des facteurs de transcription, qui aident ensuite à activer la machinerie de production de protéines.

Ensuite, il y a les " pseudogènes*** ", restes de gènes fonctionnels qui ont été dupliqués puis dégradés par des mutations ultérieures. Cependant, comme Quanta l’a rapporté en 2021, les scientifiques ont découvert que parfois les pseudogènes ne demeurent pas pseudo ou indésirables ; au lieu de cela, ils développent de nouvelles fonctions et deviennent des régulateurs génétiques – régulant même parfois le gène même à partir duquel ils ont été copiés.

Auteur: Internet

Info: Yasemin Sapakoglu. *Aussi sur base 4, l'ARN ou acide nucléique, sert d'intermédiaire dans la circulation de l'information génétique de l'ADN aux protéines. **les transposons sont à la fois régulés par l'épigénétique, mais peuvent aussi induire des changements épigénétiques héritables, faisant le lien entre génome et épigénome dans l'évolution, 333vestiges moléculaires de gènes ancestraux devenus non fonctionnels, mais qui semblent parfois avoir acquis des rôles régulateurs inattendus au cours de l'évolution

[ stratégies géniques ] [ codifications du vivant ] [ mémoire diachronique active ] [ encodages chronologiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

La direction de l'institution américaine Carnegie Mellon University s'est distanciée des tweets offensants d'Uju Anya, professeur au département de langues modernes de l'école, qui décrivent feu la reine Elizabeth II comme une "femme misérable" et une "colonisatrice génocidaire".

Parmi l'afflux des inquiétudes concernant l'état de santé de la reine malade tôt jeudi – quelques heures avant l'annonce officielle de sa mort – Mme Anya, dans un fil de tweets, souhaitait à la reine "une mort atrocement douloureuse comme celle qu'elle a pu causer à des millions de personnes".

"J'ai entendu dire que le monarque en chef d'un empire génocidaire, voleur et violeur est enfin en train de mourir. Que sa douleur soit atroce".

Après que de nombreuses personnes aient signalé ce tweet, Twitter l'a retiré pour avoir enfreint la règle interdisant de "souhaiter ou espérer que quelqu'un subisse un préjudice physique".

Ce qui n'a pas empêché un déluge de critiques, notamment de la part de l'Université Carnegie Mellon, où Mme Anya enseigne la linguistique appliquée.

"Nous ne tolérons pas les messages offensants et répréhensibles publiés par Uju Anya aujourd'hui sur son compte personnel de médias sociaux. La liberté d'expression est au cœur de la mission de l'enseignement supérieur, cependant, les opinions qu'elle a partagées ne représentent absolument pas les valeurs de l'institution, ni les normes de discours que nous cherchons à promouvoir", a tweeté l'Université Carnegie Mellon.

Les tweets ignobles de Mme Anya ont également attiré l'attention du fondateur d'Amazon, Jeff Bezos.

"Est-ce quelqu'un qui travaille pour rendre le monde meilleur ?" a-t'il tweeté. "Je ne pense pas. Wow."

Les commentataires en ligne ne cessent depuis d'envahir la section de commentaires du tweet de l'université, appelant au licenciement de Mme Anya, soulignant qu'un condamnation ne suffirait pas et demandant des mesures de rétorsion contre le professeur.

L'utilisateur de Twitter @DavidWohl par exemple : "Ainsi, cette ignoble fauteuse de haine restera professeur titulaire, et continuera de recevoir son plein salaire sans aucune mesure disciplinaire, ni suspension, ni rien. Au cas où vous envisageriez d'envoyer vos enfants dans cette université dégénérée."

Un autre tweet, @InterestedObs13 indique : "La liberté d'expression est essentielle, mais la méchanceté de ce tweet ne reflète pas l'opinion réfléchie et rationnelle d'un leader pondéré. Colère et rancune comme celles-ci diminuent la légitimité de l'argument et au final la réputation de la personne qui le transmet."

Un autre @kristi_mccall a été plus explicite : "Si vous ne la virez pas, vous l'approuvez."

Et @chefjohnny84 a écrit: "Alors virez-la. Résilier son contrat. Cette femme ne devrait rien apprendre à personne. Elle devrait apprendre l'histoire, pas remplir le monde de haine."

Plus tôt cette année Mme Anya a indiqué à Carnegie Mellon qu'elle était née au Nigeria et avait déménagé aux États-Unis à l'âge de 10 ans., déplorant être en butte à "l'exclusion du système".

"En raison de l'exclusion systémique, ma voix est unique et fondamentale dans le domaine", expliquait Mme Anya dans l'interview de Carnegie Mellon. "Je suis le principal chercheur qui étudie la race et les expériences de la race noire dans l'apprentissage des langues et l'un des rares à examiner l'éducation des langages dans une perspective de justice sociale."

L'attaque de Mme Anya contre la reine Elizabeth correspond à sa profonde animosité, souvent exprimée, suite à la guerre civile nigériane (1967-1970). On estime que deux millions de personnes auraient été tuées par les troupes nigérianes lors d'une tentative du groupe ethnique Igbo de Mme Anya de se séparer du Nigéria à peine sept ans après l'indépendance.

"Si quelqu'un s'attend à ce que j'exprime autre chose que du mépris pour une monarque qui a supervisé le gouvernement qui a parrainé le génocide, a massacré et déplacé la moitié de ma famille avec des conséquences encore visibles aujourd'hui, vous pouvez continuer à rêver", a ajouté Mme Anya sur Twitter suite à la réprimande de Bezos.

La professeur, qui est d'origine Igbo dans l'est du Nigeria, a acquis cette notoriété sur Twitter après avoir incité à la haine ethnique, en particulier contre les populations haoussa et yoruba.

Il y a deux semaines, elle fut stigmatisée par certains Afro-Américains pour son utilisation d'une insulte de rue, "Akata", puisqu'elle affirmait que ce mot qui émane de la langue yoruba et que le peuple yoruba l'utilise pour décrire les Afro-Américains comme des animaux sauvages.

Son affirmation fut immédiatement démystifiée et présentée comme une tentative d'opposer les Afro-Américains aux personnes de l'ethnie Yoruba au Nigeria, à qui elle n'a jamais pardonné de s'être rangé du côté des troupes fédérales pour maintenir l'unité du Nigeria durant la guerre civile.

 

Auteur: Internet

Info: https://gazettengr.com/, 8 sept. 2022

[ polémique ] [ afrique ] [ usa ] [ Angleterre ] [ événement mondial ] [ deuil planétaire ] [ racisme ] [ communautarisme ] [ socio-linguistique ]

 
Commentaires: 1
Ajouté à la BD par miguel

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

ennui

L'opposé du déjà-vu existe, et c'est encore plus troublant

Le déjà-vu, ce sentiment étrange de revivre une situation, a désormais son opposé : le jamais-vu. Encore plus troublant, ce phénomène fait l'objet d'une étude récente récompensée. Que se passe-t-il dans notre cerveau lorsque le familier devient soudainement étranger ? Plongée dans les méandres passionnants de notre mémoire.

La mémoire humaine recèle encore bien des mystères. Si le déjà-vu est un phénomène relativement connu, son pendant opposé, le jamais-vu, reste largement méconnu du grand public. Pourtant, cette expérience cognitive intrigante pourrait nous en apprendre beaucoup sur le fonctionnement de notre cerveau. Une étude récente, publiée en septembre 2023, s'est penchée sur ce phénomène, offrant de nouvelles perspectives sur notre perception de la réalité.

Le jamais-vu se manifeste lorsqu'une situation ou un objet familier nous apparaît soudainement comme nouveau ou irréel. Contrairement au déjà-vu, qui nous donne l'impression d'avoir déjà vécu une situation inédite, le jamais-vu provoque une sensation d'étrangeté face à quelque chose que nous connaissons pourtant bien.

Ce phénomène peut se produire dans diverses situations 

- en regardant un visage familier qui semble soudain inconnu 

- en perdant momentanément ses repères dans un lieu pourtant habituel

- en écrivant un mot simple qui paraît tout à coup bizarre ou mal orthographié

L'expérience du jamais-vu est généralement décrite comme troublante et déstabilisante. Elle peut provoquer une sensation de dissociation temporaire avec la réalité, comme si notre cerveau perdait momentanément ses repères habituels.

Une étude révolutionnaire 

Les chercheurs Akira O'Connor de l'Université de St Andrews et Christopher Moulin de l'Université Grenoble Alpes ont mené une série d'expériences pour mieux comprendre le mécanisme du jamais vu. Leur travail, récompensé par un prix Ig Nobel* de littérature, a permis de mettre en lumière les conditions d'apparition de ce phénomène.

L'expérience principale consistait à faire écrire répétitivement un même mot à des participants. Les résultats sont éloquents :

Expérience      Participants      Taux de jamais vu      Nb moyen de répétitions

Mots variés            94                         70 %                                33

Mot "the"         non spécifié                55 %                                 27

Ces chiffres révèlent que le jamais-vu peut être facilement induit en laboratoire, même avec des mots très communs. Les participants ont rapporté des sensations allant de la perte de sens du mot à l'impression de perdre le contrôle de leur main.

Implications pour notre compréhension du cerveau

L'étude du jamais-vu ouvre de nouvelles perspectives sur le fonctionnement de notre mémoire et de notre perception. Les chercheurs proposent que ce phénomène serve de " signal d'alerte " pour notre cerveau, l'informant qu'une tâche est devenue trop automatique ou répétitive. 

Cette hypothèse pourrait avoir des implications importantes dans plusieurs domaines :

1. Psychologie cognitive : meilleure compréhension des mécanismes de la mémoire et de l'attention ;

2. Neurosciences : étude des processus cérébraux liés à la familiarité et à la nouveauté ;

3. Psychiatrie : potentielles applications dans la compréhension et le traitement de troubles comme le TOC.

Le jamais-vu pourrait ainsi être vu comme un " mécanisme de réinitialisation " de notre cerveau, nous permettant de rester flexibles et adaptables face à notre environnement. Cette découverte souligne l'importance de la variété et de la nouveauté dans nos activités quotidiennes pour maintenir un fonctionnement cognitif optimal.

Perspectives futures et questions en suspens

Bien que cette étude apporte un éclairage nouveau sur le jamais-vu, de nombreuses questions restent en suspens. Les chercheurs envisagent plusieurs pistes pour approfondir notre compréhension de ce phénomène :

- Imagerie cérébrale : observer l'activité du cerveau pendant l'expérience du jamais-vu pourrait révéler les régions impliquées dans ce processus. Des techniques comme l'IRM fonctionnelle pourraient être utilisées pour cartographier ces activations cérébrales spécifiques.

- Études longitudinales : suivre des individus sur le long terme permettrait de déterminer si certaines personnes sont plus susceptibles de vivre des expériences de jamais-vu, et si la fréquence de ces expériences évolue avec l'âge ou d'autres facteurs.

- Applications thérapeutiques : explorer le potentiel du jamais-vu dans le traitement de certains troubles psychologiques, comme les TOC, pourrait ouvrir de nouvelles voies thérapeutiques prometteuses.

Cette recherche innovante sur le jamais-vu nous rappelle que notre perception de la réalité est bien plus complexe et mystérieuse qu'il n'y paraît. En continuant à explorer ces phénomènes passionnants, nous pourrions bien percer de nouveaux secrets sur le fonctionnement de notre esprit.



 

Auteur: Internet

Info: https://www.futura-sciences.com/, 19 août 2024 *récompensent des découvertes scientifiques dont le sujet de recherche laisse perplexe. Aussi sérieux que les classiques prix Nobel, ils reconnaissent des travaux étonnants, quel que soit leur degré de loufoquerie.

[ monotonie ] [ fantaisie nécessaire ] [ dépaysement ] [ itérations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel