Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5316
Temps de recherche: 0.0334s

biologie moléculaire

Les MicroARN sont au cœur d’une révolution médicale 

(video : Les repliements d'une molécule d'ARN modélisés par informatique Des scientifiques ont produit une vidéo incroyable à partir de données expérimentales sur le repliement...)

La découverte des microARN, récompensée lundi par le Nobel de médecine, montre combien nos gènes fonctionnent de manière complexe. Reste toutefois à savoir à quel point leur connaissance peut permettre d'élaborer des traitements efficaces.

Hier, lundi 7 octobre, le prix Nobel de médecine et physiologie a ouvert la cérémonie des récompenses philanthropiques qui se tient cette semaine, à Stockholm en Suède. Deux biologistes américains ont été nominés pour leurs éminents travaux en génétique, et plus particulièrement leur découverte des microARN. En quoi est-ce révolutionnaire ? Explications.

Qu'est-ce qu'un micro-ARN ?

Ce sont des bribes d'ARN, pour acide ribonucléique. Petit rappel concernant l'ARN : présent dans toutes nos cellules, il est synthétisé par notre organisme à partir des gènes rassemblés dans notre ADN. Son rôle le plus connu est celui d'intermédiaire entre nos gènes et la production des myriades de protéines qui font fonctionner notre corps, pour lequel on parle d'ARN messager.

Les microARN, eux, font partie de l'ARN dit " non codant " : ils ne sont pas traduits en protéines. Mais ce n'est pas pour autant qu'ils ne jouent aucun rôle ! La découverte des microARN dans les années 1990 par Victor Ambros et Gary Ruvkun, tous deux nobélisés lundi, a montré que notre génome ne se résumait pas une simple ligne droite entre ADN, ARN puis protéines.

(photo : Le 07 octobre, Victor Ambros et Gary Ruvkun ont reçu le prix Nobel de médecine et physiologie pour leurs découvertes sur les microARN.)

Comment agissent les micro-ARN ?

" La découverte des microARN a amené un niveau supplémentaire de complexité en révélant que des régions que l'on pensait non codantes jouent un rôle dans la régulation des gènes ", explique à l'AFP Benoît Ballester, chercheur à l'Inserm et spécialiste du génome non codant. Ces microARN viennent interférer avec le fonctionnement de l'ARN messager : " C'est comme un Velcro qui viendrait s'y fixer et l'empêcherait d'être traduit en protéines ", avance M. Ballester. Conséquence : certains gènes s'expriment peu ou pas - ils sont inhibés -, et d'autres de manière plus marquée - ils sont intensifiés.

Il ne faut cependant pas imaginer les microARN comme une forme de parasites internes qui viendraient gâcher le bon fonctionnement de notre génome. Ils forment " une part intégrante de la régulation de notre génome, c'est aussi important que la traduction classique d'un gène en protéine ", souligne le spécialiste du génome non codant.

(image : Schéma de la formation et de la fonction d'un microARN"

Pourquoi est-ce si intéressant ?

La découverte en 1993 du premier microARN par Victor Ambros n'a dans l'immédiat pas été saluée comme une avancée majeure. Le chercheur était un spécialiste de la biologie de certains vers, et c'est chez l'un d'eux (un ver rond d'un millimètre, appelé C. elegans) qu'il a identifié l'existence de microARN. " Personne n'a vraiment fait attention ", reconnaît auprès de l'AFP Eric Miska, généticien à l'université de Cambridge, admettant qu'il avait fallu des années pour y voir autre chose " qu'un truc bizarre chez les vers ".

C'est en 2000 que Gary Ruvkun a identifié l'existence de mécanismes semblables chez l'humain, ouvrant la voie à tout un nouveau pan de la génomique. " Ce minuscule morceau d'ARN, si important pour le développement de ce petit ver, on l'a aussi, vous et moi, souligne Eric Miska. Et il joue même un rôle essentiel, puisqu'il empêche l'apparition de tumeurs ".

Quelles retombées concrètes ?

Si la connaissance des microARN permet déjà de bien mieux comprendre notre génome, reste à savoir s'ils peuvent servir de levier d'action pour guérir des maladies. Depuis plusieurs années, nombre d'entreprises de biotechnologie misent sur cette piste. C'est notamment un terrain prometteur contre les cancers, dans l'idée d'établir des traitements très ciblés. Ces recherches s'inscrivent plus largement dans un contexte où l'on comprend de mieux en mieux comment les tumeurs peuvent se développer différemment au niveau moléculaire d'un patient à l'autre.

Toutefois, contre le cancer ou d'autres pathologies, il n'y a encore " rien qui ne soit proche d'une application réelle ", a précisé à la presse Gunilla Karlsson Hedestam, professeure à l'institut Karolinska, lors de l'annonce du prix Nobel à Stockholm. Les microARN sont en effet une cible complexe à gérer en raison de leur instabilité. Mais, sans forcément en faire la base d'un médicament, nombre de chercheurs espèrent d'abord les utiliser comme " biomarqueur ", c'est-à-dire un outil de diagnostic qui permettrait par exemple d'identifier à quelle typologie de cancer le patient est confronté.

Auteur: Internet

Info: https://www.futura-sciences.com, 7 octobre 2024

[ interrupteurs ] [ contrôleurs ]

 
Commentaires: 1
Ajouté à la BD par miguel

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

réflexion inspirée

En 1956, Edsger Dijkstra, âgé de 26 ans, inventa un algorithme classique pour la détermination des itinéraires*, alors qu'il se trouvait avec sa fiancée dans un café d'Amsterdam. Tout se passa dans sa tête : " Sans crayon ni papier, on est presque obligé d'éviter toutes les complexités évitables ", a-t-il déclaré ensuite.

" Des informaticiens déterminent la meilleure façon pour se déplacer dans un réseau graphique"

Introduction : L’héritage d’un algorithme légendaire

Conçu en 1956 par le mathématicien néerlandais Edsger Dijkstra pour résoudre le problème des plus courts chemins, ce mécanisme a traversé les décennies sans perdre de sa pertinence. Sa simplicité élégante en fait un outil essentiel pour des applications allant des systèmes de navigation aux réseaux neuronaux artificiels. Pourtant, une question persistait : cet algorithme pouvait-il atteindre une forme de perfection mathématique, adaptée à toute configuration de graphe imaginable ?

Chapitre 1 : La genèse d’une intuition révolutionnaire

L’anecdote fondatrice rappelle que Dijkstra imagina son algorithme en quelques minutes, assis à une terrasse d’Amsterdam. Son idée repose sur une abstraction géniale : modéliser un réseau (routes, circuits, etc.) comme un graphe composé de sommets (points) et d’arêtes (liens) associées à des poids (coûts). L’algorithme explore progressivement ces connexions, priorisant les chemins les moins coûteux à partir d’une source unique.

Cependant, son efficacité dépend d’une structure critique : le tas (heap), qui gère les nœuds à explorer. Si le tas original utilisait une file de priorité basique, des améliorations successives – comme le tas de Fibonacci (1984) – ont permis de réduire sa complexité temporelle de O(m + n log n) (où m est le nombre d’arêtes et n le nombre de sommets). Ces avancées semblaient avoir atteint un plafond théorique… jusqu’à cette récente percée.

Chapitre 2 : L’énigme de l’optimalité universelle

Traditionnellement, les informaticiens évaluent les algorithmes via l’analyse du pire cas – une approche qui garantit des performances minimales dans les scénarios les plus défavorables. Mais cette méthode néglige souvent les spécificités des graphes réels, où certaines structures (comme les réseaux hiérarchiques ou aléatoires) peuvent offrir des opportunités d’optimisation.

En 2021, une équipe menée par Bernhard Haeupler montra qu’une optimalité universelle était possible pour certains problèmes de graphes, comme la connexité. Inspirés par ces travaux, Václav Rozhoň (Institut Max Planck) et ses collègues se demandèrent : " Et si l’algorithme de Dijkstra pouvait, lui aussi, devenir universellement optimal ? "

Chapitre 3 : La réinvention du cœur algorithmique

La clé résidait dans la structure de données sous-jacente. Les chercheurs réalisèrent que le tas – souvent considéré comme un détail d’implémentation – détenait le potentiel pour une transformation radicale. En collaboration avec Robert Tarjan (lauréat du prix Turing et co-créateur du tas de Fibonacci), ils conçurent un nouveau type de tas combinant simplicité et adaptabilité.

Ce tas " universel " s’ajuste dynamiquement aux propriétés du graphe traité, évitant les surcoûts inutiles qu’imposent les structures rigides. Par exemple, face à un graphe arborescent, il adopte une logique de parcours en profondeur, tandis que pour un réseau dense, il privilégie des comparaisons plus agressives. Cette flexibilité permit de prouver mathématiquement que l’algorithme modifié surpasse ou égalise toute alternative, quel que soit le graphe.

Chapitre 4 : Implications théoriques et limites pratiques

Si cette version optimisée ne remplacera pas immédiatement les algorithmes des GPS (où des heuristiques comme A* restent plus efficaces), elle ouvre trois perspectives majeures :

1 - Une nouvelle philosophie de conception : L’optimalité universelle pourrait s’étendre à d’autres problèmes, comme les flux réseaux ou les algorithmes de clustering.

2 - Un pont entre théorie et pratique : Elle valide l’idée que des algorithmes classiques, bien compris, recèlent encore des secrets lorsqu’on les examine sous l’angle de structures de données innovantes.

3 - Une remise en question pédagogique : Les manuels devront peut-être réévaluer comment ils présentent l’algorithme de Dijkstra, en intégrant cette dimension " universelle ".

Chapitre 5 : Une odyssée collaborative

L’article souligne l’importance des échanges intergénérationnels dans cette découverte. Robert Tarjan, figure historique, a apporté son expertise des années 1980, tandis que Rozhoň a injecté des techniques modernes d’analyse fine des graphes. Leur collaboration illustre comment la science progresse par la synthèse d’idées anciennes et nouvelles.

Épilogue : Vers une théorie unifiée des algorithmes ?

Cette avancée n’est pas qu’un aboutissement : c’est un appel à explorer l’optimalité universelle dans d’autres domaines. Comme le résume Haeupler, " Nous commençons à peine à comprendre comment les algorithmes peuvent s’adapter intrinsèquement aux données qu’ils traitent. "

En réconciliant élégance mathématique et puissance computationnelle, cette découverte rappelle que les plus grandes révolutions naissent parfois… d’une simple promenade intellectuelle dans un café amsterdamois-


Auteur: Internet

Info: https://www.quantamagazine.org/computer-scientists-establish-the-best-way-to-traverse-a-graph-20241025/, Ben Brubaker, Octobre 25, 2024. Mis en forme et réarrangé par perplexity et Mg. *méthode de calcul du chemin le plus court entre un nœud source et tous les autres nœuds d'un réseau.

[ raccourci ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-cybernétique

L’informatique quantique prête à transformer l’humanité : nous sommes à quelques pas de son moment " Spoutnik " !

L'un des principaux freins au développement de l'informatique quantique réside dans la complexité à réduire les erreurs induites. Pour soutenir cette technologie prometteuse, la société Riverlane produit des microprocesseurs qui rendent ses résultats plus fiables. D'énormes investissements dans ce domaine et les progrès réalisés montrent que l'informatique quantique pourrait bientôt atteindre un stade où elle pourra révolutionner de nombreux secteurs.

Du développement de nouveaux médicaments à la lutte contre le réchauffement climatique, l'informatique quantique attise des espoirs de progrès majeurs. Dans une rue commerçante de Cambridge, la course vers cette révolution technologique annoncée bat son plein.

Pour Steve Brierley, fondateur de la société Riverlane, basée dans la célèbre ville universitaire du centre de l'Angleterre, la technologie connaîtra dans les années qui viennent son moment " Spoutnik ", du nom du satellite soviétique dont le lancement en 1957 avait constitué une étape majeure de la conquête spatiale. " L'informatique quantique ne constituera pas seulement une légère amélioration par rapport aux précédents ordinateurs, ce sera un énorme pas en avant ", assure-t-il à l'AFP.

La complexité de la correction des erreurs quantiques

Son entreprise produit le premier microprocesseur dédié à cette technologie aux puissances de calcul gigantesques, qui détecte et corrige les erreurs freinant actuellement son développement. Fabriquer des appareils " à la hauteur des promesses incroyables de cette technologie nécessite un changement massif d'échelle et de fiabilité, ce qui nécessite des systèmes fiables de correction des erreurs ", explique John Martinis, ancien responsable du développement de cette technologie au sein du laboratoire Google Quantum AI.

Signe de l'intérêt pour les activités de Riverlane, et en général pour cette technologie comparée à l'intelligence artificielle (IA) pour ses bouleversements potentiels, la société a annoncé mardi 6 août avoir levé 75 millions de dollars (près de 69 millions d'euros) auprès d'investisseurs.

D'ici deux à trois ans, nous pourrons atteindre des systèmes capables de supporter un million d'opérations sans erreurs ", contre un millier seulement actuellement, avance Earl Campbell, vice-président de Riverlane. Ce seuil, précise-t-il, est considéré comme crucial pour rendre les ordinateurs quantiques plus performants que leurs équivalents actuels.

Avec ses capacités de stimulation des interactions entre particules, atomes et molécules, la technologie est considérée comme susceptible de permettre le développement de médicaments révolutionnaires ou d'améliorer radicalement la production d'engrais, une industrie très émettrice de CO2. Elle pourrait ouvrir la voie à des batteries bien plus efficaces, au rôle clé dans la lutte contre le réchauffement climatique.

L'infinité d'états des qubits

La quantité d'informations que les ordinateurs quantiques peuvent exploiter augmente de manière exponentielle avec leur taille, contrairement aux appareils actuels. L'informatique classique repose en effet sur des données stockées sous la forme de bits, qui n'ont que deux états possibles (0 ou 1). Les ordinateurs quantiques, eux, utilisent des " qubits ", briques de base qui ont une infinité d'états possibles pouvant se superposer et s'enchevêtrer.

Mais ce fonctionnement qui utilise les extraordinaires propriétés de la matière à l'échelon atomique ou sub-atomique a un désavantage : leur comportement étrange rend nécessaire l'utilisation d'algorithmes complexes pour les traiter. Les qubits sont aussi très sensibles aux erreurs dues au bruit et résoudre ce problème sera " crucial ", souligne Steve Brierley, entouré d'oscilloscopes et circuits intégrés dans le laboratoire de son entreprise.

Les géants de l'informatique comme Google, IBM et Microsoft investissent des sommes énormes pour cette technologie et en particulier pour tenter de réduire les erreurs induites, soit en protégeant les appareils ou en utilisant des algorithmes pour détecter et corriger ces erreurs.

Tirer les leçons de l'IA

Vu cette complexité, l'intérêt de la technologie s'exprime surtout avec des ordinateurs de grande taille. Quand on augmente leur échelle, les possibilités offertes augmentent plus vite que les défauts à régler. Autrement dit, ces engins fonctionnent mieux pour des tâches complexes.

On ne se servira certainement pas des ordinateurs quantiques pour envoyer des courriels ", sourit Steve Brierley. En revanche, " on pourra résoudre des problèmes qui seraient autrement insolubles ", ajoute-t-il. L'entrepreneur juge " très enthousiasmants " les résultats obtenus. " Le défi maintenant est de pouvoir passer à plus grande échelle ".

Les progrès actuels, en plus du potentiel d'une technologie susceptible de surmonter tous les systèmes de cryptage existants et créer de nouveaux matériaux, attirent déjà l'attention des régulateurs. Steve Brierley juge " très important de tirer les leçons de l'IA pour ne pas se retrouver surpris par cette technologie et réfléchir très tôt à ses implications ".

Je pense que l'informatique quantique finira par être régulée, car c'est une technologie très importante, relève-t-il. Et je pense qu'il s'agit d'une technologie pour laquelle aucun gouvernement ne veut passer en second ".

Auteur: Internet

Info: futura-sciences.com, 18 août 2024

[ anticipation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

médecine

Alzheimer : le rôle essentiel du sommeil profond, d’après les chercheurs

Une nouvelle étude dévoile comment le sommeil profond pourrait protéger notre mémoire malgré les signes précurseurs d'Alzheimer. Des chercheurs ont observé que les personnes bénéficiant d'un sommeil de qualité préservaient mieux leurs capacités cognitives, même en présence de protéines amyloïdes. Cette découverte ouvre des perspectives encourageantes pour lutter contre cette maladie neurodégénérative qui affecte des millions de personnes dans le monde.

- Le sommeil profond comme rempart contre le déclin cognitif

- Mécanismes d'action du sommeil sur la santé cérébrale

- Optimiser son sommeil naturellement

- Vers une approche préventive de la démence

La maladie d'Alzheimer reste l'une des formes de démence les plus répandues et dévastatrices. Pourtant, des recherches récentes suggèrent qu'un élément simple mais crucial de notre quotidien pourrait jouer un rôle déterminant dans la prévention de ses symptômes : le sommeil profond. Une équipe de scientifiques américains a mis en lumière comment cette phase spécifique du sommeil pourrait constituer un véritable bouclier contre le déclin cognitif associé à Alzheimer, même lorsque les changements cérébraux caractéristiques de la maladie sont déjà présents.

Une étude conjointe menée par des chercheurs des universités de Californie (Berkeley), Stanford et UC Irvine a examiné 62 adultes âgés en bonne santé cognitive. Ces scientifiques ont fait une découverte majeure : les participants présentant des marqueurs cérébraux d'Alzheimer, mais bénéficiant d'un sommeil profond de qualité, obtenaient de meilleurs résultats aux tests de mémoire.

Le neuroscientifique Matthew Walker de l'Université de Californie à Berkeley illustre parfaitement cette relation : " Considérez le sommeil profond comme un gilet de sauvetage qui maintient la mémoire à flot, l'empêchant d'être entraînée vers le fond par le poids des pathologies liées à Alzheimer ". Cette métaphore puissante souligne l'effet protecteur du sommeil profond contre les symptômes cognitifs malgré la présence de changements cérébraux.

Ce qui rend cette découverte particulièrement encourageante, c'est que contrairement à d'autres facteurs de risque d'Alzheimer, le sommeil est un élément sur lequel nous pouvons agir concrètement. Les chercheurs précisent que cet effet protecteur est spécifique au sommeil profond, également appelé sommeil à ondes lentes non-REM, et non aux autres phases du sommeil.

Mécanismes d'action du sommeil sur la santé cérébrale

L'accumulation de protéines bêta-amyloïdes dans le cerveau constitue l'un des marqueurs caractéristiques de la maladie d'Alzheimer. Ces protéines peuvent commencer à s'agglomérer des décennies avant l'apparition des premiers symptômes. Des recherches antérieures avaient déjà établi un lien entre sommeil perturbé et niveaux élevés de ces protéines.

Le sommeil profond semble offrir au cerveau une opportunité cruciale d'éliminer les déchets métaboliques accumulés pendant la journée, dont ces protéines potentiellement nocives. Ce processus de " nettoyage cérébral " pourrait expliquer pourquoi un sommeil de qualité protège contre le déclin cognitif, même lorsque les marqueurs biologiques d'Alzheimer sont présents.

Zsófia Zavecz, neuroscientifique à UC Berkeley et auteure principale de l'étude, affirme : " La présence de pathologies cérébrales ne condamne pas automatiquement à des symptômes cognitifs ou des problèmes de mémoire ". Publiés dans la revue BMC Medicine, les travaux suggèrent que certains facteurs liés au mode de vie, en particulier le sommeil profond, peuvent atténuer l'impact de ces changements biologiques.

Optimiser son sommeil naturellement

À la différence des somnifères qui induisent souvent un sommeil superficiel et s'accompagnent d'effets secondaires, la recherche souligne l'importance d'améliorer naturellement la qualité du sommeil. Pour favoriser un sommeil profond réparateur, les experts recommandent plusieurs pratiques simples :

- Éviter la caféine en fin de journée.

- Pratiquer une activité physique régulière.

- Limiter l'exposition aux écrans avant le coucher.

- Prendre une douche chaude avant de se mettre au lit.

Ces habitudes saines peuvent contribuer significativement à augmenter la durée et la qualité du sommeil profond, renforçant ainsi la résistance cognitive face aux changements cérébraux liés à Alzheimer.

Vers une approche préventive de la démence

Cette étude s'inscrit dans un corpus grandissant de recherches suggérant que le sommeil représente un facteur de risque modifiable dans le développement de la maladie d'Alzheimer. Bien que l'échantillon soit relativement restreint, ces résultats ouvrent des perspectives prometteuses pour des interventions préventives simples et accessibles.

Les chercheurs soulignent par contre la nécessité d'études longitudinales sur de plus longues périodes pour confirmer si l'amélioration du sommeil profond peut effectivement préserver les fonctions cognitives sur la durée, malgré l'augmentation des niveaux de protéines bêta-amyloïdes.

La qualité du sommeil pourrait ainsi devenir un élément central des stratégies de prévention contre la démence, aux côtés d'autres facteurs protecteurs comme l'éducation, l'activité physique et les connexions sociales. Un simple changement dans nos habitudes nocturnes pourrait contribuer à protéger notre cerveau contre l'une des maladies les plus redoutées du vieillissement.



Auteur: Internet

Info: https://www.futura-sciences.com/, 30 mars 2025

[ dormir ] [ thérapie ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Les scientifiques découvrent de nouvelles formes de vie à l’intérieur du corps humain

Des chercheurs ont découvert des structures microscopiques inédites, baptisées " obélisques ", qui remettent en question les bases de la biologie moderne. Ces entités, présentes dans le microbiote humain, intriguent par leur forme et leur origine inconnues, et pourraient révéler de nouvelles interactions fondamentales entre les microbes et leur environnement hôte. Cette découverte ouvre une porte vers des catégories de vie encore non explorées, bouleversant notre compréhension des mécanismes évolutifs.

Une découverte scientifique majeure pourrait changer notre compréhension des micro-organismes peuplant le corps humain. Des chercheurs ont identifié des entités microscopiques inédites, baptisées " obélisques ", présentes dans des bactéries associées au microbiote humain. Ces structures d’ARN circulaire remettent en question les frontières actuelles des formes de vie connues.

Une découverte inattendue au cœur des bactéries humaines

Les obélisques ont été découverts par une équipe dirigée par Andrew Fire, prix Nobel de médecine, en collaboration avec des experts en biologie cellulaire et moléculaire. L’étude, publiée sur la plateforme scientifique bioRxiv, repose sur une analyse approfondie de gigantesques bases de données génétiques. Ces bibliothèques contiennent des informations issues de microbes associés à divers environnements, y compris le corps humain.

Ces entités microscopiques, bien que comparables à des viroïdes (des agents pathogènes végétaux constitués uniquement d’ARN), présentent des caractéristiques uniques. Contrairement aux virus, les obélisques ne possèdent pas d’enveloppe protéique. Leur ARN forme de petites boucles compactes, et leur taille est si réduite qu’ils avaient échappé à toute détection jusqu’ici.

Mark Peifer, biologiste cellulaire à l’université de Caroline du Nord, décrit ces structures comme " totalement inattendues " et souligne l’importance de cette découverte pour la microbiologie moderne.

Une présence omniprésente dans le microbiote humain

L’analyse des données a révélé la présence d’obélisques dans plusieurs parties du corps humain, notamment dans les bactéries de la bouche et de l’intestin. Ces découvertes suggèrent que ces entités ne sont ni rares ni isolées. Au contraire, elles semblent avoir une distribution large et une diversité remarquable, avec des milliers de variantes identifiées.

Chaque région du corps humain abriterait des types spécifiques d’obélisques, en interaction étroite avec les bactéries qui composent le microbiote. Selon Simon Roux, biologiste computationnel au Lawrence Berkeley National Laboratory, cette découverte pourrait indiquer une relation complexe et encore méconnue entre ces entités d’ARN et notre écosystème interne.

Des implications sanitaires encore floues

Pour le moment, les scientifiques ignorent si les obélisques ont des conséquences sur la santé humaine. Leur mode d’action, leur rôle potentiel dans les interactions bactériennes ou leur influence sur l’organisme hôte restent incertains. Matthew Sullivan, biologiste intégratif à l’université d’État de l’Ohio, affirme que leur simple découverte ouvre un champ d’études inédit, qui nécessitera des années de recherche.

Une hypothèse avancée est que ces structures pourraient moduler le comportement bactérien, influençant indirectement des aspects de la biologie humaine. Si tel est le cas, les obélisques pourraient jouer un rôle dans des processus encore inconnus, voire contribuer à des pathologies.

Une redéfinition des catégories de la vie

Les obélisques posent des questions fondamentales sur les classifications actuelles des formes de vie. Ni bactéries, ni virus, ni viroïdes, ils ne correspondent à aucune définition existante. Cette découverte pourrait signaler l’existence de nouvelles classes d’agents biologiques, élargissant les limites de notre compréhension de l’évolution.

Historiquement, les scientifiques se sont interrogés sur l’origine des virus et sur l’apparition des formes d’ARN simples ou complexes dans l’évolution biologique. Les obélisques pourraient fournir des indices sur les mécanismes évolutifs ayant conduit à l’émergence de formes de vie primitives.

Les perspectives pour la recherche

L’identification des obélisques n’est qu’un début. Grâce aux avancées en bioinformatique et en analyse génétique, les chercheurs espèrent mieux comprendre ces structures et leur rôle dans le microbiote. Cette quête pourrait révéler d’autres entités similaires et élargir notre vision de l’univers microscopique.

Simon Roux résume cette effervescence scientifique : " Nous sommes à un moment où la technologie nous permet de regarder plus profondément que jamais. Chaque nouvelle découverte nous rappelle à quel point notre connaissance est encore limitée. "

Alors que des études sont en cours pour mieux cerner ces structures, leur impact potentiel sur la biologie humaine pourrait redéfinir des pans entiers de la microbiologie et de la médecine.

La découverte des obélisques est un rappel puissant que le corps humain, loin d’être entièrement cartographié, recèle encore des mystères. Ces entités pourraient révéler des aspects inconnus de l’interaction entre microbes et humains, avec des répercussions profondes sur notre compréhension de la vie.



 

Auteur: Internet

Info: https://armees.com/, Jean-Marc, 18 décembre 2024

[ biologie-évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

infra-monde

Des physiciens mesurent pour la première fois la géométrie quantique des électrons

Les électrons occupent une place centrale dans notre compréhension de l’univers ainsi qu’au sein des technologies modernes. Pourtant, leur comportement et leurs propriétés à l’échelle quantique restent en grande partie mystérieux. Récemment, une équipe de chercheurs du Massachusetts Institute of Technology (MIT) a réalisé une avancée majeure en mesurant pour la première fois la géométrie quantique des électrons dans un matériau solide. Mais de quoi parle-t-on précisément ? Et quelles sont les implications d’une telle percée ?

Le monde étrange des électrons

Dans l’univers quantique, les électrons ne se comportent pas comme des objets que nous connaissons dans notre vie quotidienne, mais peuvent être vus à la fois comme des particules et des ondes. Cette double nature est décrite par un outil mathématique appelé la fonction d’onde qui nous donne des informations sur l’électron : sa position, sa vitesse, et même sa forme.

Cela étant dit, imaginez maintenant une surface lisse et régulière, comme une balle de tennis : c’est une bonne image pour illustrer une forme simple d’électron. Maintenant, visualisez un ruban de Möbius, cette forme fascinante explorée par l’artiste MC Escher où le ruban semble se tordre sur lui-même de manière infinie, un peu comme un chemin qui ne revient jamais au point de départ. Cette dernière image représente les formes plus complexes que peuvent prendre certains électrons dans des matériaux spéciaux appelés matériaux quantiques.

Cependant, jusqu’à récemment, les scientifiques ne pouvaient pas mesurer directement cette géométrie quantique des électrons. Ils pouvaient seulement théoriser sur sa nature. Or, cette géométrie joue un rôle clé dans des propriétés essentielles, comme la conductivité ou le magnétisme, qui rendent certains matériaux particulièrement intéressants pour des applications de pointe.

Une quête scientifique de longue haleine

La difficulté à mesurer la géométrie quantique vient de plusieurs facteurs. Les outils traditionnels de la physique des matériaux, comme la spectroscopie ou la diffraction, permettent d’étudier l’énergie et la vitesse des électrons, mais pas leur forme dans l’espace. En outre, les matériaux étudiés, souvent des cristaux complexes, ont une structure qui complique encore davantage l’observation directe de leurs propriétés quantiques.

Malgré ces défis, l’intérêt pour la géométrie quantique n’a cessé de croître. Avec l’essor de l’informatique quantique et des dispositifs électroniques avancés, comprendre ces propriétés devient crucial. Mesurer la forme des électrons est comme découvrir une nouvelle dimension de leur comportement. Cela pourrait révolutionner la manière dont nous concevons et utilisons les matériaux dans des technologies futures.

Une méthode innovante pour une découverte majeure

Pour relever ce défi, l’équipe du MIT a utilisé une technique appelée spectroscopie de photoémission à résolution angulaire, ou ARPES. En termes simples, cette méthode consiste à bombarder un matériau avec de la lumière pour en faire sortir des électrons, puis à analyser la manière dont ils réagissent. Cela donne des informations précises sur leur énergie et leur mouvement.

Cependant, pour mesurer la géométrie quantique, il a fallu adapter la technique ARPES. Les chercheurs ont travaillé sur un matériau appelé métal kagome qui est connu pour ses propriétés quantiques exotiques. Ce matériau tire son nom de sa structure cristalline en forme de réseau de triangles semblable à un motif traditionnel japonais. Grâce à des modifications spécifiques de l’ARPES, les chercheurs ont pu non seulement observer la trajectoire des électrons, mais aussi leur forme ondulatoire unique.

Cette avancée n’aurait pas été possible sans une collaboration étroite entre théoriciens et expérimentateurs. Riccardo Comin, physicien au MIT, a même dû mener lui-même certaines expériences en Italie pendant la pandémie en raison des restrictions de déplacement de son équipe. Cette anecdote illustre à quel point la science repose parfois sur des efforts individuels dans des circonstances exceptionnelles.(Photo dessin : schéma de la configuration CD-ARPES à spin résolu.)

Les implications et applications

Cette découverte dépasse le simple cadre académique, car comprendre la géométrie des électrons ouvre des perspectives prometteuses dans plusieurs domaines technologiques. Par exemple, dans l’informatique quantique, une meilleure connaissance de la géométrie quantique pourrait permettre de concevoir des qubits plus stables et efficaces, un élément clé pour le développement de processeurs quantiques. Dans l’électronique avancée, cela pourrait conduire à des matériaux plus performants capables de transporter de l’électricité sans perte ou de fonctionner comme des capteurs ultra-sensibles.

En outre, cette méthode de mesure peut être appliquée à une grande variété de matériaux quantiques, pas seulement au métal kagome. Cela signifie que les chercheurs disposent désormais d’un outil puissant pour explorer un large éventail de matériaux aux propriétés encore inconnues. Ces travaux pourraient transformer notre manière d’aborder la conception de nouveaux dispositifs.



 

Auteur: Internet

Info: https://sciencepost.fr/,  Brice Louvet, 26 décembre 2024

[ subatomique ] [ modélisation ] [ ordre sous-jacent ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

biogénétique

Une partie de l' " ADN indésirable " sert un objectif 

Si on étire tout l’ADN d’une seule cellule humaine, il mesurerait plus de 5 mètres de long. Mais seul un fragment de cet ADN produit des protéines, la machinerie biologique nécessaire à la vie. En 2003, le Human Genome Project a montré que seulement 1 à 2 % de notre ADN – environ 4 cm sur ces 5 mètres – code des gènes pour les protéines. Les séquences non codantes qui constituent les 98 % restants sont souvent appelées " ADN indésirable (junk dna) ", un terme inventé en 1972 par le généticien Susumu Ohno, qui a suggéré que, tout comme les archives fossiles regorgent d'espèces disparues, nos génomes sont remplis d'espèces disparues. gènes éteints ou mal copiés endommagés par des mutations.

Mais même si 98 % du génome est non codant, il ne s’agit pas précisément d’un poids mort. En 2012, un consortium de centaines de scientifiques a rapporté dans l'Encyclopédie des éléments de l'ADN qu'au moins 80 % du génome est " actif " au sens où une partie de l'ADN est traduite en ARN*, même si cet ARN est pas ensuite traduit en protéines. Il existe peu de preuves que la plupart de cet ARN provenant de gènes brisés ait un effet.

Cependant, certaines séquences non codantes, qui représentent environ 8 à 15 % de notre ADN, ne sont pas du tout indésirables. Elles remplissent des fonctions importantes, en régulant les gènes actifs des cellules et la quantité de protéines qu’ils produisent. Les chercheurs découvrent encore de nouvelles façons dont l'ADN non codant fait cela, mais il est clair que la biologie humaine est massivement influencée par les régions non codantes, qui ne codent pas directement pour les protéines mais façonnent quand même leur production. Les mutations dans ces régions, par exemple, ont été associées à des maladies ou à des troubles aussi variés que l'autisme, les tremblements et le dysfonctionnement hépatique.

De plus, en comparant les génomes humains à ceux des chimpanzés et d’autres animaux, les scientifiques ont appris que les régions non codantes peuvent jouer un rôle important dans ce qui nous rend uniques : il est possible que la régulation des gènes par l’ADN non codant différencie plus les espèces que les gènes et les protéines elles-mêmes.

Les chercheurs découvrent également que de nouvelles mutations peuvent parfois conférer de nouvelles capacités à des séquences non codantes, ce qui en fait une sorte de ressource pour une évolution future. En conséquence, ce qui mérite l’étiquette " ADN indésirable " reste à discuter. Les scientifiques ont clairement commencé à nettoyer ce tiroir à déchets depuis 1972 – mais ce qui reste dedans est encore à débattre.

Quoi de neuf et remarquable

Les scientifiques ont travaillé pour comprendre un type d’ADN non codant appelé " transposons** " ou " gènes sauteurs ". Ces bribes peuvent parcourir le génome, créant des copies d’elle-mêmes, qui sont parfois insérées dans des séquences d’ADN. Les transposons se révèlent de plus en plus essentiels au réglage de l'expression des gènes ou à la détermination des gènes codants activés pour être transcrits en protéines. C'est en partie pour cette raison qu'ils s'avèrent importants pour le développement et la survie d'un organisme . Lorsque les chercheurs ont conçu des souris dépourvues de transposons, la moitié des petits des animaux sont morts avant la naissance. Les transposons ont laissé des traces sur l'évolution de la vie. Quanta a rapporté qu'ils peuvent passer d'une espèce à l'autre - comme du hareng à l'éperlan et des serpents aux grenouilles - offrant parfois même certains avantages, comme protéger les poissons du gel dans les eaux glacées.

Les généticiens étudient également les " courts tandem  répétés ", dans lesquels une séquence d’ADN longue d’une à six paires de bases seulement est fortement répétée, parfois des dizaines de fois de suite. Les scientifiques soupçonnaient qu'elles aidaient à réguler les gènes, car ces séquences, qui représentent environ 5 % du génome humain, ont été associées à des maladies telles que la maladie de Huntington et le cancer. Dans une étude couverte par Quanta en février, les chercheurs ont découvert une manière possible par laquelle de courtes répétitions en tandem pourraient réguler les gènes : en aidant à réunir des facteurs de transcription, qui aident ensuite à activer la machinerie de production de protéines.

Ensuite, il y a les " pseudogènes*** ", restes de gènes fonctionnels qui ont été dupliqués puis dégradés par des mutations ultérieures. Cependant, comme Quanta l’a rapporté en 2021, les scientifiques ont découvert que parfois les pseudogènes ne demeurent pas pseudo ou indésirables ; au lieu de cela, ils développent de nouvelles fonctions et deviennent des régulateurs génétiques – régulant même parfois le gène même à partir duquel ils ont été copiés.

Auteur: Internet

Info: Yasemin Sapakoglu. *Aussi sur base 4, l'ARN ou acide nucléique, sert d'intermédiaire dans la circulation de l'information génétique de l'ADN aux protéines. **les transposons sont à la fois régulés par l'épigénétique, mais peuvent aussi induire des changements épigénétiques héritables, faisant le lien entre génome et épigénome dans l'évolution, 333vestiges moléculaires de gènes ancestraux devenus non fonctionnels, mais qui semblent parfois avoir acquis des rôles régulateurs inattendus au cours de l'évolution

[ stratégies géniques ] [ codifications du vivant ] [ mémoire diachronique active ] [ encodages chronologiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

La direction de l'institution américaine Carnegie Mellon University s'est distanciée des tweets offensants d'Uju Anya, professeur au département de langues modernes de l'école, qui décrivent feu la reine Elizabeth II comme une "femme misérable" et une "colonisatrice génocidaire".

Parmi l'afflux des inquiétudes concernant l'état de santé de la reine malade tôt jeudi – quelques heures avant l'annonce officielle de sa mort – Mme Anya, dans un fil de tweets, souhaitait à la reine "une mort atrocement douloureuse comme celle qu'elle a pu causer à des millions de personnes".

"J'ai entendu dire que le monarque en chef d'un empire génocidaire, voleur et violeur est enfin en train de mourir. Que sa douleur soit atroce".

Après que de nombreuses personnes aient signalé ce tweet, Twitter l'a retiré pour avoir enfreint la règle interdisant de "souhaiter ou espérer que quelqu'un subisse un préjudice physique".

Ce qui n'a pas empêché un déluge de critiques, notamment de la part de l'Université Carnegie Mellon, où Mme Anya enseigne la linguistique appliquée.

"Nous ne tolérons pas les messages offensants et répréhensibles publiés par Uju Anya aujourd'hui sur son compte personnel de médias sociaux. La liberté d'expression est au cœur de la mission de l'enseignement supérieur, cependant, les opinions qu'elle a partagées ne représentent absolument pas les valeurs de l'institution, ni les normes de discours que nous cherchons à promouvoir", a tweeté l'Université Carnegie Mellon.

Les tweets ignobles de Mme Anya ont également attiré l'attention du fondateur d'Amazon, Jeff Bezos.

"Est-ce quelqu'un qui travaille pour rendre le monde meilleur ?" a-t'il tweeté. "Je ne pense pas. Wow."

Les commentataires en ligne ne cessent depuis d'envahir la section de commentaires du tweet de l'université, appelant au licenciement de Mme Anya, soulignant qu'un condamnation ne suffirait pas et demandant des mesures de rétorsion contre le professeur.

L'utilisateur de Twitter @DavidWohl par exemple : "Ainsi, cette ignoble fauteuse de haine restera professeur titulaire, et continuera de recevoir son plein salaire sans aucune mesure disciplinaire, ni suspension, ni rien. Au cas où vous envisageriez d'envoyer vos enfants dans cette université dégénérée."

Un autre tweet, @InterestedObs13 indique : "La liberté d'expression est essentielle, mais la méchanceté de ce tweet ne reflète pas l'opinion réfléchie et rationnelle d'un leader pondéré. Colère et rancune comme celles-ci diminuent la légitimité de l'argument et au final la réputation de la personne qui le transmet."

Un autre @kristi_mccall a été plus explicite : "Si vous ne la virez pas, vous l'approuvez."

Et @chefjohnny84 a écrit: "Alors virez-la. Résilier son contrat. Cette femme ne devrait rien apprendre à personne. Elle devrait apprendre l'histoire, pas remplir le monde de haine."

Plus tôt cette année Mme Anya a indiqué à Carnegie Mellon qu'elle était née au Nigeria et avait déménagé aux États-Unis à l'âge de 10 ans., déplorant être en butte à "l'exclusion du système".

"En raison de l'exclusion systémique, ma voix est unique et fondamentale dans le domaine", expliquait Mme Anya dans l'interview de Carnegie Mellon. "Je suis le principal chercheur qui étudie la race et les expériences de la race noire dans l'apprentissage des langues et l'un des rares à examiner l'éducation des langages dans une perspective de justice sociale."

L'attaque de Mme Anya contre la reine Elizabeth correspond à sa profonde animosité, souvent exprimée, suite à la guerre civile nigériane (1967-1970). On estime que deux millions de personnes auraient été tuées par les troupes nigérianes lors d'une tentative du groupe ethnique Igbo de Mme Anya de se séparer du Nigéria à peine sept ans après l'indépendance.

"Si quelqu'un s'attend à ce que j'exprime autre chose que du mépris pour une monarque qui a supervisé le gouvernement qui a parrainé le génocide, a massacré et déplacé la moitié de ma famille avec des conséquences encore visibles aujourd'hui, vous pouvez continuer à rêver", a ajouté Mme Anya sur Twitter suite à la réprimande de Bezos.

La professeur, qui est d'origine Igbo dans l'est du Nigeria, a acquis cette notoriété sur Twitter après avoir incité à la haine ethnique, en particulier contre les populations haoussa et yoruba.

Il y a deux semaines, elle fut stigmatisée par certains Afro-Américains pour son utilisation d'une insulte de rue, "Akata", puisqu'elle affirmait que ce mot qui émane de la langue yoruba et que le peuple yoruba l'utilise pour décrire les Afro-Américains comme des animaux sauvages.

Son affirmation fut immédiatement démystifiée et présentée comme une tentative d'opposer les Afro-Américains aux personnes de l'ethnie Yoruba au Nigeria, à qui elle n'a jamais pardonné de s'être rangé du côté des troupes fédérales pour maintenir l'unité du Nigeria durant la guerre civile.

 

Auteur: Internet

Info: https://gazettengr.com/, 8 sept. 2022

[ polémique ] [ afrique ] [ usa ] [ Angleterre ] [ événement mondial ] [ deuil planétaire ] [ racisme ] [ communautarisme ] [ socio-linguistique ]

 
Commentaires: 1
Ajouté à la BD par miguel