Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 916
Temps de recherche: 0.0579s

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

biophysique

La photosynthèse des plantes utilise un tour de passe-passe quantique

Des chercheurs ont observé des similitudes étonnantes entre la photosynthèse des plantes vertes et le fameux "cinquième état de la matière" en mettant le doigt sur un curieux phénomène; ils ont trouvé des liens entre le processus de photosynthèse, qui permet aux végétaux d’exploiter la lumière du soleil, et les condensats de Bose-Einstein, des matériaux dans un état très particulier qui fait intervenir la physique quantique.

"Pour autant que je sache, ces deux disciplines n’ont jamais été connectées auparavant, donc ce résultat nous a semblé très intrigant et excitant", explique David Mazziotti, co-auteur de l’étude.

Son laboratoire est spécialisé dans la modélisation des interactions complexes de la matière. Ces derniers temps, son équipe s’est intéressée aux mécanismes de la photosynthèse à l’échelle des atomes et des molécules. Plus précisément, les chercheurs se sont penchés sur le siège de cette réaction : les chloroplastes, les petites structures chlorophylliennes qui donnent leur couleur aux plantes vertes.

Lorsqu’un photon vient frapper une structure bien précise à la surface de ces chloroplastes (le photosystème II, ou PSII), cela a pour effet d’arracher un électron — une particule élémentaire chargée négativement. Ce dernier devient alors l’acteur principal d’une réaction en chaîne complexe. Le mécanisme est déjà relativement bien connu. Il a été étudié en profondeur par des tas de spécialistes, et c’est aujourd’hui l’une des pierres angulaires de la biologie végétale.

Mais le départ de cet électron laisse aussi ce que les physiciens appellent un trou. Il ne s’agit pas d’une particule à proprement parler. Mais cette structure chargée positivement est aussi capable se déplacer au sein d’un système. Elle peut donc se comporter comme un vecteur d’énergie.

Ensemble, l’électron éjecté et le trou qu’il laisse derrière lui forment un couple dynamique appelé exciton. Et si le rôle du premier est bien documenté, le comportement du second dans le cadre de la photosynthèse n’a quasiment pas été étudié.

C’est quoi, un condensat de Bose-Einstein ?

Pour combler cette lacune, Mazziotti et ses collègues ont réalisé des modélisations informatiques du phénomène. Et en observant les allées et venues de ces excitons, ces spécialistes des interactions de la matière ont rapidement remarqué quelques motifs qui leur ont semblé familiers ; ils rappelaient fortement un concept proposé par Einstein en 1925.

Imaginez un gaz où des particules se déplacent aléatoirement les uns par rapport aux autres, animées par leur énergie interne. En le refroidissant (ce qui revient à retirer de l’énergie au système), on force les atomes à s’agglutiner ; le gaz passe à l’état liquide, puis solide dans certains cas.

Lorsqu’on le refroidit encore davantage pour s’approcher du zéro absolu, les atomes arrivent dans un état où ils n’ont quasiment plus d’énergie à disposition ; ils sont presque entièrement figés dans un état ultra-condensé, séparés par une distance si minuscule que la physique newtonienne traditionnelle ne suffit plus à l’expliquer.

Sans rentrer dans le détail, dans ces conditions, les atomes (ou plus précisément les bosons) qui composent certains matériaux deviennent quasiment indiscernables. Au niveau quantique, ils forment un système unique, une sorte de super-particule où chaque constituant est exactement dans le même état (voir la notion de dualité onde-corpuscule pour plus de détails). On appelle cela un condensat de Bose-Einstein.

Ces objets ne suivent pas les règles de la physique traditionnelle. Ils affichent des propriétés très particulières qui n’existent pas dans les gaz, les liquides, les solides ou le plasma. Pour cette raison, ces condensats sont parfois considérés comme les représentants du "cinquième état de la matière". (après le solide, le liquide, le gaz et le plasma)

De la biologie végétale à la physique quantique

La plus remarquable de ces propriétés, c’est que les condensats de Bose-Einstein sont de vraies autoroutes à particules. D’après la physicienne américaine Louise Lerner, l’énergie s’y déplace librement, sans la moindre résistance. Même si les mécanismes physiques sous-jacents sont différents, on se retrouve dans une situation comparable à ce que l’on trouve dans les supraconducteurs.

Or, d’après les modèles informatiques créés par Mazziotti et ses collègues, les excitons générés par la photosynthèse peuvent parfois se lier comme dans les condensats de Bose-Einstein. C’est une observation particulièrement surprenante, car jusqu’à présent, cela n’a été documenté qu’à des températures proches du zéro absolu. Selon Louise Lerner, c’est aussi étonnant que de voir "des glaçons se former spontanément dans une tasse de café chaud".

Le phénomène n’est pas aussi marqué chez les plantes que dans les vrais condensats de Bose-Einstein. Mais d’après les auteurs de l’étude, cela aurait quand même pour effet de doubler l’efficacité des transferts énergétiques indispensables à la photosynthèse.

De la recherche fondamentale aux applications pratiques

Les implications de cette découverte ne sont pas encore parfaitement claires. Mais il y en a une qui met déjà l’eau à la bouche des chercheurs : ces travaux pourraient enfin permettre d’utiliser les formidables propriétés des condensats de Bose-Einstein dans des applications concrètes.

En effet, même si ces matériaux sont très intéressants sur le papier, le fait de devoir atteindre une température proche du zéro absolu limite grandement leur intérêt pratique. Aujourd’hui, ils sont utilisés exclusivement en recherche fondamentale. Mais puisqu’un phénomène comparable a désormais été modélisé à température ambiante, les chercheurs vont pouvoir essayer d’utiliser ces mécanismes pour concevoir de nouveaux matériaux aux propriétés très intéressantes.

"Un condensat d’excitons parfait est très sensible et nécessite des conditions très spécifiques", précise Mazziotti. "Mais pour les applications réalistes, c’est très excitant de voir que ce phénomène qui augmente l’efficacité du système peut survenir à température ambiante", se réjouit-il.

A long terme, cette découverte va sans doute contribuer à la recherche fondamentale, en biologie végétale mais aussi en physique quantique pure. Cela pourrait aussi faire émerger une nouvelle génération de composants électroniques très performants. Il sera donc très intéressant de suivre les retombées de ces travaux encore balbutiants, mais exceptionnellement prometteurs.

Auteur: Internet

Info: https://www.journaldugeek.com/, Antoine Gautherie le 05 mai 2023

[ recherche fondamentale ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

polypeptides

Les biologistes dévoilent les formes moléculaires de la vie

On vous décrit la quête visant à comprendre comment les protéines se plient rapidement et élégamment pour prendre des formes qui leur permettent d'effectuer des tâches uniques.

Pour le hula hoop, vous vous levez et faites pivoter vos hanches vers la droite et vers la gauche. Pour faire du vélo, on s'accroupit, on tend les bras et on pédale sur les jambes. Pour plonger dans une piscine, vous étendez les bras, rentrez le menton et vous penchez en avant. Ces formes corporelles nous permettent d’entreprendre certaines actions – ou, comme pourrait le dire un biologiste, notre structure détermine notre fonction.

Cela est également vrai au niveau moléculaire. Chaque tâche imaginable effectuée par une cellule possède une protéine conçue pour l'exécuter. Selon certaines estimations, il existe 20 000 types différents de protéines dans le corps humain : certaines protéines des cellules sanguines sont parfaitement conçues pour capter les molécules d'oxygène et de fer, certaines protéines des cellules cutanées fournissent un soutien structurel, etc. Chacun a une forme adaptée à son métier. 

Cependant, si une protéine se replie mal, elle ne peut plus fonctionner, ce qui peut entraîner un dysfonctionnement et une maladie. En comprenant comment les protéines se replient, les biologistes gagneraient non seulement une compréhension plus approfondie des protéines elles-mêmes, mais pourraient également débloquer de nouvelles façons de cibler les protéines liées à la maladie avec de nouveaux médicaments.

Cela s’est avéré être un formidable défi scientifique. Chaque protéine commence par une chaîne de molécules plus petites liées appelées acides aminés. Lorsque les acides aminés s'alignent dans l'ordre dicté par un gène, ils se plient et prennent la forme appropriée de la protéine en quelques microsecondes – un phénomène qui a stupéfié les scientifiques du XXe siècle lorsqu'ils l'ont découvert. 

Dans les années 1950, le biochimiste Christian Anfinsen a émis l’hypothèse qu’il devait y avoir un code interne intégré à la chaîne d’acides aminés qui détermine la manière dont une protéine doit se replier. Si tel était le cas, pensait-il, il devrait exister un moyen de prédire la structure finale d'une protéine à partir de sa séquence d'acides aminés. Faire cette prédiction est devenu connu sous le nom de problème de repliement des protéines. Depuis, certains scientifiques ont redéfini le problème en trois questions liées : Qu'est-ce que le code de pliage ? Quel est le mécanisme de pliage ? Pouvez-vous prédire la structure d’une protéine simplement en regardant sa séquence d’acides aminés ? 

Les biologistes ont passé des décennies à tenter de répondre à ces questions. Ils ont expérimenté des protéines individuelles pour comprendre leurs structures et construit des programmes informatiques pour déduire des modèles de repliement des protéines. Ils ont étudié la physique et la chimie des molécules d’acides aminés jusqu’au niveau atomique pour découvrir les règles du repliement des protéines. Malgré cela, les biologistes n'ont fait que des progrès hésitants dans la compréhension des règles de repliement internes d'une protéine depuis qu'Anfinsen a exposé le problème.

Il y a quelques années, ils ont réalisé une avancée décisive lorsque de nouveaux outils d’intelligence artificielle ont permis de résoudre une partie du problème. Les outils, notamment AlphaFold de Google DeepMind, ne peuvent pas expliquer comment une protéine se replie à partir d'une chaîne d'acides aminés. Mais étant donné une séquence d’acides aminés, ils peuvent souvent prédire la forme finale dans laquelle elle se replie. 

Ce n’est que dans les décennies à venir qu’il deviendra clair si cette distinction – savoir comment une protéine se replie par rapport à ce en quoi elle se replie – fera une différence dans des applications telles que le développement de médicaments. Le magicien doit-il révéler le tour de magie ?

Quoi de neuf et remarquable

Début mai, Google DeepMind a annoncé la dernière itération de son algorithme de prédiction des protéines, appelé AlphaFold3, qui prédit les structures non seulement de protéines individuelles, mais également de protéines liées les unes aux autres et d'autres biomolécules comme l'ADN et l'ARN. Comme je l’ai signalé pour Quanta, cette annonce est intervenue quelques mois seulement après qu’un algorithme concurrent de prédiction des protéines – RosettaFold All-Atom, développé par le biochimiste David Baker de la faculté de médecine de l’Université de Washington et son équipe – a annoncé une mise à niveau similaire. " Vous découvrez désormais toutes les interactions complexes qui comptent en biologie ", m'a dit Brenda Rubenstein, professeure agrégée de chimie et de physique à l'Université Brown. Il reste néanmoins un long chemin à parcourir avant que ces algorithmes puissent déterminer les structures dynamiques des protéines lors de leur déplacement dans les cellules. 

Parfois, les protéines agissent de manière imprévisible, ce qui ajoute une autre difficulté au problème du repliement. La plupart des protéines se replient en une seule forme stable. Mais comme Quanta l’a rapporté en 2021, certaines protéines peuvent se replier sous plusieurs formes pour remplir plusieurs fonctions. Ces protéines à commutation de plis ne sont pas bien étudiées et personne ne sait quelle est leur abondance. Mais grâce aux progrès technologiques tels que la cryomicroscopie électronique et la résonance magnétique nucléaire à l’état solide, les chercheurs y voient plus clairement. De plus, certaines protéines possèdent des régions qui ne se plient pas selon une forme discrète mais qui bougent de manière dynamique. Comme Quanta l'a rapporté en février, ces protéines intrinsèquement désordonnées peuvent avoir des fonctions importantes, comme l'amélioration de l'activité des enzymes, la classe de protéines qui provoquent des réactions chimiques. 

Lorsque les protéines se replient mal, elles peuvent se regrouper et causer des ravages dans l’organisme. Les agrégats de protéines sont caractéristiques des maladies neurodégénératives comme la maladie d'Alzheimer, dans lesquelles des agrégats de protéines potentiellement toxiques appelés plaques amyloïdes s'accumulent entre les neurones et compromettent la signalisation du cerveau. Comme Quanta l’a rapporté en 2022 , l’agrégation des protéines pourrait être répandue dans les cellules vieillissantes ; comprendre pourquoi les protéines se replient mal et s’accumulent pourrait aider au développement de traitements pour les problèmes liés au vieillissement. Parfois, des protéines mal repliées peuvent également favoriser le mauvais repliement et l’agrégation d’autres protéines, déclenchant une cascade d’effets néfastes qui illustrent à quel point il est essentiel qu’une protéine se plie pour prendre sa forme appropriée.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ mai 2024, Mme Yasemin Saplakoglu

[ tridimensionnelles ] [ conformation protéique ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

L'anorexie se soigne avec douceur et patience
Le Dr Jean Wilkins soigne les adolescentes souffrant d'anorexie depuis 36 ans. Fait assez rare, aucune patiente n'est décédée dans son unité de soins au cours de sa carrière. Son secret ? "La patience, la douceur, le respect, la confiance et la prudence", répond le fondateur de la section de médecine de l'adolescence au CHU Sainte-Justine et professeur de pédiatrie à la Faculté de médecine de l'Université de Montréal.
Sa méthode est à contrecourant de la tendance actuelle, qui privilégie les plans de soins, estime-t-il. "On peut traiter la plupart des maladies avec un protocole, mais pas l'anorexie. Parce que chaque cas est unique, parce qu'aucune de ces filles n'est rendue au même stade, parce qu'on doit constamment s'adapter à elles et non le contraire. Si on les force à adopter notre vision, elles ne guériront pas."

À l'aube de la retraite, il a senti le besoin d'expliquer sa pratique. Dans "Adolescentes anorexiques: plaidoyer pour une approche clinique humaine", le Dr Wilkins transmet son expérience aux pédiatres de la relève et offre aux jeunes filles souffrantes "quelques clés de compréhension de leur maladie et des outils pour la transformer". Il a rédigé l'ouvrage en collaboration avec la journaliste scientifique Odile Clerc.
Limiter la reprise de poids
"Quand on visite un patient, celui-ci est alité et le personnel soignant est debout, observe-t-il. Ce n'est pas le cas des filles anorexiques. Elles sont debout, toujours actives, ce qui témoigne de leur volonté de ne pas être piégées dans la thérapie. Elles manifestent une résistance: elles ne veulent pas guérir, car, déclarent-elles, elles ne sont pas malades. C'est sûr que ce serait plus facile de les obliger à se coucher et de les gaver. Mais ce serait aussi sauvage et contreproductif."

Il en veut pour preuve une jeune fille récemment traitée qui avait fait des séjours dans différents hôpitaux avant d'être admise à la Clinique des troubles de la conduite alimentaire du CHU Sainte-Justine. "En deux ans, elle avait gagné 55 kilos et en a perdu 74. Donc, 129 kilos sont entrés et sortis de son corps pendant ce laps de temps. C'est une forme de violence inutile!"

Il attribue ce phénomène aux objectifs de reprise pondérale fixés par les plans de soins. "Cela ne tient compte ni de l'état de la patiente ni de sa capacité à accepter et intérioriser cette prise de poids, s'exclame-t-il. Pour nous, c'est une victoire, mais pour elle, c'est "l'échec de sa réussite"."

Le spécialiste préfère limiter la reprise pondérale à 10 % du poids enregistré au moment de l'admission, laisser la patiente "digérer" ce changement et discuter avec elle de la suite des choses. En effet, le dialogue est extrêmement important pour établir un lien de confiance avec la jeune fille. "Dès la première rencontre, j'explique tout aux patientes et j'y vais avec douceur, indique-t-il. Par exemple, je ne leur demande jamais de se déshabiller au complet pour procéder à l'examen. Je ne découvre que les parties nécessaires. Mon collègue et ami feu le professeur Victor Courtecuisse, père de la médecine de l'adolescence en France, m'a dit un jour: "Tu sais, Jean, on n'entre pas dans un jardin privé avec un bulldozeur." Cette réflexion m'a beaucoup marqué. C'est pourquoi je ne brusque jamais une patiente... à moins qu'il y ait un danger de mort."

Étonnamment, les jeunes filles qui sont au bord du gouffre ne s'opposent jamais aux traitements. "Elles me laissent faire parce qu'elles veulent vivre, affirme le pédiatre. Contrairement à ce qu'on peut croire, l'anorexie est une expression de vie. Il faut leur faire comprendre que ce n'est pas la bonne façon d'y arriver. Et cela prend du temps."

Quand la maladie se déclare à l'adolescence, elle dure en moyenne quatre ans. "J'aimerais que ce soit plus court", admet le Dr Wilkins, qui est peiné à l'idée de transférer ses patientes en milieu adulte lorsqu'elles atteignent 18 ans.

Cela l'inquiète d'autant plus que le passage à l'âge adulte se révèle parfois fatal pour les jeunes femmes qui ne s'en sont toujours pas sorties. Huit de ses anciennes patientes sont mortes entre 20 et 30 ans. Quatre de ces décès ont un lien avec l'anorexie. Le médecin en parle comme si c'était hier. Il se souvient de leur beauté, de leur caractère frondeur, de leurs discussions. "C'est dur", confie-t-il.

La majorité finit toutefois par guérir. Le Dr Wilkins reçoit d'ailleurs de fréquents témoignages, que ce soit par écrit ou en personne, d'anciennes patientes qui le remercient. "Cela me fait toujours très plaisir de savoir qu'elles vont bien et qu'elles ont fondé une famille", dit-il en souriant.

Une de ses patientes lui a déjà écrit: "Merci non pas de m'avoir sauvé la vie, mais de m'avoir remise dans la vie." Et c'est tout ce que ce grand pédiatre espère accomplir.

Qu'est-ce que l'anorexie mentale ?
L'anorexie, c'est-à-dire la perte d'appétit, est fréquente chez les personnes très malades. Ce trouble devient "mental" lorsqu'il relève de la psychopathologie. Il touche essentiellement les filles. Une adolescente sur 100 souffre de cette maladie de manière assez grave pour être hospitalisée. Selon le Dr Wilkins, l'anorexie mentale "est une impasse développementale propre à la période de l'adolescence et assimilable à une conduite de type addictif". Plus l'anorexie est étudiée, plus elle se révèle complexe, constate-t-il. "C'est pourquoi il faut différents intervenants pour en venir à bout: en premier lieu le duo médecin-infirmière, puis des psychologues et des nutritionnistes."
Qui sont les adolescentes anorexiques ?
Ce sont des enfants modèles: "L'anorexique répond à toutes les exigences sociales: elle est brillante sur le plan scolaire, elle excelle dans tout ce qu'elle entreprend, elle sort peu, n'a aucune conduite addictive à risque et nourrit de belles ambitions sur le plan professionnel", écrit le Dr Wilkins. Elles étudient souvent en sciences, évoluent dans le milieu artistique ou pratiquent des sports de compétition. Leur emploi du temps est trop chargé. Elles socialisent peu. Bref, elles mettent leur adolescence en veilleuse, une période pourtant essentielle à la construction identitaire. Résultat: "L'adolescente anorexique, qui avait jusque-là satisfait aux attentes conscientes et inconscientes de son entourage, comme si elle avait construit son identité à partir d'une prescription externe, reprend la maîtrise de son évolution en s'appuyant sur la nouvelle identité qu'elle trouve dans cette maladie", croit le pédiatre.

Auteur: Wilkins Jean

Info: Internet mars 2012

[ empathie ]

 

Commentaires: 0

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Comment les physiciens explorent et repensent le temps

Le temps est inextricablement lié à ce qui pourrait être l’objectif le plus fondamental de la physique : la prédiction. Qu'ils étudient des boulets de canon, des électrons ou l'univers entier, les physiciens visent à recueillir des informations sur le passé ou le présent et à les projeter vers l'avant pour avoir un aperçu de l'avenir. Le temps est, comme l’a dit Frank Wilczek, lauréat du prix Nobel, dans un récent épisode du podcast The Joy of Why de Quanta, " la variable maîtresse sous laquelle le monde se déroule ".  Outre la prédiction, les physiciens sont confrontés au défi de comprendre le temps comme un phénomène physique à part entière. Ils développent des explications de plus en plus précises sur la caractéristique la plus évidente du temps dans notre vie quotidienne : son écoulement inexorable. Et des expériences récentes montrent des façons plus exotiques dont le temps peut se comporter selon les lois de la mécanique quantique et de la relativité générale. Alors que les chercheurs approfondissent leur compréhension du temps dans ces deux théories chères, ils se heurtent à des énigmes qui semblent surgir de niveaux de réalité plus obscurs et plus fondamentaux. Einstein a dit en plaisantant que le temps est ce que mesurent les horloges. C'est une réponse rapide. Mais alors que les physiciens manipulent des horloges de plus en plus sophistiquées, on leur rappelle fréquemment que mesurer quelque chose est très différent de le comprendre. 

Quoi de neuf et remarquable

Une réalisation majeure a été de comprendre pourquoi le temps ne s'écoule qu'en avant, alors que la plupart des faits physiques les plus simples peuvent être faits et défaits avec la même facilité.  La réponse générale semble provenir des statistiques des systèmes complexes et de la tendance de ces systèmes à passer de configurations rares et ordonnées à des configurations désordonnées plus courantes, qui ont une entropie plus élevée. Les physiciens ont ainsi défini une " flèche du temps " classique dans les années 1800, et dans les temps modernes, les physiciens ont remanié cette flèche probabiliste en termes d’intrication quantique croissante. En 2021, ma collègue Natalie Wolchover a fait état d’une nouvelle description des horloges comme de machine qui ont besoin du désordre pour fonctionner sans problème, resserrant ainsi le lien entre emps et entropie. 

Simultanément, les expérimentateurs se sont fait un plaisir d'exposer les bizarres courbures et crépitements du temps que nous ne connaissons pas, mais qui sont autorisés par les lois contre-intuitives de la relativité générale et de la mécanique quantique. En ce qui concerne la relativité, Katie McCormick a décrit en 2021 une expérience mesurant la façon dont le champ gravitationnel de la Terre ralentit le tic-tac du temps sur des distances aussi courtes qu'un millimètre. En ce qui concerne la mécanique quantique, j'ai rapporté l'année dernière comment des physiciens ont réussi à faire en sorte que des particules de lumière fassent l'expérience d'un écoulement simultané du temps vers l'avant et vers l'arrière.

C'est lorsque les physiciens sont confrontés à la formidable tâche de fusionner la théorie quantique avec la relativité générale que tout ça devient confus ; chaque théorie a sa propre conception du temps, mais les deux notions n’ont presque rien en commun.

En mécanique quantique, le temps fonctionne plus ou moins comme on peut s'y attendre : vous commencez par un état initial et utilisez une équation pour le faire avancer de manière rigide jusqu'à un état ultérieur. Des manigances quantiques peuvent se produire en raison des façons particulières dont les états quantiques peuvent se combiner, mais le concept familier du changement se produisant avec le tic-tac d’une horloge maîtresse reste intact.

En relativité générale, cependant, une telle horloge maîtresse n’existe pas. Einstein a cousu le temps dans un tissu espace-temps qui se plie et ondule, ralentissant certaines horloges et en accélérant d’autres. Dans ce tableau géométrique, le temps devient une dimension au même titre que les trois dimensions de l'espace, bien qu'il s'agisse d'une dimension bizarroïde qui ne permet de voyager que dans une seule direction.

Et dans ce contexte, les physiciens dépouillent souvent le temps de sa nature à sens unique. Bon nombre des découvertes fondamentales de Hawking sur les trous noirs – cicatrices dans le tissu spatio-temporel créées par l’effondrement violent d’étoiles géantes – sont nées de la mesure du temps avec une horloge qui marquait des nombres imaginaires, un traitement mathématique qui simplifie certaines équations gravitationnelles et considère le temps comme apparié à l'espace. Ses conclusions sont désormais considérées comme incontournables, malgré la nature non physique de l’astuce mathématique qu’il a utilisée pour y parvenir.

Plus récemment, des physiciens ont utilisé cette même astuce du temps imaginaire pour affirmer que notre univers est l'univers le plus typique, comme je l'ai rapporté en 2022. Ils se demandent encore pourquoi l'astuce semble fonctionner et ce que signifie son utilité. "Il se peut qu'il y ait ici quelque chose de profond que nous n'avons pas tout à fait compris", a écrit le célèbre physicien Anthony Zee à propos du jeu imaginaire du temps dans son manuel de théorie quantique des champs.

Mais qu’en est-il du temps réel et à sens unique dans notre univers ? Comment les physiciens peuvent-ils concilier les deux images du temps alors qu’ils se dirigent sur la pointe des pieds vers une théorie de la gravité quantique qui unit la théorie quantique à la relativité générale ? C’est l’un des problèmes les plus difficiles de la physique moderne. Même si personne ne connaît la réponse, les propositions intrigantes abondent.

Une suggestion, comme je l’ai signalé en 2022, est d’assouplir le fonctionnement restrictif du temps en mécanique quantique en permettant à l’univers de générer apparemment une variété d’avenirs à mesure qu’il grandit – une solution désagréable pour de nombreux physiciens. Natalie Wolchover a écrit sur la suspicion croissante selon laquelle le passage du temps résulte de l'enchevêtrement de particules quantiques, tout comme la température émerge de la bousculade des molécules. En 2020, elle a également évoqué une idée encore plus originale : que la physique soit reformulée en termes de nombres imprécis et abandonne ses ambitions de faire des prévisions parfaites de l’avenir.

Tout ce que les horloges mesurent continue de s’avérer insaisissable et mystérieux. 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 1 avril 2024

 

Commentaires: 0

Ajouté à la BD par miguel

palier évolutif

Découverte d’une nouvelle forme de vie née de la fusion d’une bactérie avec une algue

Ayant eu lieu il y a 100 millions d’années, il s’agit seulement du troisième cas connu de ce phénomène.

(Image - La forme de vie née de la fusion entre l'algue Braarudosphaera bigelowii et la cyanobactérie UCYN-A."

Des chercheurs ont découvert une forme de vie de nature extrêmement rare née de la fusion d’une algue avec une bactérie fixatrice d’azote il y a 100 millions d’années. Appelé endosymbiose primaire, le phénomène se produit lorsqu’un organisme en engloutit un autre pour faire de celui-ci un organite, à l’instar des mitochondries et des chloroplastes. Il s’agit du troisième cas recensé d’endosymbiose. Il pourrait ouvrir la voie à une production plus durable d’azote pour l’agriculture.

Au cours des 4 milliards d’années de vie sur Terre, seulement deux cas d’endosymbiose primaire étaient connus jusqu’ici. La première s’est produite il y a 2,2 milliards d’années, lorsqu’une archée a absorbé une bactérie pour l’intégrer dans son arsenal métabolique en la convertissant en mitochondrie. Cette étape constitue une phase majeure dans l’évolution de tous les organismes sur Terre, leur permettant notamment d’évoluer vers des formes plus complexes.

(Photo : Des mitochondries dans une cellule.)

La seconde endosymbiose primaire connue s’est produite il y a 1,6 milliard d’années, lorsque des organismes unicellulaires ont absorbé des cyanobactéries capables de convertir la lumière en énergie (photosynthèse). Ces bactéries sont devenues les chloroplastes que les plantes chlorophylliennes utilisent encore à ce jour pour convertir la lumière du Soleil en énergie.

D’un autre côté, on pensait que seules les bactéries pouvaient extraire l’azote atmosphérique et le convertir en une forme utilisable (en ammoniac) pour le métabolisme cellulaire. Les plantes pouvant fixer l’azote (comme les légumineuses) effectuent ce processus en hébergeant ces bactéries au niveau de leurs nodules racinaires.

La découverte de l’équipe du Berkeley Lab bouleverse cette notion avec le premier organite capable de fixer de l’azote et intégré dans une cellule eucaryote (une algue marine). " Il est très rare que des organites résultent de ce genre de choses ( endosymbiose primaire ) ", explique Tyler Coale de l’Université de Californie à Santa Cruz, dans un communiqué du Berkeley Lab. " La première fois que cela s’est produit à notre connaissance, cela a donné naissance à toute vie complexe. Tout ce qui est plus compliqué qu’une cellule bactérienne doit son existence à cet événement ", a-t-il déclaré, en faisant référence aux origines des mitochondries. Le nouvel organite, décrit dans deux études publiées dans les revues Cell Press et Science, est baptisé " nitroplaste ".

Un organite à part entière

La découverte de l’organite a nécessité plusieurs décennies de travail. En 1998, les chercheurs ont identifié une courte séquence d’ADN qui semblait provenir d’une cyanobactérie fixatrice d’azote (UCYN-A) abondante dans le Pacifique. D’un autre côté, une autre équipe de l’Université de Kochi (au Japon) a identifié une algue marine (Braarudosphaera bigelowii) qui semblait être l’hôte symbiotique de la bactérie. En effet, l’ADN de cette dernière a été découvert en importante quantité dans les cellules de l’algue.

Alors que les chercheurs considéraient l’UCYN-A comme un simple endosymbiote de l’algue, les deux nouvelles études suggèrent qu’elle a co-évolué avec son hôte de sorte à devenir un organite à part entière. En effet, après plus de 300 expéditions, l’équipe japonaise est parvenue à isoler et cultiver l’algue en laboratoire. Cela a permis de montrer que le rapport de taille entre les UCYN-A et leurs algues hôtes est similaire d’une espèce à l’autre.

D’autre part, les chercheurs ont utilisé un modèle informatique pour analyser la croissance de la cellule hôte et de la bactérie par le biais des échanges de nutriments. Ils ont constaté que leurs métabolismes sont parfaitement synchronisés, ce qui leur permettrait de coordonner leur croissance. " C’est exactement ce qui se passe avec les organites ", explique Jonathan Zehr, de l’Université de Californie à Santa Cruz et coauteur des deux études. " Si vous regardez les mitochondries et le chloroplaste, c’est la même chose : ils évoluent avec la cellule ", ajoute-t-il.

Les experts ont également montré que la bactérie UCYN-A repose sur sa cellule hôte pour sa réplication protéique et sa multiplication. Pour ce faire, ils ont utilisé une technique d’imagerie à rayons X et une tomographie permettant d’observer les processus cellulaires en temps réel. " Nous avons montré grâce à l’imagerie à rayons X que le processus de réplication et de division de l’hôte algal et de l’endosymbiote est synchronisé ", indique Carolyn Larabell, du Berkeley Lab.

(Illustrations montrant les algues à différents stades de division cellulaire. UCYN-A, l’entité fixatrice d’azote désormais considérée comme un organite, est visible en cyan ; le noyau des algues est représenté en bleu, les mitochondries en vert et les chloroplastes en violet.)

Une quantification des protéines des deux organismes a aussi été réalisée. Il a été constaté qu’environ la moitié des protéines de l’UCYN-A est synthétisée par sa cellule hôte, qui les marque avec une séquence protéinique spécifique. Ce marquage permet ensuite à la cellule de les envoyer au nitroplaste, qui les importe et les utilise pour son propre métabolisme. " C’est l’une des caractéristiques de quelque chose qui passe d’un endosymbionte à un organite ", explique Zehr. " Ils commencent à éjecter des morceaux d’ADN, et leurs génomes deviennent de plus en plus petits, et ils commencent à dépendre de la cellule mère pour que ces produits génétiques soient transportés dans la cellule ".

Un potentiel pour une production d’azote plus durable

Les chercheurs estiment que les nitroplastes ont évolué il y a environ 100 millions d’années. Comme l’UCYN-A est présente dans presque tous les océans du monde, elle est probablement impliquée dans le cycle de l’azote atmosphérique. Cette découverte pourrait avoir d’importantes implications pour l’agriculture, le procédé industriel utilisé actuellement pour convertir l’azote atmosphérique en ammoniac (procédé Haber-Bosch) étant très énergivore. Ce dernier permet notamment d’assurer 50 % de la production alimentaire mondiale et est responsable d’environ 1,4 % des émissions carbone.

Toutefois, de nombreuses questions restent sans réponse concernant le nitroplaste et son hôte algal. En prochaine étape, les chercheurs prévoient ainsi de déterminer s’il est présent dans d’autres cellules ainsi que les effets que cela pourrait avoir. Cela pourrait permettre d’intégrer directement la fixation de l’azote dans les plantes de sorte à améliorer les récoltes. 



 

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano·19 avril 2024

[ symbiogénétique ]

 

Commentaires: 0

Ajouté à la BD par miguel