Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 26
Temps de recherche: 0.0497s

fausse individuation

Le côté sentimental de la pratique analytique fait oublier cet aspect "psychotique", et celle-ci ainsi prise, c’est-à-dire méprise, constitue une pratique de l’eros et de la relation à l’anima. Souvenez-vous : sa personnalisation, sa subjectivité et sa sensibilité sont toutes des qualités archétypales ; elles nécessitent un filtrage au travers de la fonction sentiment et il ne faut pas les prendre au pied de la lettre. Sans cela, nous en prenons possession et nous nous identifions à elles, avec la croyance qu’en devenant plus intimement personnel, plus profondément subjectif, et plus sensible, nous sommes, encore, sur la voie de l’intégration de l’anima, alors qu’en fait nous l’avons laissée s’emparer de notre sentiment, le rendant ainsi faux, car une imitation du sien. L’imitatio animae est ce que l’on fait de mieux en pseudo-subjectivité, pseudo-sensibilité et pseudo-profondeur. Du fait qu’elle est archétypale, elle augmente la dimension de ce sentiment ; il est trop riche, trop raffiné, et cela se sent. Pour employer une expression populaire, c’est de la guimauve.

Auteur: Hillman James

Info: Dans "Anima et Animus", page 188, à propos des impressions produites par l'anima

[ parodie ] [ amalgames ] [ sentimentalisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

tueur

Les 10 métiers dans lesquels on compte le plus de psychopathes... Il s'agit principalement de postes à responsabilités ou de professions qui nécessitent un côté narcissique.

1 - Chef d'entreprise
2 - Avocat
3 - Figure médiatique (Télé, radio)
4 - Vendeur
5 - Chirurgien
6 - Journaliste
7 - Policier
8 - Clergé
9 - Chef cuisinier
10 - Fonctionnaire

Et voici les 10 métiers qui en comptent le moins. Ce sont surtout des professions de soin, qui impliquent d'être attentif aux autres.

1 - Aide à domicile
2 - Infirmière
3 - Thérapeute
4 - Artisan
5 - Esthéticienne/Styliste
6 - Employé dans un ONG
7 - Enseignant
8 - Artiste
9 - Médecin
10 - Comptable

Etes-vous un psychopathe ?
Bien qu'elle ne soit pas scientifiquement prouvée, on dit qu'il existe une raison simple de déterminer si quelqu'un a des penchants psychopathes. Il suffit de répondre à cette énigme...
"A l'enterrement de sa mère, une femme rencontre un homme qu'elle n'avait jamais vu auparavant. Elle en tombe éperdument amoureuse, mais celui-ci disparaît à la fin de la cérémonie sans qu'elle puisse lui demander son numéro de téléphone. Elle tente de retrouver sa trace, en vain. Quelques jours plus tard, elle tue sa soeur. Pourquoi?"
Si vous imaginez une sombre histoire de vengeance et de jalousie, parce que la soeur connaissait l'homme mystère, tout va bien. Mais si la première réponse qui vous est venue en tête est "parce qu'elle espérait que l'homme revienne à l'enterrement de sa soeur"... Vous avez sans doute le mode de pensée d'un psychopathe - ou d'un chef d'entreprise!

Auteur: Internet

Info: Express.be 2010

[ labeur ] [ profession ]

 

Commentaires: 0

intrications

La pensée n'est pas nécessairement liée à un cerveau. Elle apparaît dans le travail des abeilles, des cristaux, et dans tout le monde purement physique ; et on ne peut plus nier qu'elle soit vraiment là, que les couleurs, les formes, etc. des objets sont vraiment là. Si vous adhérez constamment à un déni injustifiable de ceci vous serez conduit vers une certaine forme de nominalisme idéaliste semblable à celui de Fichte. Non seulement la pensée est pensée dans le monde organique, mais elle s'y développe.

Mais comme il ne peut y avoir de Généralité sans Instances qui l'incarnent, il ne peut y avoir de pensée sans Signes. Nous devons ici donner au "Signe" un sens très large, sans doute, mais pas large au point d'entrer dans notre définition. Aussi, en admettant que les Signes reliés doivent avoir un Quasi-esprit, on peut subséquemment déclarer qu'il ne peut y avoir de signe isolé. De plus, les signes nécessitent au minimum deux Quasi-esprits ; un Quasi-énonciateur et un Quasi-interprète ; et bien que ces deux éléments ne fassent qu'un (c'est-à-dire qu'ils forment un seul esprit) dans le signe lui-même, ils doivent néanmoins être distincts. Dans le Signe, ils sont, pour ainsi dire, soudés.

Par conséquent, il ne s'agit pas simplement d'un fait de la psychologie humaine, mais d'une nécessité logique, que toute évolution logique de la pensée soit dialogique. On pourrait dire que tout cela n'est que discours vague ; et j'admets qu'en l'état actuel des choses, il y a une grande dose d'arbitraire. On pourrait accumuler les arguments afin d'éliminer la majeure partie de cette anomalie ; mais en premier lieu, pareille expansion nécessiterait un volume - et un volume peu engageant : et en second lieu, ce que je j'énonce ne s'applique qu'à une infime partie de notre système de schématisation, en ne l’affectant que très légèrement ; ainsi, si tout ceci est erroné, l'effet de loin le plus dangereux sera que notre système ne représente pas chaque forme de pensée non humaine.

Auteur: Peirce Charles Sanders

Info: Prolegomena to an Apology for Pragmaticism. The Monist, 16, 492-546. 1906

[ interdépendance ] [ interpénétration ] [ distanciation ] [ extraterrestres analysés ] [ désincarnation linguistique ] [ xénolinguistique ] [ épigénétique ] [ zoosémiotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

imagination

Quelle structure cérébrale est impliquée dans la compréhension visuelle de la causalité ? Aucune: c'est notre système visuel et non un mécanisme cognitif complexe qui nous permet de comprendre qu'un objet bouge à cause d'un autre objet (par exemple lorsqu'une boule de billard se déplace parce qu'une autre boule de billard l'a poussée). C'est ce que vient de découvrir une équipe internationale de chercheurs. A tout moment, nous réalisons des jugements visuels rapides de causalité - une balle renverse un verre sur une table -, de reconnaissance (entre par exemple une chose inerte ou vivante), ou de compréhension des intentions d'autrui. Ces raisonnements sont complexes, c'est pourquoi la plupart des scientifiques pensent que des structures cognitives importantes sont nécessaires pour les réaliser. D'un autre côté, ils se font tellement rapidement et sans effort, qu'ils pourraient finalement être "intuitifs". Les équipes de Patrick Cavanagh (Université Paris Descartes, CNRS), Rolfs, (Université Humboldt de Berlin), Michael Dambacher (Université de Constance) ont mis fin à cette question: la causalité peut être interprétée seulement par le système visuel. "Nous avons démontré que nos yeux peuvent évaluer rapidement une situation de cause à effet sans l'aide de notre système cognitif", explique Patrick Cavanagh, professeur dans le laboratoire de psychologie de la perception (Université Paris Descartes, CNRS, ENS). Deux composantes sont nécessaires pour définir une situation de causalité, par exemple une boule de billard en touche une autre qui se déplace ensuite. Les événements doivent se succéder rapidement et nécessitent généralement un contact. De plus, ils doivent être perçus comme un seul événement: plutôt que de voir un objet bouger puis s'arrêter et un autre objet se déplacer par lui-même, il y a une continuité du mouvement qui est transféré du premier objet au second. Pour tester comment le cerveau détermine la causalité, les scientifiques ont utilisé un procédé dit d'adaptation, souvent utilisé dans les études du mécanisme neuronal impliqué dans les facultés visuelles. Une expérience optique de ce type est bien connue: en fixant une tâche rouge, pendant quelques secondes, puis un mur blanc, on voit une tâche verte, l'oeil s'est "adapté" à la tâche rouge. Les chercheurs ont constaté qu'après une exposition répétée à des événements de causalité - ici collisions de deux objets - les épreuves test apparaissent comme ayant moins de lien de causalité. A l'inverse, l'adaptation avec des événements non-causals a eu peu d'effet. Cela indique que certains jugements de causalité seraient déterminés par le système visuel et ne feraient pas appel à des mécanismes cognitifs complexes. De plus, le test bouge quand les yeux bougent, exactement comme pour la tâche verte qui apparaît suite à l'exposition à une tâche rouge. Seul le processus visuel et non un mécanisme cognitif peut expliquer cette spécificité. "Il reste à distinguer les types de jugements qui demandent un processus cognitif particulier de ceux qui ne font appel qu'au système visuel" précise Martin Rolfs, professeur à l'Université Humboldt de Berlin.

Auteur: Dambacher Michael

Info: Visual Adaptation of the Perception of Causality, current Biology, 10 January 2013. Ecrit avec Martin Rolfs et Patrick Cavanagh

[ réflexion ] [ penser ] [ sciences ]

 

Commentaires: 0

self-contrôle

La défusion cognitive est le procédé permettant à l'individu de prendre de la distance avec le contenu littéral de ses pensées pour les envisager comme des phénomènes psychologiques différents des expériences réelles.

La défusion permet une prise de recul face aux phénomènes internes tels que les justifications, les jugements, les conceptions de soi... Elle va permettre de modifier la relation que l'individu entretient avec ses pensées.

Un exercice typique consiste à proposer de répéter le contenu d'une pensée à toute vitesse afin de focaliser l'attention de l'individu sur les caractéristiques sonores des mots et d'amoindrir les associations à une signification particulière. Métaphores, paradoxes et autres exercices expérientiels pourront être proposé. Cette partie est particulièrement propice à la créativité pour autant que l'exercice proposé aide l'individu à se distancer des productions cognitives.

La métaphore des représentants de commerce est une manière intéressante d'introduire et amorcer le travail de défusion. Dans cet exercice vous allez demandez au patient d'entrevoir son cerveau comme une agence commerciale qui lui envoie régulièrement des représentants "les pensées" qui cherchent à lui vendre (lui faire adhérer/croire à) un lot de pensées diverses et variées. Et dans ce cadre, ce ne sont pas toujours les meilleurs lots qui bénéficient des meilleurs vendeurs. Les plus désavantageux nécessitent les plus talentueux pour user de multiples stratégies pour vous faire accepter cet article de mauvaise qualité.

Lorsqu'un vendeur de la sorte se présente chez vous, achetez-vous tous ses produits ? Prenez-vous chacune de ses paroles comme un texte de loi ? N'iriez-vous pas vérifier ?

C'est précisément ce type de démarche que je vous propose de faire lorsque l'"agence commerciale" de votre esprit vous enverra ses sbires aux crocs acérés.

Plusieurs outils de défusion peuvent alors être proposés. Un best-seller dans le domaine est celui qui invite le patient à le redire en chantant, avec un accent étranger ou sous forme de question. Voici une manière de le présenter au patient : "Personnellement lorsque le matin au réveil de ma journée administrative, je me réveille en m'assénant des coups de "cela va être une journée pourrie, des papiers à remplir, des files à faire...", alors je m'amuse à redire les même paroles avec un accent étranger. Cela ne m'enlève pas l'idée que cette journée va être pénible mais ça me permets de me rappeler que cette pensée n'est qu'une parmi de nombreuses autres. Je lui redonne sa vraie place, celle de pensée.

Cet exercice possède des variantes à l'infini tant au niveau de la voix, du graphisme, des couleurs et autres éléments intervenant dans la pensée.

Au final le travail sur la défusion peut s'avérer ludique et parfois également très délicat dans la présentation et l'adhésion. Dans ce cas, rien ne sert de forcer, il est plus opportun, en tant que thérapeute de favoriser l'expérience directe plutôt que de nombreuses explications.

Auteur: Internet

Info: http://act-therapie.com/hexaflex-la-fusion-cognitive-vs-la-defusion-cognitive/

[ maitrise ] [ introspection ] [ distanciation ] [ gamberge ]

 

Commentaires: 0

gouvernement

Dans une perspective libérale, la liberté devient un objet très différent de la liberté classique. Tout d’abord, elle ne peut pas avoir pour fondement des enracinements politiques particuliers, puisque ceux-ci sont niés. Ceux qui font remonter le libéralisme moderne à l’idéal grec commettent donc un contre-sens majeur. La liberté moderne devient au contraire quelque chose d’essentiellement juridique, à savoir des "droits" supposés valoir indépendamment de toute appartenance, c’est-à-dire de manière universelle. D’où la thématique des "droits de l’homme", dont chacun serait titulaire sans considération pour son origine ou son lieu dans le monde social. [...]

L’universalité proclamée des droits et leur naturelle essentiellement juridique signifie que les libertés qui en découlent sont abstraites, là où les libertés classiques étaient toujours concrètes. Par exemple, on peut proclamer que tout homme a droit à la vie, ou au bonheur, ou au respect de ses croyances, sans que cela ne change absolument rien de la vie pratique des titulaires de ces droits. La proclamation des droits s’apparente à un pur acte de langage qui n’a aucune raison de s’incarner dans une réalité vivante. [...]

Le caractère abstrait de la liberté des libéraux a deux autres conséquences. Premièrement, là où les libertés classiques étaient incréées, produits historiques de la vie en communauté, les libertés universelles doivent être déclarées. [...] Ce caractère déclaratif des droits est hautement problématique du point de vue des libertés concrètes : si les libertés apparaissent d’un trait de plume via une déclaration, au nom de quoi ne disparaîtraient-elles pas également d’un autre trait de plume ? [...]

Deuxièmement, l’abstraction des droits proclamés universels, coupés de tout contexte socio-historique, peut être source d’un conflit des droits. Là où les libertés classiques étaient la propriété de corps politiques clairement définis, des droits abstraits peuvent désormais être revendiqués par n’importe quel groupe, et il n’y a absolument aucune raison pour que ces droits soient compatibles les uns avec les autres. [...] Dans d’autres cas, la proclamation d’un droit reste tellement abstraite qu’elle nécessite en permanence des interprétations particulières, fondées sur des cas concrets, de sorte que l’universalité proclamée ex ante devient impraticable ex post. [...]

L’abandon d’une conception relationnelle de la liberté pour une conception individualiste a une dernière conséquence : les droits sont proclamés comme une propriété inaliénable des individus, et sont donc sans contreparties, assortis d’aucun devoir. [...] Enfin, nul concept de bien commun permet de penser des limites à la liberté de l’individu, dès lors qu’ont été créées les conditions institutionnelles minimales qui permettent à chacun de rechercher son meilleur avantage personnel.

Cette relative absence de devoirs comme contrepartie aux droits peut laisser croire que la liberté des libéraux est beaucoup plus étendue que la liberté classique. C’est néanmoins là un leurre, ainsi que nous allons le montrer. Cette illusion moderne d’une liberté presque infinie tient précisément à la nature abstraite des libertés proclamées. Dans l’abstrait, il est aisé de proclamer une très grande liberté. Mais la pensée libérale abstraite s’accompagne d’un impensé considérable, à savoir les conditions pratiques dans lesquelles cette liberté peut être mise en œuvre. Or, plus les libertés proclamées sont larges, plus elles nécessitent pour trouver une traduction concrète un appareillage juridique, des contrôles formels, et une superstructure procédurière de surveillance.

Auteur: Travers Guillaume

Info: Dans "La société de surveillance, stade ultime du libéralisme", La nouvelle librairie, Paris, 2021, pages 41 à 47

[ anciens-modernes ] [ hors sol ]

 
Commentaires: 3
Ajouté à la BD par Coli Masson

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

coûts cachés

Depuis trente ans, l’industrie électronique pille notre eau, qu’il neige, qu’il pleuve ou qu’on crève de chaud. En 2019, le site crollois de STMicroelectronics en a englouti 3,5 millions de mètres cubes. Depuis, il a agrandi sa ligne de production et lancé la nouvelle extension qui lui vaut cet été la visite de Macron. En ajoutant les voisins de Soitec et de Memscap, la "Silicon Valley française" exige 6 millions de mètres cubes d’eau par an, contraignant les collectivités à multiplier les infrastructures. Le pillage va s’accroître, puisque Macron annonce qu’on va produire "quatre fois plus" d’ici 2030. Le schéma d’aménagement et de gestion des eaux (Sage) adopté en 2018 annonce à cette échéance une hausse de 30 à 44 % des prélèvements destinés à Bernin et Crolles.

Ça ne suffit toujours pas. La "transition numérique et écologique" réclame son volume d’eau. Le 25 novembre 2021, la société a donc déposé une demande en préfecture pour créer deux forages dans la nappe de l’Isère cette fois, à l’aplomb de son site de Crolles, pour "sécuriser ses ressources en eau ; (…) maintenir le bon fonctionnement de ses ateliers de fabrication, et (…) poursuivre le développement de son activité́ au sein de son établissement de Crolles". La demande mentionne des besoins particuliers "lors des épisodes estivaux qui nécessitent la mise en service d’installations de réfrigération des ateliers très consommatrices d’eau".

Autorisation accordée sans difficulté par la Direction régionale de l’environnement, de l’aménagement et du logement (Dreal) le 19 mars 2022. Tandis que les fontaines publiques n’abreuvent plus personne, STMicroelectronics fore à plus de 20 mètres de profondeur pour pomper, "dans les eaux souterraines, y compris dans les nappes d’accompagnement de cours d’eau", 2,6 millions de mètres cubes d’eau supplémentaires par an, soit 300 m3 par heure.

Vingt ans et des canicules plus tard, Jean-François Clappaz, le vice-président à l’économie de la communauté de communes du Grésivaudan adresse cette demande inouïe à Macron : frapper le site de micro-électronique d’extra-territorialité pour l’exonérer de la règle du "zéro artificialisation nette" prévue dans la loi sur le climat. Objectif de cet élu incivique :

Faire en sorte qu’il (NdA : le site) ne soit pas impacté dans son évolution future par les mètres carrés indispensables à l’extension du site (sic) (…) Un investissement de 5,7 milliards d’euros nécessite que la loi s’adapte aux contraintes que l’on aura. Sinon, il ne pourra pas se réaliser, que ce soit pour ST et le ruisseau du Craponoz à côté, ou Soitec.

Le techno-gratin trahit en toute désinvolture ses habitudes d’arrangements administrativopolitiques. Il nous revient ce rapport de visite de la Drire, (Direction régionale de l'industrie, de la recherche et de l'environnement) en mars 2003, à propos des fumées polluantes de l’usine de Crolles :

La société STMicroelectronics (…) souhaite que les normes fixées en NOx par l'arrêté préfectoral du 08.10.01 soient revues compte tenu des difficultés à respecter la norme fixée (100 mg/Nm3)." Et donc, "les valeurs limite d'émission en NOx peuvent être fixées à 120 mg/Nm(gaz naturel) et 200 mg/Nm3 (FOD)."

[...]

Macron, Breton, les technocrates européens et français, imposent l’accélération à marche forcée de la production/destruction. En 2030, l’Europe produira peut-être deux fois plus de semiconducteurs. STMicroelectronics fournira toujours plus de puces aux Smartiens incapables de survivre sans connexion. En 2030, selon la géographe Magali Reghezza-Zitt, membre du Haut conseil pour le climat, Grenoble subira 37 jours de canicule. A cette échéance, le schéma d’aménagement et de gestion des eaux prévoit la fonte de la moitié des petits et des moyens glaciers qui alimentent la Romanche, le Drac et leurs nappes alluviales [...].

Comme dit Martial Saddier, le président haut-savoyard du comité de bassin RhôneMéditerranée (tout le bassin étant alimenté par les glaciers) : "aujourd’hui, on mange le capital". Qu’importe. En 2030, STMicroelectronics fera comme son concurrent taïwanais TSMC, qui engloutit 156 000 tonnes d’eau par jour : se faisant livrer par camions citernes lors des périodes de sécheresse.

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/stmicro_les_incendiaires_et_les_voleurs_d_eau.pdf

[ greenwashing ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

origine de la vie

Pouvons-nous créer les molécules de la vie ? 

Des chercheurs de l’Université de Floride exploitent toute la puissance du supercalculateur HiPerGator pour montrer que des molécules peuvent se former naturellement dans le bon environnement.

Les manuels de biologie de base vous diront que toute vie sur Terre est constituée de quatre types de molécules : les protéines, les glucides, les lipides et les acides nucléiques. Et chaque groupe est vital pour tout organisme vivant.  

Mais quoi si les humains pouvaient réellement montrer que ces " molécules de la vie ", telles que les acides aminés et les bases de l’ADN, peuvent se former naturellement dans le bon environnement ?  Des chercheurs de l’Université de Floride utilisent HiPerGator – le superordinateur le plus rapide de l’enseignement supérieur américain – pour tester cette expérience.

HiPerGator – avec ses modèles d’IA et sa vaste capacité d’unités de traitement graphique, ou GPU (processeurs spécialisés conçus pour accélérer les rendus graphiques) – transforme le jeu de la recherche moléculaire. Jusqu'à il y a dix ans, mener des recherches sur l'évolution et les interactions de vastes collections d'atomes et de molécules ne pouvait se faire qu'à l'aide de simples expériences de simulation informatique ; la puissance de calcul nécessaire pour gérer les ensembles de données n’était tout simplement pas disponible.

C'est maintenant le cas, grâce à HiPerGator. À l'aide de ce supercalculateur, UF Ph.D. L'étudiant Jinze Xue (du Roitberg Computational Chemistry Group) a pu mener une expérience à grande échelle sur la chimie de la Terre pendant les vacances d'hiver 2023. Xue a utilisé plus de 1 000 GPU A100 sur HiPerGator et a réalisé une expérience de dynamique moléculaire sur 22 millions d'atomes qui a identifié 12 acides aminés, trois bases nucléiques, un acide gras et deux dipeptides. La découverte de molécules plus grosses,  qui n’aurait pas été possible dans des systèmes informatiques plus petits, a constitué une réussite importante.

" Nos précédents succès nous ont permis d'utiliser l'apprentissage automatique et l'IA pour calculer les énergies et les forces sur les systèmes moléculaires, avec des résultats identiques à ceux de la chimie quantique de haut niveau mais environ 1 million de fois plus rapides ", a déclaré Adrian Roitberg, Ph.D. , professeur au département de chimie de l'UF qui utilise l'apprentissage automatique pour étudier les réactions chimiques depuis six ans. " Ces questions ont déjà été posées mais, en raison de limitations informatiques, les calculs précédents utilisaient un petit nombre d’atomes et ne pouvaient pas explorer la plage de temps nécessaire pour obtenir des résultats. Mais avec HiPerGator, nous pouvons le faire. "

Erik Deumens, Ph.D., directeur principal d'UFIT Research Computing, a expliqué comment l'utilisation complète d'HiPerGator a été possible.

" HiPerGator a la capacité unique d'exécuter de très grands calculs (‘hero) qui utilisent la machine entière, avec le potentiel de conduire à des percées scientifiques et scientifiques ", a déclaré Deumens. " Lorsque nous avons découvert le travail effectué par le groupe du Dr Roitberg, , nous l'avons approché pour essayer un run 'héros' avec le code qu'il a développé. "

L’émergence de l’IA et des GPU puissants pourra permettre de réaliser de telles simulations scientifiques gourmandes en données – des calculs que les scientifiques ne pouvaient imaginer il y a seulement quelques années. 

"En utilisant des méthodes d'apprentissage automatique, nous avons créé une simulation en utilisant l'ensemble complet de GPU HiPerGator", a déclaré Roitberg. " Nous avons pu observer en temps réel la formation de presque tous les acides aminés (alanine, glycine, etc.) et de nombreuses molécules très complexes. C’était très excitant à vivre.

Ce projet fait partie d'un effort continu visant à découvrir comment des molécules complexes peuvent se former à partir d'éléments de base et à rendre le processus automatique grâce à de grandes simulations informatiques. Roitberg et son groupe de recherche ont passé de nombreuses heures à travailler avec les membres de l'UFIT. Ying Zhang, responsable du support IA d'UFIT, a dirigé l'expérience. 

" Ying a constitué une équipe composée du personnel de Research Computing et du personnel de NVIDIA pour aider à faire évoluer les calculs, fournir des conseils et une aide inestimables et accélérer l'analyse des données au point où les analyses ont été effectuées en seulement sept heures (au lieu des  heures  jours que nous pensions initialement que cela prendrait) ", a déclaré Roitberg. " Nous nous sommes rencontrés chaque semaine, de la conception initiale aux résultats finaux, dans le cadre d’une collaboration très fructueuse. "

Les résultats, et le peu de temps avec lequel HiPerGator a pu les fournir, ont été révolutionnaires, rapprochant les chercheurs de la réponse aux questions sur la formation des molécules complexes. Et le fait que Roitberg ait pu exécuter ce calcul montre que l'UF a la capacité de prendre en charge des " exécutions de héro " ou des " moonshot calculations " qui font avancer les projets scientifiques, d'ingénierie et universitaires.

"C'est une excellente opportunité pour les professeurs de l'UF", a déclaré Roitberg. " Avoir HiPerGator en interne – avec un personnel incroyable prêt à aller au-delà des attentes pour aider les chercheurs à produire une science révolutionnaire comme celle-ci – est quelque chose qui rend mes collègues non-UF très jaloux. "

Auteur: Internet

Info: https://news.ufl.edu/2024/02/molecules-of-life/ *Les travaux de calcul informatique qui nécessitent plus de 256 nœuds sont définis comme travaux de "héro". ** Moonshot projects : projet ambitieux, exploratoire et novateur, entrepris sans garantie de rentabilité ou d'avantages à court terme et, peut-être, sans une étude complète des risques et des avantages potentiels.

 

Commentaires: 0

Ajouté à la BD par miguel

polémique évolutionniste

L'épigénétique, qui existe depuis 50 ans, n'est pas un nouvel acteur majeur de l'évolution. Dans la mesure où son importance avérée est d'ordre génétique. L'évolution culturelle et comportementale est un phénomène réel, mais ce n'est pas une évolution biologique.

Synthèse moderne

La variation génétique est aléatoire. Les mutations qui se produisent n'améliorent pas nécessairement la condition physique. Si les mutations donnent lieu à des caractéristiques qui améliorent la capacité des organismes à survivre et à prospérer, il s'agit d'un simple hasard.

Synthèse évolutionniste élargie (Laland)

La variation phénotypique n'est pas aléatoire. Les individus se développent en réponse aux conditions locales, de sorte que les nouvelles caractéristiques qu'ils possèdent sont souvent bien adaptées à leur environnement.

Presque toute l'évolution est finalement due à une mutation d'une sorte ou d'une autre. Nombreux sont ceux qui pensent que le hasard des mutations est le thème dominant de l'évolution. L'affirmation concernant la synthèse moderne est parfaitement correcte, en première approximation. (On peut ergoter sur les détails.)

L'idée que les phénotypes changent en fonction des conditions locales - par exemple, l'opéron lac s'exprime en présence de lactose - n'est guère révolutionnaire et n'exige pas de changement dans notre compréhension de la théorie moderne de l'évolution.

Synthèse moderne

L'évolution se produit généralement par le biais de multiples petites étapes, conduisant à un changement graduel. C'est parce qu'elle repose sur des changements progressifs provoqués par des mutations aléatoires.

Synthèse évolutive élargie (Laland)

L'évolution peut être rapide. Les processus de développement permettent aux individus de répondre aux défis environnementaux ou aux mutations par des changements coordonnés dans des ensembles de traits.

Est-il possible que Kevin Laland ignore totalement le débat sur le gradualisme, l'hybridation, la symbiose, le transfert horizontal de gènes, les mutations homéotiques, la saltation et les macromutations ? Est-il possible qu'il n'ait jamais pensé aux équilibres ponctués et à la théorie hiérarchique ?

Il est vrai que les vues démodées d'Ernst Mayr et compagnie ("Synthèse moderne") rejetaient toutes ces idées, mais l'évolution a évolué depuis les années 1950. Elle ne se limite plus à de petites étapes graduelles.

Les "révolutionnaires" pensent que les mutations peuvent être dirigées dans un but ultime. L'idée de base d'une augmentation des taux de mutation dans certaines conditions est débattue activement depuis très longtemps (avant 1996). On ne pense pas qu'il s'agisse d'une caractéristique majeure de l'évolution, sauf dans le sens d'une augmentation du taux de mutations "aléatoires".

Synthèse moderne

La perspective est centrée sur les gènes : l'évolution nécessite des changements dans la fréquence des gènes par le biais de la sélection naturelle, de la mutation, de la migration et de la perte aléatoire de variantes génétiques.

Synthèse évolutionniste élargie

La perspective est centrée sur l'organisme, avec des conceptions plus larges des processus évolutifs. Les individus s'adaptent à leur environnement au fur et à mesure qu'ils se développent et modifient les pressions de sélection.

Cette description de la synthèse moderne est la seule fois où j'ai vu Kevin Laland mentionner quelque chose qui ressemble à la dérive génétique aléatoire. Cela ne fait manifestement pas partie de sa vision normale du monde.

Je reconnais que la théorie moderne de l'évolution est "centrée sur les gènes" à cet égard. C'est parce que nous DÉFINISSONS l'évolution comme un changement dans la fréquence des allèles au sein d'une population. Je ne sais pas ce que cela signifie de passer à un point de vue "centré sur l'organisme" comme le décrit Laland. Il est certainement vrai que les cyanobactéries individuelles s'adaptent à leur environnement au fur et à mesure qu'elles grandissent et se développent, et il est certainement vrai qu'elles peuvent modifier l'environnement. Dans le cas présent, elles ont provoqué une augmentation des niveaux d'oxygène qui a affecté toutes les espèces vivantes.

Les cyanobactéries ont évolué pour s'adapter à leur environnement par le biais de mutations aléatoires et de changements dans la fréquence des allèles au sein de la population, en partie sous l'effet de la sélection. Beaucoup d'entre elles se sont éteintes. En quoi est-ce un changement dans notre vision de l'évolution ?

Synthèse moderne

Les processus micro-évolutifs expliquent les schémas macro-évolutifs. Les forces qui façonnent les individus et les populations expliquent également les changements évolutifs majeurs au niveau des espèces et au-delà.

Synthèse évolutionniste élargie

D'autres phénomènes expliquent les changements macro-évolutifs en augmentant l'évolutivité, c'est-à-dire la capacité à générer une diversité adaptative. Il s'agit notamment de la plasticité du développement et de la construction de niches.

L'un des principes de base de la synthèse moderne était que la macroévolution peut être expliquée efficacement comme étant simplement une multitude de microévolutions cumulatives. Les manuels modernes de biologie évolutive abordent d'autres caractéristiques de la macroévolution qui nécessitent un apport supplémentaire, notamment en ce qui concerne la spéciation. La vieille idée selon laquelle la microévolution suffit à expliquer la macroévolution n'est plus un axiome en biologie évolutive, et ce depuis plusieurs décennies [voir Macroévolution].

Les manuels modernes traitent de toutes sortes de choses qui influencent l'histoire à long terme de la vie (= macroévolution). Des éléments tels que les extinctions massives, la stase, la spéciation allopatrique, les contraintes, etc. L'évolutivité a été activement débattue pendant un demi-siècle et elle est bien couverte dans la plupart des manuels. (Voir Futuyma, 2e édition, p. 599). L'évolutivité n'est pas une idée nouvelle qui va révolutionner la théorie de l'évolution. En fait, le consensus, après de nombreux débats et discussions, est que l'évolutivité échoue sur les bancs de la téléologie. La théorie ne résiste tout simplement pas à un examen approfondi.

La sélection organisationnelle pour des caractéristiques qui confèrent un succès reproductif différentiel dans le moment écologique ne peut tout simplement pas générer, de manière active ou directe, un ensemble de caractéristiques qui n'acquièrent une importance évolutive qu'en conférant une flexibilité pour des changements dans un avenir lointain. Nous ne pouvons pas nier que ces caractéristiques d'évolutivité "comptent" profondément dans l'histoire des lignées ; mais comment des avantages pour l'avenir peuvent-ils découler d'un processus causal ici et maintenant ? (Gould, 2002 p. 1274)

Il est malhonnête de laisser entendre, dans un article destiné au lecteur moyen, qu'un sujet comme l'évolutivité est récent et n'a pas été examiné en profondeur, et rejeté, dans la littérature théorique sur l'évolution. Il en va de même pour les concepts de plasticité et de construction de niche. Ce ne sont pas des concepts nouveaux. Les experts compétents en matière d'évolution - ceux qui ont lu et écrit les manuels - ont examiné ces idées et les ont rejetées en tant que facteurs majeurs de la théorie de l'évolution.

Kevin Laland peut ne pas être d'accord avec ces analyses, mais en tant que scientifique, il a l'obligation de les mentionner au moins lorsqu'il écrit des articles promouvant un changement radical de la théorie de l'évolution. Il a la responsabilité de déclarer sa partialité.

Mais je fais une supposition qui n'est peut-être pas justifiée. Peut-être ne sait-il pas que ses opinions ont déjà été débattues, discutées et, pour la plupart, rejetées. Dans ce cas, son omission n'est pas due au fait qu'il induit délibérément ses lecteurs en erreur au sujet de la controverse. Il y a une autre raison.

1. L'accent mis sur les changements héréditaires (allèles) fait partie de la définition minimale actuelle de l'évolution. Elle est très différente de la perspective du "gène égoïste" défendue par Richard Dawkins. Ceux qui ne voient pas la différence ne sont tout simplement pas attentifs.

2. Je me demande comment "l'évolution culturelle" fonctionne chez les cyanobactéries et les érables ? Les principaux participants à la réunion de la Royal Society ont un penchant extrême pour l'évolution des organismes multicellulaires complexes - essentiellement des animaux et surtout des mammifères. Cela influence grandement leur point de vue sur l'évolution. Ils ont tendance à utiliser des exemples qui ne s'appliquent qu'à l'espèce qui les intéresse comme des leviers pour faire basculer l'ensemble de la théorie de l'évolution.

King, J. L., et Jukes, T. H. (1969) Non-darwinian evolution. Science, 164:788-798. PDF (en anglais)

Auteur: Moran Laurence A.

Info: A propos de la nouvelle vision de l'évolution de Kevin Laland, 4 décembre 2016

[ tâtonnements ] [ biogénétique ] [ auto-domestication ]

 

Commentaires: 0

Ajouté à la BD par miguel