Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.0469s

femmes-hommes

À la différence de la féminité, la masculinité détendue est un sac vide, une nullité molle. Alors que le corps femelle est plein de potentialité interne, le mâle est intérieurement stérile... La virilité au niveau le plus fondamental ne peut être validée et exprimée que par l'action.

Auteur: Gilder George

Info:

[ chair-esprit ]

 

Commentaires: 0

savoir humain

Il y a quelque chose de sain à ne considérer la science dans son ensemble que comme un échafaudage soutenant nos pensées plutôt qu'une vérité.

La science fondamentale, pourrait-on dire, est un échafaudage qui tente, génération après génération, de se rapprocher autant que possible de la réalité dans laquelle nous vivons et dont les prédictions doivent toujours être validées par l"entremise d'expériences, sous peine d'être rejetées.

Auteur: Galfard Christophe

Info: L'Univers à portée de main

[ modélisation temporaire ] [ cartographie passagère ] [ provisoire représentation ]

 

Commentaires: 0

Ajouté à la BD par miguel

racisme

Voss regardait son café d'un air amer et triste. "Doktor Aue. Je vous ai toujours pris pour un homme intelligent et sensé. Même si tout ce que vous me dites est vrai, expliquez-moi, s'il vous plait, ce que vous entendez par race. Parce que pour moi, c'est un concept scientifiquement indéfinissable et donc sans valeur théorique." [...] "Cette philosophie de vétérinaires, comme disait Herder, a volé tous ses concepts à la linguistique, la seule des sciences de l'homme jusqu'à ce jour qui ait une base théorique scientifiquement validée. Comprenez-vous."

Auteur: Littell Jonathan

Info: Les Bienveillantes, p. 280-281

 

Commentaires: 0

vacherie

J'aime le vin et si j'avais pu boire une seule fois dans ma vie un bon flacon conçu selon les principes de l'agriculture biodynamique, je ne me serais pas interdit la philosophie de Rudolf Steiner, car sa pensée aurait été validée par ses produits. Hélas, je n'ai jamais bu de vin issu de la biodynamie qui ne soit une exécrable piquette.

[...]

La biodynamie est une pensée magique qui, comme toute pensée magique, dont la psychanalyse, produit des effets chez ceux qui y croient. Ce vin imbuvable par un amateur de vin devient le nectar le plus fameux pour un palais qui a renoncé à ses papilles au profit du catéchisme formulé en 1924 par l'ésotériste Rudolf Steiner dans un ouvrage intitulé "Agriculture. Fondements spirituels de la méthode biodynamique". Le vin biodynamique est un genre de vin de messe : il ne donne d'extase qu'aux croyants.

Auteur: Onfray Michel

Info: Cosmos, pp 243 et 245

[ alcool ] [ dogme performatif ]

 
Commentaires: 5
Ajouté à la BD par miguel

vie extrasolaire

Des scientifiques pensent avoir découvert une molécule vivante sur une autre planète que la Terre

Le sulfure de diméthyle, qui n'est produit que par la vie sur Terre, aurait été identifiée par la Nasa sur une autre planète. Ils doivent cependant encore confirmer cette présence.

Une molécule qui, sur Terre, n'est produite que par des êtres vivants, pourrait avoir été détectée sur l’exoplanète K2-18 b, a annoncé la Nasa dans un communiqué publié lundi 11 septembre. Située dans la constellation du Lion, à 124 années-lumière de la Terre, K2-18 b se trouve dans la zone habitable de son étoile. Elle est environ huit fois plus large que notre planète.

Comme le rapporte The Independent, c’est James Webb, le télescope spatial de l’agence américaine, qui est à l’origine de cette découverte. Et elle pourrait constituer une avancée majeure dans la recherche de la vie sur d'autres planètes.

La molécule en question est appelée sulfure de diméthyle (ou DMS), un composé léger contenant du soufre, selon les chercheurs. Sur Terre, il n'est produit que par des organismes vivants, la majeure partie provenant du phytoplancton dans les environnements marins.

Les scientifiques ne sont pas encore totalement sûrs de cette trouvaille, la présence en quantités significatives d’une telle molécule sur K2-18 b devant encore être officiellement validée par d’autres recherches.

Une exoplanète Hycean

Il a également été confirmé que la planète contient des molécules carbonées, notamment du méthane et du dioxyde de carbone. Cette découverte suggère que K2-18 b pourrait être ce que les chercheurs appellent une exoplanète Hycean : une exoplanète dont l'atmosphère est riche en hydrogène et dont la surface est recouverte d'eau.

"L’abondance du méthane et du dioxyde de carbone, ainsi que l’absence d’ammoniac, soutiennent l’hypothèse de l’existence d’un océan d’eau sous une atmosphère riche en hydrogène dans K2-18 b", a confirmé la Nasa. Or, de tels facteurs sont considérés comme propices à l'apparition d'une éventuelle vie extraterrestre.

"Nos résultats soulignent l'importance de prendre en compte divers environnements habitables dans la recherche de la vie ailleurs", a expliqué Nikku Madhusudhan, astronome à l'université de Cambridge, dans le communiqué.

"Traditionnellement, la recherche de la vie sur les exoplanètes se concentre principalement sur les petites planètes rocheuses, mais les mondes Hycéan plus grands sont beaucoup plus propices à l'observation de l’atmosphère", a-t-il ajouté.

D'autres recherches sont encore indispensables

Il est néanmoins nécessaire de poursuivre les recherches, a rappelé la Nasa, avant de pouvoir affirmer que l’exoplanète K2-18 b abrite réellement la vie. "Ces résultats sont le fruit de seulement deux observations de K2-18 b, et de nombreuses autres sont en cours", a assuré Savvas Constantinou, membre de l'équipe de l'université de Cambridge.

"Notre objectif ultime est d'identifier la vie sur une exoplanète habitable, ce qui transformerait notre compréhension de notre place dans l'Univers", a conclu Nikku Madhusudhan. "Nos résultats constituent une étape prometteuse vers une compréhension plus approfondie des mondes hycéens dans le cadre de cette quête".

Auteur: Internet

Info: https://www.geo.fr, Joséphine de Rubercy, 13/09/2023

[ . ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

décès

Mourir n'est plus ce qu'il était !
Intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du CHUM, le Dr Pierre Aslanian considère son travail comme très valorisant, car il contribue à l'effort collectif de sauver des vies.
"Dans les années 50, l'arrêt définitif du coeur constituait le seul critère de la mort. Ce n'est plus le cas aujourd'hui", déclare le Dr Pierre Aslanian, intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du Centre hospitalier de l'Université de Montréal (CHUM). "Depuis l'introduction du concept de mort cérébrale, soit l'arrêt complet et définitif de toute activité du cerveau, par un comité de la Harvard Medical School en 1968, c'est l'état du cerveau qui fait pencher la balance."
La peau du patient est rosée et chaude, son coeur bat, même son thorax se soulève à un rythme régulier, puisque sa respiration est maintenue artificiellement par un appareil et, pourtant, le patient est bel et bien mort. Pour confirmer la mort cérébrale, deux médecins indépendants de l'équipe de prélèvement et de transplantation ont reproduit divers tests cliniques selon un protocole bien défini. "D'abord, il faut connaître l'étiologie du dommage au cerveau, indique Pierre Aslanian. Sans la cause, on ne peut pas conclure à une mort cérébrale. Il faut aussi s'assurer qu'il n'y a aucun facteur confondant comme des sédatifs en circulation dans le sang au moment où l'on effectue les tests."
Concrètement, pour évaluer l'état et l'évolution d'un patient, les médecins disposent d'échelles internationales standardisées, comme l'échelle de coma Glasgow et le protocole de diagnostic du décès neurologique (DDN) de Transplant Québec, grâce auxquelles on peut mesurer notamment la réponse motrice à la douleur et les réflexes du tronc cérébral, la partie inférieure du cerveau responsable de la conscience. L'absence de réflexe respiratoire est validée par un test d'apnée. En cas de doute ou s'il y a présence de facteurs confondants, le DDN doit être établi par un examen complémentaire, par exemple une angiographie cérébrale qui permet d'objectiver l'arrêt de la circulation sanguine encéphalique. Le diagnostic est sans équivoque. L'absence de circulation intracrânienne entraîne une destruction totale et irréversible du cerveau.
"La souffrance d'une famille ébranlée par la mort brutale d'un proche l'empêche souvent de comprendre ce qui se passe exactement, souligne le Dr Aslanian. Les médecins doivent bien expliquer que les organes sont maintenus en fonction de manière artificielle, mais que le patient ne peut pas se réveiller d'un décès neurologique. Son cerveau est mort !"
Toutes les semaines, l'intensiviste, qui possède 20 ans de pratique à l'unité des soins intensifs du centre hospitalier, est confronté à cette dure réalité. Cela est d'autant plus difficile que parfois le patient en état de mort cérébrale peut avoir des réflexes spinaux, mentionne le Dr Aslanian. "On le pince et il y a un mouvement, mais celui-ci n'est pas provoqué par le cerveau. Ce sont les nerfs périphériques reliés à la moelle épinière qui en sont responsables." Le professeur de clinique de la Faculté de médecine de l'Université de Montréal donne régulièrement à l'intention des infirmières et résidents en médecine du CHUM des ateliers sur ce qu'est la mort cérébrale. "Pour offrir l'option du don d'organes aux familles, il faut d'abord savoir reconnaître les donneurs potentiels, signale-t-il. Malheureusement, encore de nos jours, environ 20 % des donneurs potentiels ne le sont pas dans les hôpitaux du Québec."
L'histoire de la mort
Longtemps on a déterminé la mort d'une personne par un acte rudimentaire. Le croquemort se contentait de mordre le gros orteil du défunt pour vérifier qu'il avait réellement trépassé. L'absence de réaction de sa part confirmait définitivement son état. Jusqu'aux années 50, les médecins tâtaient le pouls et cherchaient à voir si de la condensation se formait sur un miroir placé près de la bouche et du nez. La présence ou l'absence de battements du coeur décidait du classement définitif du patient du côté des morts ou des vivants. Puis, avec la venue de la ventilation mécanique qui maintient artificiellement la respiration, on commence à suspendre l'instant de la mort. En 1968, la mort cardiovasculaire cède la place au concept de mort cérébrale, soit "la perte irrémédiable de toutes les fonctions de l'ensemble du cerveau, du tronc cérébral et des deux hémisphères", comme la définit pour la première fois le comité de l'Université Harvard.
"Le premier article scientifique sur la question présenté à la communauté médicale a été publié dans une revue neurologique française en 1959. Les médecins y décrivaient le dommage cérébral important associé à un coma profond duquel les patients ne se réveillaient pas. C'est de cette publication qu'est né le concept de mort cérébrale que les experts de Harvard ont fait connaître internationalement", raconte le Dr Aslanian en précisant que cette époque correspond aussi aux débuts de la transplantation d'organes.
"La notion du décès neurologique a complètement changé notre rapport à la mort", estime le Dr Aslanian. Bien reçu et adopté par divers organismes à l'échelle de la planète, le DDN a néanmoins été contesté sans succès à plusieurs reprises devant les tribunaux américains. "Une commission présidentielle relative aux problèmes bioéthiques et aux aspects biomédicaux en recherche a voulu en 1981 légiférer pour une définition encore plus claire du DDN", rappelle l'intensiviste. En 1995, l'Académie américaine de neurologie constate pour sa part que beaucoup de médecins retiennent des critères différents et insiste pour standardiser les pratiques.
"Même si l'on reconnaît l'intérêt d'uniformiser les façons de faire, les politiques de déclaration de mort cérébrale varient non seulement d'un pays à l'autre, mais aussi d'un État à l'autre", note Pierre Aslanian. Au Canada, en France, en Angleterre et aux États-Unis, le DDN est fait conformément aux pratiques médicales reconnues. Mais il y a certaines nuances. Ainsi, en France, le recours à l'électroencéphalogramme ou à l'angiographie est obligatoire pour attester le caractère irréversible de l'arrêt des fonctions cérébrales. Chez nous et chez nos voisins du Sud, ces tests auxiliaires sont réalisés seulement en cas de doute ou lorsque l'examen clinique ne peut être effectué.
Et puis, il y a les exceptions comme le Japon, où il se pratique très peu de transplantations à partir de donneurs cadavériques. Car, dans l'empire du Soleil-Levant, un grand malaise persiste quant au concept de mort cérébrale.

Auteur: http://www.techno-science.net/

Info: 19.04.2016

[ vérification ] [ validation ] [ historique ]

 

Commentaires: 0

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

pédagogie

Les parents envoient leurs enfants à l'école avec les meilleurs intentions, pensant que c'est ce dont ils ont besoin pour devenir des adultes productifs et épanouis. Beaucoup doutent du bon fonctionnement des écoles, mais la sagesse conventionnelle veut que ces problèmes peuvent être résolus avec plus d'argent, de meilleurs enseignants, des programmes plus difficiles, et/ou des examen plus rigoureux.
Mais si le problème était l'école en elle-même ? La triste réalité est que l'une de nos institutions préférées est, par sa nature même, ne répond pas aux besoins de nos enfants et de notre société.
L'école est un lieu où les enfants doivent obligatoirement aller, et où leur liberté est fortement restreinte - bien plus restreinte que le toléreraient la plupart des adultes pour leurs lieux de travail. Ces dernières décennies, nous avons forcés nos enfants à rester de plus en plus de temps dans ce genre de cadre, et des preuves solides (résumées dans mon dernier livre) indiquent que c'est souvent la cause de graves dommages psychologiques. Par ailleurs, plus les scientifiques étudient le mode d'apprentissage naturel des enfants, plus nous comprenons que les enfants apprennent profondément et véritablement, et avec plus d'enthousiasme, dans des conditions presque opposées à celles de l'école.
La scolarité obligatoire fait partie intégrante de notre culture depuis plusieurs générations. La plupart des gens auraient du mal à imaginer aujourd'hui comment les enfants apprendraient ce dont ils ont besoin pour réussir dans notre culture sans l'école. Le président Obama et le secrétaire à l'éducation Arne Duncan aiment tellement l'école qu'ils souhaiteraient même allonger les jours et les années scolaires. La plupart des gens pensent que la conception de base des écoles, telle qu'on la connaît aujourd'hui, est validée par des preuves scientifiques qui montreraient que c'est ainsi que les enfants apprennent le mieux. Mais en réalité, rien n'est plus éloigné de la vérité.
Les écoles telles que nous les connaissons aujourd'hui sont le produit de l'histoire, et non pas d'une recherche sur l'apprentissage. La conception actuelle de nos écoles découle de la Réforme protestante, lorsque des écoles ont été créées pour apprendre aux enfants à lire la Bible, à croire l'Ecriture et les figures d'autorité sans les remettre en question. Les premiers fondateurs des écoles l'indiquaient clairement dans leurs écrits. L'idée que les écoles puissent permettre le développement de la pensée critique, de la créativité, de l'initiative personnelle ou de la capacité à apprendre par soi-même - le genre de compétences les plus importantes dans notre économie actuelle - ne leur effleurait même pas l'esprit. Pour eux, encourager les enfants à agir par eux-mêmes était un péché qu'il fallait casser ou réprimer.
Ce n'est pas parce que les écoles ont été reprises par l'Etat, sont devenues obligatoires et à but laïque, que la structure de base et les méthodes d'enseignement ont changé. Les tentatives ultérieures de réformes ont échoué, et même si elles ont joué sur des points mineurs de la structure, elles n'ont pas modifié la conception de base. La méthode hiérarchique, par l'évaluation, qui suppose que l'apprentissage est motivé par un système de récompense et de punitions plutôt que par la curiosité et un vrai désir d'apprendre, sert surtout à l'endoctrinement et l'obéissance et pas à grand-chose d'autre. Il n'est pas étonnant que de nombreux grands entrepreneurs et innovateurs dans le monde ont quitté l'école à un jeune âge (comme Thomas Edison), ou disaient détecter l'école et apprendre de leur côté, et pas grâce à elle (comme Albert Einstein).
Il n'est pas étonnant qu'aujourd'hui même les " meilleurs élèves " (et peut-être surtout eux) disent souvent être " lessivés " par le processus de scolarisation. Un des meilleurs étudiants diplômés, a expliqué à un journaliste pourquoi il remettait à plus tard l'université : " j'étais rongé par le fait de bien réussir et je ne dormais pas beaucoup ces dernières deux années. J'avais cinq ou six heures de devoirs tous les soirs. La dernière chose que je voulais était que ça continue. "
La plupart de élèves - qu'ils aient de bons résultats, des résultats moyens ou qu'ils soient en échec scolaire - ont perdu leur goût de l'apprentissage au moment où ils entrent au collège ou au lycée. Dans une récente étude, Mihaly Czikszentmihalyl et Jeremy Hunter ont placé sur plus de 800 élèves de la sixième jusqu'à la terminale, dans 33 écoles différentes du pays, une montre-bracelet spéciale qui émettait un signal spécial à des moments aléatoires de la journée. A chaque fois que le signal retentissait, ils devaient remplir un questionnaire indiquant où ils étaient, ce qu'ils faisaient et s'ils étaient heureux ou malheureux. Ils étaient de loin le moins heureux quand ils étaient à l'école et ils étaient le plus heureux quand ils étaient hors de l'école, à jouer ou discuter avec des amis. A l'école, ils éprouvaient de l'ennui, de l'anxiété ou les deux. D'autres chercheurs ont montré qu'à chaque nouvelle année, les élèves adoptent des attitudes de plus en plus négatives envers les matières enseignées, en particulier pour les mathématiques et les sciences.
La société en général tend à ignorer ces conclusions. Nous ne sommes pas surpris de voir que l'apprentissage soit désagréable. Nous pensons que c'est une pilule à avaler qui finira par payer sur le long terme. Certaines personnes pensent même que le fait même que l'école soit désagréable est une bonne chose car elle permet aux enfants d'apprendre à tolérer les situations désagréables, car la vie après l'école est désagréable. Peut-être que ce triste point de vue découle de l'école. Bien sûr, il y a des hauts et des bas dans la vie, à l'âge adulte comme dans l'enfance. Mais il y a bien des façons d'apprendre à tolérer les désagréments sans devoir rajouter une scolarité désagréable. La recherche a montré que les personnes de tous âges apprennent mieux quand elles sont motivées, approfondissant des questions qui les concernent réellement, et des objectifs qui sont leurs propres dans la vie. Dans de telles conditions, apprendre est en général amusant.
J'ai passé une grande partie de ma carrière de chercheur à étudier comment les enfants apprennent. Les enfants viennent au monde avec la capacité magnifique de diriger leur propre éducation. La nature leur a donnés de puissants instincts éducatifs, comme la curiosité, le ludisme, la sociabilité, l'attention à ce qu'il se passe autour d'eux, le désir de grandir et de faire ce que les enfants plus âgés et adultes peuvent faire.
La preuve que tout cela s'applique aux petits enfants se trouve sous les yeux de tous ceux qui ont regardé un enfant grandir de la naissance jusqu'à l'âge scolaire. Par leurs propres efforts, les enfants apprennent à marcher, courir, sauter et grimper. Ils apprennent leur langue maternelle à partir de rien, et partant de là, apprennent à affirmer leur volonté, débattent, amusent, ennuient, se font des amis, charment et posent des questions. En interrogeant et en explorant, ils acquièrent énormément de connaissances sur leur environnement matériel et social, et par leur jeu, des compétences pratiques qui favorisent leur développement physique, intellectuel, social et émotionnel. Ils font tout cela avant que quiconque, de quelque manière systématique que ce soit, essaye de leur enseigner quelque chose.
Cette progression et capacité d'apprendre étonnante ne s'arrête pas toute seule quand l'enfant a 5 ou 6 ans. C'est nous qui y mettons un terme avec ce système coercitif qu'est l'école. La plus importante et mémorable leçon de notre système scolaire est que l'apprentissage sous la forme d'un travail doit être évité autant que possible.
Mes recherches portaient sur l'apprentissage chez les enfants qui sont " d'âge scolaire " mais qui ne sont pas envoyés à l'école, ou qui ne sont pas dans une école tel qu'on l'entend habituellement. J'ai examiné comment les enfants apprennent dans les cultures qui n'ont pas d'écoles, surtout les cultures de chasseurs-cueilleurs, les genres de cultures dans lesquelles notre espèce a évolué. J'ai également étudié l'apprentissage dans notre culture, quand on laisse aux enfants le soin de leur propre éducation et qu'on leur donne la possibilité et les moyens de s'instruire eux-mêmes. Dans ces conditions, la curiosité naturelle des enfants et leur goût de l'apprentissage persiste tout au long de l'enfance et de l'adolescence, jusqu'à l'âge adulte.

Auteur: Gray Peter

Info: Internet

[ fermeture ] [ normalisation ] [ pouvoir ] [ judéo christianisme ]

 

Commentaires: 0

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel