Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 5201
Temps de recherche: 0.0363s
chaînon manquant
L'HUMANITÉ AURAIT ELLE ETE PRES DE L'EXTINCTION ?
"1 280 individus seulement : l'humanité a failli disparaître il y a près d'un million d'années
Une étude parue dans Science révèle que population humaine pourrait s'être maintenue à environ 1 300 individus pendant une centaine de milliers d'années. Une "presque extinction" qui pourrait avoir joué un rôle majeur dans l'évolution des hommes modernes et de parents disparus, les Néandertaliens et Dénisoviens.
Il y a près d’un million d’années, un événement dévastateur a presque anéanti nos ancêtres. Les données génomiques de 3 154 humains modernes suggèrent qu'à ce moment, la population aurait été réduite d’environ 100 000 à seulement 1 280 individus reproducteurs — soit un déclin démographique d'ampleur (98,7 %) sur une durée de 117 000 ans, qui aurait pu conduire l’humanité à l’extinction.
Le fait que vous puissiez lire cet article, et que la population mondiale atteigne aujourd'hui les plus de 8 milliards (chiffres de novembre 2022), montre bien que cela n'a pas été le cas. Mais les résultats de cette récente étude, publiée dans la revue Science le 31 août 2023, permettraient d'expliquer l'écart déjà observé entre les archives fossiles humaines d'Afrique et d'Eurasie durant le Pléistocène.
La génétique pour comprendre l'évolution de la lignée humaine
Les datations récentes situent les plus anciens Homo sapiens il y a environ 300 000 ans, en Afrique. Seulement, avec si peu de fossiles datant de cette époque parvenus jusqu'à nous, la manière dont la lignée humaine a évolué avant l'émergence de l'espèce reste plutôt incertaine.
Pour en savoir plus sur cette très secrète période, proche de l’évolution de l’Homme moderne, une équipe a étudié le génome de plus de 3 150 humains actuels. Des individus issus de dix populations africaines et de quarante populations non africaines, plus précisément.
Elle a pour cela développé un nouvel outil analytique, le "processus de coalescence rapide en temps infinitésimal" (FitCoal). Grossièrement, le FitCoal leur a permis, en examinant la diversité des séquences génétiques observées chez les descendants et comment elles ont divergé au fil du temps, de déduire la taille des groupes composant leurs lointains ancêtres.
Leurs résultats ont ainsi révélé un "goulot d'étranglement démographique" important il y a environ 930 000 à 813 000 ans, c'est-à-dire un épisode de réduction sévère de la population — suivi d'une nouvelle expansion démographique, d'où les termes de "goulot d'étranglement".
Un risque élevé d'extinction lié aux changements climatiques ?
Dans l'étude de l'évolution d'une espèce, les goulots d'étranglement démographiques liés à une guerre, une famine ou encore une crise climatique, ne sont pas rares. La baisse de la diversité génétique qui en résulte peut même être retracée jusqu’à la descendance des survivants.
C’est ainsi que les scientifiques ont pu en déduire qu'un tel phénomène s'est produit plus récemment, il y a environ 7 000 ans, dans la population humaine de l’hémisphère nord.
Toutefois, le cas du goulot d'étranglement bien plus ancien semble avoir été d'une gravité particulièrement exceptionnelle, puisque le groupe a alors perdu 65,85 % de sa diversité génétique et environ 98,7 % de sa population reproductrice, selon les données. Pendant plus ou moins 117 000 ans, cette dernière aurait été limitée à environ 1 280 individus.
Nos ancêtres ont connu un goulot d'étranglement démographique si grave pendant très longtemps qu'ils ont été confrontés à un risque élevé d'extinction. — Wangjie Hu, coauteur principal de l'étude de l'École de médecine du Mont Sinaï à New York (États-Unis) interrogé par LiveScience.
S'il est aujourd'hui difficile d'établir avec certitude les différents facteurs qui ont mené à ce goulot d'étranglement, un événement majeur semble coïncider dans les datations : la transition du milieu du Pléistocène (il y a entre 1,25 et 0,7 million d’années), où la Terre s'est vue sévèrement refroidie en raison de l'allongement des cycles glaciaires et interglaciaires.
Les glaciers ont émergé, les températures des océans ont diminué… et de longues sécheresses ont touché l'Afrique et en Eurasie. Pour les populations humaines luttant alors pour leur survie, ces conditions plus que défavorables auraient pu entraîner famines et conflits. La disparition d'autres espèces, sources de nourritures, pourrait aussi avoir contribué à leur déclin.
Encore une fois, les conséquences de ces bouleversements climatiques ne peuvent être constatées, tant les fossiles et les artefacts humains de cette période sont relativement rares. Peut-être, parce que la population était si faible durant cette fameuse période.
Cette donnée permet en tout cas d'enfin expliquer chronologiquement "l'écart entre les archives fossiles africaines et eurasiennes [...] au début de l'âge de pierre". "[Cet écart] coïncide avec la période proposée de perte significative de preuves fossiles", explique en effet l'anthropologue Giorgio Manzi de l'université Sapienza de Rome (Italie), coauteur principal de l'étude dans un communiqué.
Un changement de génome et une divergence des hominidés
Ce goulot d'étranglement pourrait aussi avoir contribué à une caractéristique du génome humain : la fusion de deux chromosomes en un seul, le chromosome 2. Les autres hominidés encore vivants, dont les grands singes, en possèdent en effet 24 paires, nous, 23. Cet événement de spéciation semble d'ailleurs avoir contribué à ce que les humains prennent une voie évolutive différente. Expliquons.
Des recherches ont déjà suggéré que le dernier ancêtre commun, partagé par les Hommes modernes (Homo Sapiens), les Néandertaliens (Homo neanderthalensis) et les Dénisoviens (Homo denisovensis), vivait il y a environ 765 000 à 550 000 ans… soit à peu en même temps que le phénomène décrit.
Si dernier ancêtre commun a vécu pendant ou peu après le goulot d'étranglement, celui-ci aurait pu jouer un rôle dans la division des groupes d'hominidés, suggèrent les chercheurs : la population pourrait s'être séparée en de petits groupes survivants, qui, au fil du temps, auraient développé des caractéristiques suffisamment importantes pour que les différents groupes deviennent distincts — avec d'une part l'Homme moderne, d'autre part l'Homme de Néandertal et l'Homme de Denisova.
Or, c'est aussi il y a environ 900 000 à 740 000 ans, que les deux chromosomes anciens semblent avoir convergé. Et puisque tout cela coïncide, les nouvelles découvertes suggèrent finalement que la quasi-éradication de l'homme pourrait avoir un lien avec ce changement majeur dans le génome humain.
En outre, "puisque les Néandertaliens et les Dénisoviens partagent cette fusion avec nous, elle a dû se produire avant que nos lignées ne se séparent", suggère à nos confrères Chris Stringer, paléoanthropologue au Musée d'histoire naturelle de Londres (Angleterre) qui n'a pas participé à l'étude.
"Brosser un tableau complet de l'évolution humaine"
Si la lutte pour la survie, il y a environ 930 000 à 813 000 ans, semble avoir joué un rôle dans la formation des chromosomes de l'Homme moderne, l'inverse est-il vrai ?
L'équipe suggère plutôt qu'un climat plus hospitalier il y a environ 813 000 ans, ainsi que la maîtrise du feu, sont des facteurs cruciaux qui pourraient avoir permis à nos ancêtres de rebondir. De plus amples recherches seront nécessaires pour y voir plus clair, ainsi que pour établir si la sélection naturelle qui a eu lieu durant cette période a accéléré l'évolution du cerveau humain.
Ces résultats ne sont qu'un début. — Haipeng Li, généticien théorique des populations et biologiste informatique de l'Académie chinoise des sciences, coauteur principal dans le communiqué.
Les objectifs futurs de ces connaissances visent à brosser un tableau plus complet de l'évolution humaine au cours de cette période de transition entre le Pléistocène précoce et le Pléistocène moyen, ce qui permettra à son tour de continuer à percer le mystère de l'ascendance et de l'évolution de l'homme primitif.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.science.org, 31 aout 2023, trad et résumé Mathilde Ragot
[
paléolithique
]
intermédiaire
Hier, je me suis cultivée. Je vous préviens tout de suite, si vous vous attendez au récit d'une visite passionnante dans un musée consacré à la période Momoyama, vous allez être déçus (ou soulagés, c'est selon). Au fait, la période Momoyama a réellement existé au Japon (1573 - 1603). Je ne sais pas si un musée lui a été consacré, mais j'aime bien ce nom.
Non, hier, je lisais "Le Monde" sur Internet. Soudain, dans la colonne de droite, là où se trouvent les liens vers les sites des cabinets de recrutement, je vois dans une liste d'offres d'emploi le mot "Dumiste". Le terminologue en herbe qui sommeille dans tout traducteur s'éveille instantanément, car je n'ai aucune idée de ce que peut être un ou une dumiste, qui peut être h/f, précise l'intitulé de l'annonce, montrant par là que le (ou la, parce que là aussi, je ne sais pas ce que c'est) CA du pays de Montbéliard n'est pas sexiste (la loi le lui défend, de toute façon). Décidément, il y a trop longtemps que j'ai quitté la France.
Dumiste, là, à brûle-pourpoint, ça me fait penser à une seule chose, cette collection d'ouvrages pratiques sur l'informatique qui a été traduite en français par "(logiciel x) pour les nuls" et dont le titre orginal en anglais est "(XXX) for dummies". Pas très flatteur, donc, et ça ne doit pas être ça. J'envisage ensuite un(e) spécialiste d'une étape particulière d'un processus technique industriel complexe, mais comme ces annonces sont en principe classées par thème et que je me trouve dans la rubrique culture du journal, je doute que ce soit ça. Je subodore plutôt quelque substantif dérivé d'un acronyme, mais lequel?
Je clique donc sur l'annonce, mais ça ne donne pas grand-chose, car si j'atterris bien sur un site web regorgeant d'"espaces ceci" et d'"espaces cela" et garantissant pourtant un "référencement optimal" des offres d'emploi, je ne retrouve même pas l'intitulé de l'annonce, j'ai dû me tromper d'espace quelque part. Je me tourne donc vers l'internet et je donne "dumiste" en pâture à Google. (Vous savez qu'en anglais, to google est devenu un verbe, "just google it", qu'on dit). Pas de problème, il connaît, et il connaît même très bien, car il me fournit obligeamment un tas de documents en français dans lesquels apparaît le mot "dumiste"".
En français, car le dumiste, c'est une invention purement hexagonale, jugez plutôt! Grâce à un passionnant document du Centre de formation des musiciens intervenants de l'université de Poitiers, je comprends assez vite que ça a un rapport avec l'enseignement de la musique, et aussi que le dumiste n'est absolument pas un professeur de musique, mais un "musicien intervenant", ou plus exactement "une personne-ressource dans la cité", qui "fait vivre des situations visant au développement de l'éducation artistique de l'enfant en temps scolaire et hors temps scolaire. Il intervient à long terme dans l'accompagnement d'un projet éducatif et se soucie de la cohérence des parcours artistiques musicaux des enfants". Les activités qu'il/elle organise doivent permettre aux enfants de "vivre des démarches artistiques collectives innovantes", "d'acquérir des savoirs et des savoir-faire fondamentaux, de développer une attitude d'écoute et se construire un jugement esthétique personnel". Il ou elle doit aussi aider les enseignants à devenir les "garants de la cohérence et de la transversalité des apprentissages".
Dans le même document se trouve un "référentiel de compétences" qui énumère toutes les qualifications, aptitudes et qualités qu'un dumiste digne de ce nom se doit de posséder, et elles sont nombreuses. J'apprends également que le dumiste exerce principalement son activité dans les écoles maternelles ou élémentaires, mais "en s'intégrant à des dispositifs institutionnels partenariaux", ce qui, vous en conviendrez, change tout. Je crois que ça veut dire qu'il/elle peut aussi être amené à travailler "en zone rural" (sans e) ou "dans des centres socioculturel" (sans s).
Tout cela ne me dit pas d'où on a sorti ce mot "dumiste". Je consulte ensuite une étude sur les situations d'emploi des musiciens intervenants diplômés des CFMI, et il me paraît désormais assez clair que le mot "dumiste" a été forgé sur DUMI, le MI signifiant musicien intervenant, mais d'où diable sort ce "DU"? En gros, cette étude dit que c'est drôlement difficile de comprendre ce que fait un dumiste, qu'elle qualifie de "musicien d’un troisième type d’abord et surtout itinérant avant d’être intermittent ou permanent". J'avoue que, de mon côté, je commence à m'y perdre un peu entre ces "intervenant" et ces "itinérant", et si en plus il est du troisième type, ce musicien... Lyrique, l'étude nous décrit aussi les dumistes comme des "colporteurs de musiques à la croisée de bien des chemins", mais enfin, comme elle a dû être rédigée pour l'administration, elle se reprend bien vite et nous précise que (je coupe, parce que la phrase fait dix lignes) "la diversité et la transversalité de ses savoir-faire musicaux, la multiplicité des compétences mobilisées (...), la diversification de ses activités et de ses lieux d’intervention (...), la multiplicité de ses partenaires (...) pour un même projet viennent singulièrement complexifier les concepts de spécialisation/ diversification musicale et professionnelle et, plus largement, l’élaboration d’une vision claire et pertinente d’un métier pluriel ..." Bref, comme le malheureux dumiste doit savoir faire des tas de choses, travailler dans un tas d'endroits et pour des tas de gens différents, eh bien ça "complexifie singulièrement" les choses. Le texte nous rappelle que le "dumiste" est une "personne-ressource", et insiste d'ailleurs sur la nécessité de "favoriser la lisibilité de la dimension de la personne-ressource" (je n'invente rien, c'est là, allez voir et estimez vous heureux de ne pas être à la place de nos collègues anglophones quand ce genre de texte atterrit sur leur bureau!).
Je tombe enfin sur un document scandaleusement simple de l’addm 22, association départementale pour le développement de la musique et de la danse en Côtes d'Armor, qui explique dès le début qu'un "dumiste" est le titulaire d'un Diplôme universitaire de musicien intervenant (c'est le fameux DUMI!), que ce n'est pas un salarié de l'Education nationale car il n'intervient pas qu'en milieu scolaire, mais aussi dans des écoles de musique, des crèches, des foyers de personnes handicapées, etc. Comme le dumiste est au service des collectivités territoriales, l'addm22 aime bien dire que c'est un "acteur culturel du territoire". Bon, je commence à voir de quoi il retourne. Un dumiste, c'est un malheureux qui a fait des études de musique et qui s'est tapé le Conservatoire pendant 10 ans, à qui, avec beaucoup de chance (ça représente apparemment 50% des diplômés), le Conseil général ou une communauté d'agglomérations (c'est la fameuse CA du début!) va offrir un mirobolant "équivalent plein temps" de 20 heures hebdomadaires probablement distribuées entre établissements scolaires et écoles de musique, atomisées dans tous les coins du département, avec déplacements et contraintes horaires à la clé. Et j'imagine, que, lors de leurs interventions, déterminer ce qui est du ressort de l'établissement et ce qui relève de la collectivité locale, notamment quand il s'agit de financer quelque chose, ne doit pas être de tout repos non plus. Les 50% des dumistes restants devront, selon l'étude sur les "situations d'emploi" citée plus haut, se contenter de contrats portant sur des "durées inférieures à 10 heures hebdomadaires", peut-être parce que leur dimension de personne-ressource n'est pas suffisamment lisible?
Je voudrais dire toute mon admiration aux dumistes, dont j'ignorais l'existence jusqu'à hier. Ils font un bien beau métier, qu'ils ont l'air d'exercer dans des conditions pas particulièrement favorables. Les quelques témoignages de dumistes que j'ai lus sur l'internet montrent qu'ils s'acquittent de leur tâche avec passion, conviction et sincérité. Certes, ils emploient des mots comme "envie", "plaisir", "jeu" et "découverte" mais ce n'est pas très grave car la "capacité de rédiger des circulaires administratives" ne figure pas dans leur "référentiel de compétences"!
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
http://scrapojapon.canalblog.com, Recherche dumiste, désespérément. 19 février 2008
[
marginal sécant
]
intelligence artificielle
Les capacités imprévisibles des grands modèles d'IA
Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles. (...)
Au-delà de l'imitation
En 2020, Dyer et d’autres de Google Research ont prédit que les LLM auraient des effets transformateurs – mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et diverses afin de tracer les limites extérieures de ce qu'un LLM pouvait faire. Cet effort a été appelé projet Beyond the Imitation Game Benchmark (BIG-bench), inspiré du nom du " jeu d'imitation " d'Alan Turing, un test permettant de déterminer si un ordinateur peut répondre aux questions d'une manière humaine et convaincante. (Ceci deviendra plus tard connu sous le nom de test de Turing.) Le groupe s'est particulièrement intéressé aux exemples dans lesquels les LLM ont soudainement atteint de nouvelles capacités qui étaient complètement absentes auparavant.
"La façon dont nous comprenons ces transitions brusques est une grande question de recherche", a déclaré Dyer.
Comme on pouvait s'y attendre, sur certaines tâches, les performances d'un modèle se sont améliorées de manière fluide et prévisible à mesure que la complexité augmentait. Et sur d’autres tâches, l’augmentation du nombre de paramètres n’a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont découvert ce qu’ils ont appelé des " percées " : des progrès rapides et spectaculaires dans les performances à une certaine échelle seuil. Ce seuil variait en fonction de la tâche et du modèle.
Par exemple, les modèles avec relativement peu de paramètres (quelques millions seulement) ne pouvaient pas résoudre avec succès les problèmes d’addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a augmenté dans certains modèles. Des sauts similaires se sont produits pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le déchiffrement des lettres d'un mot, l'identification du contenu offensant dans les paragraphes de Hinglish (une combinaison d'hindi et d'anglais) et la génération d'un équivalent anglais similaire des proverbes kiswahili.
Mais les chercheurs se sont vite rendu compte que la complexité d’un modèle n’était pas le seul facteur déterminant. Certaines capacités inattendues pourraient être extraites de modèles plus petits avec moins de paramètres – ou entraînées sur des ensembles de données plus petits – si les données étaient de qualité suffisamment élevée. De plus, la façon dont une requête était formulée influençait l’exactitude de la réponse du modèle. Lorsque Dyer et ses collègues l'ont fait avec la tâche des emoji de film via un format à choix multiples, par exemple, l'amélioration de la précision était moins un saut soudain qu'une augmentation progressive avec plus de complexité. Et l'année dernière, dans un article présenté à NeurIPS , la réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (une capacité appelée raisonnement en chaîne de pensée) pouvait résoudre correctement un problème de mots mathématiques, alors que le même le modèle sans cette invite ne pourrait pas.
Yi Tay, un scientifique de Google Brain qui a travaillé sur l'enquête systématique sur les percées, souligne des travaux récents suggérant que l'incitation à la chaîne de pensée modifie les courbes d'échelle et donc le point où l'émergence se produit. Dans leur article NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites de chaîne de pensée pouvait susciter des comportements émergents non identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d’expliquer son raisonnement, pourraient aider les chercheurs à commencer à étudier les raisons pour lesquelles l’émergence se produit.
Des découvertes récentes comme celles-ci suggèrent au moins deux possibilités pour expliquer pourquoi l'émergence se produit, a déclaré Ellie Pavlick, une informaticienne à l'Université Brown qui étudie les modèles informatiques du langage. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les modèles plus grands acquièrent effectivement spontanément de nouvelles capacités. "Il se peut très bien que le mannequin ait appris quelque chose de fondamentalement nouveau et différent qu'il n'aurait pas pu apprendre dans une taille plus petite", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'un changement fondamental se produit lorsque les modèles sont étendus."
L’autre possibilité, moins sensationnelle, dit-elle, est que ce qui semble émerger pourrait plutôt être le point culminant d’un processus interne, axé sur les statistiques, qui fonctionne selon un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement apprendre des heuristiques hors de portée pour ceux qui disposent de moins de paramètres ou de données de moindre qualité.
Mais, a-t-elle déclaré, déterminer laquelle de ces explications est la plus probable dépend d’une meilleure compréhension du fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit."
Pouvoirs et pièges imprévisibles
Il y a un problème évident à demander à ces modèles de s’expliquer : ce sont des menteurs notoires. " Nous comptons de plus en plus sur ces modèles pour effectuer le travail de base ", a déclaré Ganguli, « mais je ne me contente pas de leur faire confiance. Je vérifie leur travail. Comme exemple parmi de nombreux exemples amusants, Google a présenté en février son chatbot IA, Bard. Le billet de blog annonçant le nouvel outil montre que Bard fait une erreur factuelle .
L’émergence conduit à l’imprévisibilité, et l’imprévisibilité – qui semble augmenter avec l’échelle – rend difficile pour les chercheurs d’anticiper les conséquences d’une utilisation généralisée.
" Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés ", a déclaré Ganguli. "Et pour étudier des phénomènes émergents, vous devez avoir un cas en tête, et vous ne saurez pas avant d'avoir étudié l'influence de l'échelle quelles capacités ou limitations pourraient survenir."
Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont examiné si les modèles montreraient certains types de préjugés raciaux ou sociaux, un peu comme ceux précédemment rapportés dans les algorithmes non basés sur LLM utilisés pour prédire quels anciens criminels sont susceptibles d'en commettre un autre. crime. Cette étude a été inspirée par un paradoxe apparent directement lié à l’émergence : à mesure que les modèles améliorent leurs performances lors de leur mise à l’échelle, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des dommages.
"Certains comportements nuisibles apparaissent brusquement dans certains modèles", a déclaré Ganguli. Il cite une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. " Les modèles plus grands deviennent brusquement plus biaisés. " Ne pas prendre en compte ce risque, a-t-il ajouté, pourrait mettre en péril les sujets de ces modèles.
Mais il propose un contrepoint : lorsque les chercheurs ont simplement dit au modèle de ne pas s’appuyer sur des stéréotypes ou des préjugés sociaux – littéralement en tapant ces instructions – le modèle était moins biaisé dans ses prédictions et ses réponses. Cela suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a fait état d'un nouveau mode " d'autocorrection morale ", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.
L’émergence, a déclaré Ganguli, révèle à la fois un potentiel surprenant et des risques imprévisibles. Les applications de ces grands LLM prolifèrent déjà, donc une meilleure compréhension de cette interaction aidera à exploiter la diversité des capacités des modèles linguistiques.
"Nous étudions comment les gens utilisent réellement ces systèmes", a déclaré Ganguli. Mais ces utilisateurs bricolent aussi constamment. "Nous passons beaucoup de temps à discuter avec nos modèles", a-t-il déclaré, "et c'est en fait là que vous commencez à avoir une bonne intuition sur la confiance – ou son absence."
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Quanta Magazine, Stephen Ornes, 16 mars 2023 - Les capacités imprévisibles des grands modèles d'IA Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.
[
dépassement
]
univers inversé
Les possibilités métagénomiques
Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.
Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.
Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.
Applications de la métagénomique
Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :
Avancées des sciences de la vie.
Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?
Sciences de la Terre.
L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.
Médicament.
Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.
Énergie alternative.
De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.
Assainissement de l'environnement.
Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.
Biotechnologie.
L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.
Agriculture.
Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.
Biodéfense et médecine légale microbienne.
L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.
Valeur de la métagénomique pour l'enseignement de la biologie
La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?
La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.
Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.
Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.
LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE
Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.
Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique.
D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author
[
sciences
]
[
nano-monde
]
[
ouverture
]
[
matrice gaïa
]
dépravation
La Fistinière
Cette chambre d'hôtes gays accueille des amateurs de fist, qui consiste à pénétrer le vagin ou l'anus avec la main. Rencontre.
(Du Cher) Ce n'est pas une maison bleue accrochée à une colline. C'est une maison d'hôtes pour passionnés du "fist", cette pratique qui consiste à introduire une main, voire un bras dans un vagin ou un anus. C'est aussi un mythe, une maison qui étonne ou fait rire par son concept. Nous avons voulu rencontrer François, Juan Carlos et Nelly, les penseurs de ce lieu original.
Au téléphone, François prévient tout de suite :
"Bon, il y a déjà des journalistes qui sont venus, mais c'était des hommes. Vous, vous êtes des femmes... Ça va donc être compliqué d'assister à une soirée, nous n'avons pas envie de mettre nos clients mal à l'aise."
Avec Audrey, la photographe de Rue89, nous nous sommes donc rendues dans cette maison d'hôtes gays du Cher en pleine journée. Il faisait très beau. Les champs de colza coloraient d'un jaune magnifique le pays. Et puis il y avait des vaches et des moutons.
On arrive à Assigny, village de 174 habitants, où est située la Fistinière. Ici, pas de problème. La maison d'hôtes est très bien acceptée. François nous accueille. Il est imposant, souriant, porte un pantalon en cuir noir et vous regarde de ses yeux bleus aussi limpides que ceux d'un chat. Il explique : " Le site internet est connu par beaucoup de gens aux alentours, il y a pleins de gens que ça amuse, mais tout le monde se rend compte qu'on est pas des vieux monstres pervers, qu'on est des gens comme tout le monde. "
La maison, qui date du XVIIe siècle, est tout à fait charmante.
"Je vous présente Juan Carlos, mon mari", nous dit François avant de nous inviter à nous installer dans le grand salon de la maison. Nelly, sa soeur, s'installe également à leurs côtés. Ils ont ouvert la Fistinière en 2007, et la tiennent depuis tous les trois. On boit du thé, avec quelques meringues à la noix de coco. Commence alors le récit de leur aventure.
Leurs parcours sont improbables. De ceux qui troubleraient une conseillère en orientation. Avant de créer la Fistinière, François tenait une boutique de robes de mariées, Juan Carlos faisait des prothèses orthopédiques et Nelly avait une brasserie.
D'origine colombienne, Juan Carlos arrive à Paris en 1984. Il y découvre la pratique du fist : "J'aime bien faire la comparaison avec l'éducation grecque où il y avait l'expérimenté, pour ne pas dire le vieux, qui apprenait au jeune. Dans le fist, c'est souvent ça. On apprend avec quelqu'un qui le pratique déjà."
A la fin des années 90, il rencontre François. Les deux hommes tombent amoureux et très vite cette pratique occupe une place de choix dans leur vie sexuelle. Une vie sexuelle complètement affranchie de la gêne et des tabous qui y sont liés. François et Juan Carlos racontent tous les deux avoir un autre mari et ne jamais être jaloux.
A l'époque, ils rêvent d'un endroit convivial et hygiénique, dédié à leur activité manuelle favorite avec à disposition tout le matériel nécessaire. Des préservatifs aux gants en latex. Cette idée ne va bientôt plus les lâcher. Enthousiaste, Nelly rejoint vite son fère et Juan Carlos dans le projet. "Sa vie n'était alors pas très rose" raconte François. "Elle avait un mari avec qui ça n'allait pas très bien." L'alliance familiale ne pose problème à aucun d'eux trois. Juan Carlos explique : "Dans leur famille, la sexualité n'est pas du tout taboue, je pense que ça leur a permis d'être ouvert à beaucoup de choses.
L'organisation du gite est bien rodée. Les garçons s'occupent de l'accueil des clients et de s'assurer que les soirées se passent bien. :
Si quelqu'un a un peu trop bu, on le surveille car ça peut vite devenir dangereux.
A Nelly revient la grande responsabilité de la faire la cuisine :
Avant de faire un fist, on fait un lavement, donc il faut des aliments faciles à évacuer. Avec les tomates, il faut enlever la peau et les pépins. Il faut toujours des féculents.
Pendant les soirées du samedi soir, à l'origine, Nelly n'était pas censée pénétrer la "chapelle fistine", située à l'étage, dans le grenier de la maison. Mais un jour, un client le lui a demandé. Après s'être assurés que cela ne posait pas de problème aux autres clients, François et Juan Carlos ont accepté que Nelly vienne assister à leur "jeux" : "J'aime beaucoup fister des garçons. La première fois que je suis montée, François et Juan Carlos étaient un peu gênés, moi pas du tout. " Juan Carlos réagit : "Je l'ai toujours dit : Nelly c'est un pédé dans un corps de femme. Sexuellement, nos pratiques ne lui ont jamais posé de problèmes. Elle a cette mentalité très ouverte et accepte que la sexualité soit un jeu."
François, pour sa part, explique que beaucoup de leurs clients sont bisexuels : "Le fait de prendre du plaisir par le cul avec une femme, ça les excite."
"Autour de cet anus, il y a un individu tout de même"
Le plaisir. Dans l'imaginaire collectif, mettre une main dans un anus, c'est plutôt une pratique violente. François et Juan Carlos pensent tout le contraire. Il faut être très doux, justement pour éviter un accident : "Les intestins c'est très fragile. A l'entrée de l'anus, si on force, il peut y avoir une déchirure, donc une infection. Pour éviter ça, il faut dilater."
Il raconte le rituel du fist : "Il faut que les ongles soient bien coupés, limés, même si on porte des gants. Il faut utiliser un bon lubrifiant, attendre que les anneaux et le sphincter s'ouvrent successivement. Et puis autour de cet anus, il y a un individu tout de même, il faut être à l'écoute, savoir si ce qu'on lui fait lui plaît et surtout ne jamais forcer."
François enchérit : On peut y aller doigt par doigt ou assurer la dilatation par massage. Il faut toucher, caresser, voir comment ça s'ouvre et ne jamais brusquer...
Certains candidats au fist préfèrent une fois sur place ne s'en tenir qu'à un doigt, tandis que d'autres acceptent qu'on les pénètre jusqu'à l'épaule.
"Qu'il s'agisse d'une pénétration de la main ou d'un bras, pour se faire fister, il faut vraiment le désirer fort, sinon ce n'est tout simplement pas possible."
François et Juan Carlos ne sont pas lassés de cette pratique. Ils parlent d'une jouissance folle. "C'est LA jouissance" dit Juan Carlos en insistant sur le LA : - En tant qu'hommes, on peut avoir un plaisir fou par son cul en faisant appel à certaines glandes. C'est comme si on jouissait de la bite mais multiplié par mille.'
Au-delà de ce plaisir charnel, ils parlent d'une philosophie de vie, d'un art de vivre :
Ce qui m'a plu dans cette pratique du fist, c'est le respect absolu qu'il y a entre les deux personnes. Le fait d'introduire la main dans les intestins de quelqu'un, c'est une pratique très intime. Plus intime ça n'existe pas. Tout est dans la confiance et le respect...
Surprise. A la fin de l'entretien Juan Carlos confesse qu'avant de faire des prothèses orthopédiques et de tenir la Fistinière, il a failli devenir prêtre. Il a été séminariste et se dit encore croyant. :
Il y a une grande recherche spirituelle dans cette sexualité. Je trouve de toutes manières que la spiritualité est partout, dans tout ce qu'on fait, on a pas besoin d'être entre les quatre murs d'un séminaire ou d'un couvent pour la vivre. Le message christique c'est l'amour. Aujourd'hui, j'ai l'impression de vivre ma vocation ici.'
Même si Nelly, François et Juan Carlos racontent avoir accueilli des gens du monde entier, la Fistinière ne fait pour l'instant pas de bénéfices. En hiver, ils ont une vingtaine de clients par mois, en été le chiffre s'élève à une centaine de personnes. Les garçons disent tout juste réussir à payer les factures. Ils n'en ont pas l'air moins heureux. Epanouis.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Rue 89
[
homo
]
[
sexe
]
[
perversion
]
[
pornographie
]
interactions
L'épigénétique, l'hérédité au-delà de l'ADN Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations. L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris). Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange. Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ? L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance. La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère. "Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle. Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie). Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes. Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites. Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones." D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques. Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X." Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques. Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde. Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard. Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ?
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012
[
interférences
]
[
mutation acquise
]
mnémonique
La meilleure stratégie d'apprentissage peut-elle dépendre de ce dont on essaye de se souvenir ?
Différentes approches peuvent prendre en charge diverses formes de mémoire
La répétition est un élément clé de l’apprentissage. Si vous voulez vous souvenir de quelque chose, revenez-y encore et encore. Mais le moment et la manière dont vous revisitez les informations sont importants. Des décennies de recherche ont montré que les gens se souviennent mieux des informations à long terme lorsqu'ils y reviennent au fil du temps, plutôt que d'essayer de tout mémoriser rapidement et consécutivement. Il s’agit de " l’effet d’espacement ", l’une des découvertes les plus solides et les plus renouvelée des recherches sur la mémoire.
La plupart des études antérieures sur l’effet d’espacement se sont concentrées sur l’apprentissage qui implique la répétition exacte du même contenu encore et encore. Pourtant, à l'exception de la préparation d'un examen, les environnements et les situations dans lesquels nous apprenons de nouvelles choses sont généralement beaucoup moins contrôlés. Imaginez une rencontre avec un nouveau collègue. La prochaine fois que vous vous rencontrerez, ce sera peut-être dans un autre endroit ou avec un groupe de personnes, ou le nouveau collègue aura peut-être une coupe de cheveux différente. Comment cette variabilité influe-t-elle quant aux avantages mémoriels associés à pareil effet d'espacement ?
Dans deux expériences récemment publiées dans les Actes de la National Academy of Sciences USA , nous avons examiné comment l'effet d'espacement profite à la mémoire lorsque le matériel répété contient un mélange réel de caractéristiques stables et variables. Nous avons constaté que ce type de variation peut faire une différence dans ce qu'on apprend et dans la qualité de notre apprentissage. Et même si l’espacement reste une excellente stratégie pour certains types de connaissances, d’autres tactiques peuvent également améliorer cette capacité à mémoriser des informations.
Dans les deux expériences, nous avons évalué dans quelle mesure les gens pouvaient se souvenir de paires d'images visuelles : un élément, tel qu'un personnage de dessin animé, un animal ou un outil, et une scène, telle qu'un lieu célèbre ou une photographie d'une pièce. Par exemple, les participants pourraient voir un homme vert moustachu côte à côte avec une photographie de la Tour Eiffel ou l'image d'un marteau avec une cuisine. Nos participants ont observé plus de 40 de ces appariements au cours de ce que nous appelons des " séances d’apprentissage ".
Nous avons présenté chaque paire d'images quatre fois au cours des sessions. Pour créer un mélange de fonctionnalités stables et variables, les paires ont été soit présentées de manière identique, avec le même élément et la même scène toujours affichés ensemble, soit l'élément est apparu à côté d'une nouvelle scène à chaque fois. (Par exemple, l'homme vert pourrait apparaître à nouveau avec la Tour Eiffel ou à côté d'un autre monument, comme les pyramides de Gizeh ou la Maison Blanche.) Pour examiner comment la variabilité influence l'effet d'espacement, nous avons contrôlé la distance entre les quatre répétitions de les paires ont été visualisées, soit rapprochées, soit espacées dans le temps.
Dans la première expérience, qui a porté sur 157 participants, ces derniers ont participé à quatre séances d’apprentissage par jour pendant une période de 24 jours, en utilisant le navigateur de leur téléphone portable. Tirant parti de la longue période de cette expérience, nous avons espacé l’apparition des paires d’éléments et de scènes répétées de quelques heures à quelques jours. Nous avons demandé aux participants d’étudier les paires en leur envoyant des SMS leur demandant de commencer chaque séance d’apprentissage. Le 25e jour, les participants ont passé un test pour voir dans quelle mesure ils avaient bien assimilé et mémorisé les images.
Dans notre deuxième expérience, 136 personnes ont participé via une plateforme informatique plutôt que via un téléphone portable. Cette fois, nous avons compressé tout l’apprentissage en une seule session sur une seule journée. Nous pouvions toujours répéter les paires cohérentes et variables soit dos à dos, soit avec un espacement, mais ici l'apprentissage n'était distribué que par secondes ou minutes.
Ensemble, les résultats de nos deux expériences suggèrent que l'espacement et la variabilité peuvent tous deux bénéficier à la mémoire, en fonction de l'aspect d'une expérience dont vous essayez de vous souvenir. Nos études nous ont permis d'examiner deux formes de mémoire : la mémoire d'objet, la capacité de rappeler un élément isolé (comme l'homme vert), et la mémoire associative, les composants liés ou les relations entre les éléments (comme l'homme vert avec la tour Eiffel). Ces deux types de mémoire constituent des aspects essentiels mais différents de la façon dont nous nous souvenons des expériences. Et bien qu’ils soient clairement liés, les neuroscientifiques pensent que le cerveau stocke et organise les éléments et les associations de manière distincte.
Conformément aux recherches précédentes, nous avons constaté que l’espacement des séances d’apprentissage permettait une meilleure mémorisation des éléments que des séances consécutives. En d’autres termes, les participants se rappelaient mieux s’ils avaient déjà rencontré l’homme vert, par exemple, lorsque les répétitions de cette image avaient été espacées.
Mais les gens se souvenaient également mieux des éléments lorsqu'ils les avaient vus associés à des scènes différentes à chaque répétition, par rapport aux éléments toujours présentés avec la même scène. Il est intéressant de noter que cette différence était plus prononcée lorsqu’il y avait moins d’espacement entre les répétitions, par exemple lorsque les paires étaient vues dans un temps rapproché.
Cela suggère un raccourci potentiel pour les personnes essayant de se souvenir d'un détail ou d'une fonctionnalité spécifique dans un laps de temps limité. Supposons que vous essayiez de vous rappeler que le nom d'une nouvelle collègue est Sarah. Il pourrait être utile de penser à vous-même : " Sarah a les cheveux bruns ", " J'ai rencontré Sarah au travail ", " Sarah a un chien ", " Sarah est allergique aux cacahuètes ", etc., plutôt que d'essayer simplement de faire en sorte que Sarah ait les cheveux bruns. le nom reste dans votre esprit en le répétant. Vous ne vous souvenez peut-être pas de tous ces détails, mais votre mémorisation du nom de votre collègue s'améliorera.
Dans les deux expériences, nous avons constaté que la mémoire associative bénéficiait de la cohérence. En d’autres termes, les gens associaient plus facilement l’homme vert et la Tour Eiffel à condition que cette association soit réapparue de manière fiable au fil des sessions d’apprentissage. L'espacement a aidé les personnes à former ces souvenirs associatifs uniquement lorsque les paires étaient les mêmes à chaque répétition et que l'espacement entre les répétitions des paires était suffisamment long (comme dans les heures ou les jours de notre première expérience).
En d'autres termes, si vous souhaitez vous rappeler à la fois que le nom de votre collègue est Sarah et qu'elle a un chien, il n'y a pas vraiment de raccourci : vous devrez répéter cette information dans son intégralité au fil du temps pour la rendre mémorable. Il est possible que la distinction entre mémoire d'objet et mémoire associative reflète des différences dans la façon dont notre cerveau renforce et construit des souvenirs. Autrement dit, le cerveau pourrait utiliser le changement pour cimenter les caractéristiques isolées et stables de la mémoire tout en s’appuyant sur la cohérence pour relier plusieurs caractéristiques associées.
Dans l’ensemble, nos travaux suggèrent que les gens peuvent utiliser la variabilité et la répétition pour améliorer la mémoire de divers aspects de leur expérience. Bien que nous n’ayons pas étudié directement les milieux éducatifs, ces travaux ont des implications passionnantes pour lênseignement ainsi que pour notre vie quotidienne. Par exemple, en fonction de ce qu'un enseignant souhaite que son élève apprenne, le matériel pédagogique peut soit être répété de manière identique d'une leçon à l'autre, soit être intégré à chaque fois dans un nouveau plan de cours, offrant ainsi une source de variabilité.
Ces résultats renforcent l’idée selon laquelle ce que nous conservons en mémoire reflète la nature multiforme de nos expériences du monde réel. Nous ne pouvons pas nous souvenir de tout ce que nous vivons, et ces expériences sont rarement aussi contrôlées que dans nos conceptions expérimentales. Tirer parti de cette complexité peut ouvrir la porte à de nouvelles recherches pour comprendre comment et ce que nous apprenons et mémorisons.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.scientificamerican.com/ - 21 Juin 2024 - EMILY T. COWAN , VISHNU P. MURTY , BENJAMIN M. ROTTMAN ET YIWEN ZHANG
[
combinatoire
]
homme-machine
Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023.
Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.
Pourquoi le jeu d’échecs comme indicateur ?
Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :
1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.
2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.
3 Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.
4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.
5 Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.
Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.
Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?
Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.
(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)
Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.
En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.
(Image : courbe du classement ELO )
Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.
Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.
Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.
La réception par la communauté de joueurs d’échecs
Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.
" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.
Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.
Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.
Conclusions temporaires
Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024
[
ouverture
]
[
conformisme limitant
]
nanomonde
Comment l’IA impacte la recherche sur la structure des protéines
Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.
Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.
Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.
Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?
Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.
(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur
La cristallographie aux rayons X
La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.
Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.
Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.
Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.
La spectroscopie par résonance magnétique nucléaire
Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").
Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.
En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.
D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.
Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.
La "cryomicroscopie électronique"
La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.
Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.
Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).
Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.
Les apports d’AlphaFold
AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.
À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)
[
gnose chimique
]
chair-esprit
Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey
[
sciences
]