Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1966
Temps de recherche: 0.0416s

annales

Les régimes institutionnels de la mémoire

On pourrait distinguer la reproduction biologique (un individu se reproduit en individus de la même espèce), l’élevage (on sélectionne par la reproduction un profil génétique donné), la domestication (les êtres humains éduquent des animaux, transmettant par le dressage pratiques et comportements) et enfin l’éducation où des individus d’une espèce enseignent à leurs progénitures leurs propres acquis. La domestication n’est pas l’éducation car ce ne sont pas les animaux qui dressent leurs petits, mais leurs maîtres.

La culture commence quand, au delà du patrimoine génétique, des contenus, pratiques et savoir faire sont transmis d’une génération à une autre. Autrement dit, quand il s’agit de passer de l’élevage à l’éducation, de la répétition des capacités propres à l’espèce à la transmission des contenus acquis.

Cela implique d’une part la prise de conscience d’un déjà-là constitué et d’autre part la mise en place d’outils et procédures pour l’entretenir et donc le transmettre. Il s’agit d’avoir des institutions du sens qui régissent, au niveau d’une société ou d’un collectif, les pratiques culturelles et les modalités de leur transmission.

À travers la notion d’institution, nous visons trois caractéristiques principales : la tradition qui sanctionne l’existence d’un déjà-là ("c’est ainsi que l’on a toujours fait"), une normalisation, qui ajuste et régule ses modalités d’expression selon certains critères ("c’est ainsi qu’il convient de faire"), une transmission qui assure une pérennisation de la tradition, de cet héritage reçu et donc à léguer ("c’est ce qu’il faut continuer de faire"). Les institutions du sens sont donc toujours traditionnelles et normatives, garantes de la culture comme acquis constitué et à transmettre. On retrouve ainsi les institutions scolaires, patrimoniales, culturelles, etc. De la langue qu’on apprend à maîtriser même quand elle est sa langue maternelle pour qu’elle devienne sa langue de culture et de réflexion [Judet & Wisman 2004], aux pratiques traditionnelles (cuisines, artisanat) en passant par les pratiques savantes, la culture est un déjà-là qui s’autonomise en tradition normée pour pouvoir être transmise. C’est le rôle et la mission des institutions du sens que d’accompagner la constitution de la tradition normée et d’en assurer la transmission.

La tension propre à ces institutions sera le conflit permanent entre d’une part la normalisation des contenus et d’autre part une transmission autorisant leur appropriation et transformation. Comment transformer sans trahir, comment transmettre sans figer, est la question que doit traiter toute institution du sens. Si la norme donne les conditions de la répétition et de la conservation du déjà-là, l’invention et l’appropriation seront les conditions pour que ce déjà-là reste accessible, signifiant, exploitable voire utile dans l’environnement contemporain. Une norme formelle et dogmatique rend le déjà-là sans intérêt, une appropriation dérégulée revient à une perte de mémoire et de sens.

Si les institutions du sens reposent en leur possibilité sur la constitution d’un déjà-là et sa reconnaissance comme tel, il en ressort qu’on en passe nécessairement par une institutionnalisation de la mémoire qui a pour fonction de fixer le périmètre du déjà-là, de définir les règles de son accroissement et de son enrichissement, et de proposer des modalités de sa consultation, partage et transmission. Les institutions de la mémoire seront donc des instances nécessaires à la reconnaissance d’un déjà-là constitué et à sa pérennisation.

Il y a plusieurs manières de mettre en place de telles institutions et d’en fixer les missions et les contours. Notre civilisation, au cours de son histoire longue, en distingue selon nous quatre modalités principales [Bachimont 2017] : la mémoire de la preuve (les archives), celle de l’œuvre (les bibliothèques et les musées), celle de l’information (les centres de documentation et de ressources) et enfin l’identité culturelle (le patrimoine).

Aussi anciennes que l’écriture elle-même, les archives [Delsalle 1998] sont avant tout une mémoire de l’événement, une trace de ce qui s’est passé, la permanence de cette dernière permettant de pallier l’évanescence de l’événement. L’archive possède une relation organique à ce dont elle est archive : causée par l’événement dont elle consigne la mémoire, l’archive est le signe, par son existence même, de l’événement et du fait qu’il a bien eu lieu. À travers une telle relation organique, on veut insister sur le fait que, même si l’archive est un document produit par des collectifs culturels, elle est néanmoins provoquée, produite quasi naturellement par l’événement qu’elle relate. Autrement dit, elle n’est pas altérée par un processus interprétatif qui viendrait se mettre en l’événement et sa trace. Pour reprendre la belle image de Marie-Anne Chabin [2000], "Les archives procèdent de l’activité de leur auteur comme les alluvions découlent du fleuve", comme si elles consistaient en un processus naturel.

Ainsi, plus tekmerion que semeion, indice que symbole ou icône *, même si en pratique, il faut bien en passer par l’interprétation et les conventions qui lui sont inhérentes, l’archive peut être la preuve que recherchent l’historien, le juge ou l’enquêteur. Mais, puisque l’événement produit le document, ce dernier ne peut être une preuve pleine et entière que si le seul moyen de produire le document qui deviendra l’archive est que l’événement se soit produit. Par exemple, l’acte notarié est ainsi conçu que la seule manière d’avoir un acte est que l’événement associé (une transaction par exemple) ait eu lieu. Sinon, c’est un faux, c’est-à-dire un document établi pour faire croire que l’événement a eu lieu. L’archive officielle est donc une preuve déductive (si on dispose de l’archive, alors l’événement a eu lieu), les autres ont plutôt une valeur abductive plutôt que déductive (si on dispose de l’archive, la cause la plus probable ou la plus simple est que l’événement ait eu lieu mais on en reste à une présomption). C’est la raison pour laquelle l’authenticité, au sens où le document est bien ce qu’il prétend être, est si fondamentale pour les archives. C’est en effet cette dernière qui permet de retracer le schéma causal qui a produit le document à rebours, en remontant à l’événement.

La seconde modalité ou institution de mémoire mobilise les traces du génie humain, autrement dit ce qui reflète les productions de l’esprit et de la culture. Il ne s’agit pas tant d’avoir des preuves de l’événement que de disposer des traces de ce qui a été pensé ou de ce qui fut créé. L’enjeu n’est pas de savoir ce qui s’est passé, mais de connaître comment cela a été pensé. Du monde comme événement (le fait relaté par un témoignage), on remonte à la culture comme monument (le témoignage comme fait). L’authenticité n’est plus ici gagée par le lien organique entre l’événement et le document, mais entre ce dernier et son auteur. L’authenticité reposera sur l’attribution de son auteur et la détermination du contexte de création pour pouvoir en déduire le sens qu’on peut lui conférer. Les institutions en charge des œuvres sont les bibliothèques, les musées, les conservatoires. L’enjeu n’est pas tant de connaître le passé pour lui-même, mais de se reposer sur les œuvres du passé pour appréhender une part des possibilités du génie humain, une province du sens et de l’être. Les œuvres du passé n’appartiennent pas à un passé révolu, mais au présent, un présent permanent et continuel car les œuvres, sitôt produites, restent un témoignage vivant qu’il est toujours temps et opportun de recevoir. Cela ne veut pas dire qu’il n’est pas important de prendre en compte leur historicité ni leur contexte originel, mais qu’en tant que créations humaines, il est toujours actuel et pertinent pour les êtres humains de les recevoir, accueillir et interpréter.

La troisième institution de la mémoire est celle du savoir, de la connaissance et de l’information. Ni preuve ni œuvre, l’information est le savoir anonyme, sans auteur, apportant la connaissance d’un fait, d’un procédé ou d’un raisonnement possibles. Information de personne, mais information pour tous, l’information prend sa valeur à partir de l’institution qui la produit, ou le processus qui la constitue. De l’information savante gagée par la publication scientifique et son système de relecture par les pairs, à l’information journalistique fondée sur une régulation spécifique, en passant par l’institution scolaire et ses programmes, l’information doit être produite par une institution qui lui sert de caution pour être reçue comme telle et valoir comme connaissance. On comprend qu’une telle notion d’information est le cœur même des activités relevant de ce qu’on a appelé par la suite "l’information scientifique et technique", et qu’elle se formalisa lors de la révolution industrielle [Briet 1951]. Une dimension spécifique de l’information, et faisant rupture avec les figures plus anciennes de l’archive et de la bibliothèque (les preuves et les œuvres), est l’indépendance ou plutôt l’indifférence au support. Peu importe que le document soit un article ou un livre, un journal ou une encyclopédie, numérique ou matériel, il n’importe que par l’information qu’il détient. Derrière cette indifférence se cache un présupposé selon lequel le contenant n’influe pas sur le contenu, que le support matériel ne conditionne pas l’intelligibilité de l’inscription consignée sur le support. Présupposé qu’il est facile de réfuter, aucun changement de support ne pouvant être neutre quant à l’intelligibilité du contenu [Bachimont 2010]. Mais on peut voir derrière ce présupposé, non une erreur quant à la réalité de la dépendance du contenu au contenant, mais l’intérêt exclusif pour un invariant sémantique commun aux différentes expressions rencontrées sur différents supports, où l’on s’intéresse au fait, par exemple, que l’eau bout à 100°, indépendamment de l’expression qui nous a permis d’en prendre connaissance.

Cette conception abstraite du support de l’information entraîne un intérêt exclusif à l’inscription comme expression, à sa grammaire et à son lexique. Privilégiant la forme sur la matière, l’information a un tropisme naturel vers la formalisation et la circulation : formalisation car il s’agit de contrôler l’information uniquement à partir de sa forme, indépendamment de son support ; circulation parce que cette indifférence au support permet en principe la migration d’un support à un autre sans altération de l’information. Cela aboutit fort logiquement aux initiatives comme le Web des données (ou Web sémantique) où le formalisme de l’expression assure les conditions de son interprétation et de sa circulation.

Enfin, le dernier régime est celui de l’identité culturelle ou celui du patrimoine. Ce régime est le plus indéterminé des quatre considérés ici dans la mesure où il mobilise le rapport fondamental à la mémoire et à la culture : il concerne tout objet permettant à un collectif d’accéder à une mémoire, à la mémoire de son identité collective. Le patrimoine est donc, pour utiliser le vocabulaire de Gilbert Simondon [2005], ce qui permet l’individuation d’une identité collective et la constitution d’objets comme vecteurs de cette dernière. Le patrimoine est donc un jeu triple entre des objets, des individus, et un collectif tissant ces derniers ensemble. Aussi tout objet peut-il, en principe, devenir patrimonial, les règles de l’individuation n’étant pas fixées a priori. On ne peut que constater a posteriori que tels ou tels objets "font patrimoine".

L’identité collective est un déjà-là revendiqué et assumé par le collectif. Il s’agit d’une mémoire reconnue comme étant la sienne et associée à un objet qui l’incarne et la porte. Mais la seule caractéristique de cet objet est qu’il est distingué dans sa capacité de porter un souvenir, d’incarner une mémoire, de véhiculer un sens partagé. En ce sens, l’objet patrimonial est un mnémophore, un porteur de mémoire, en plagiant le néologisme naguère proposé par Krzystof Pomian, le sémiophore [1996].

L’objet patrimonial, le mnémophore, ne s’oppose pas aux autres régimes de mémoire que nous avons distingués, mais les intègre comme des modalités possibles de sa déclinaison. En effet, les preuves, œuvres et informations sont porteuses de mémoire et permettent par leur entremise un rapport au passé.

Auteur: Bachimont Bruno

Info: https://journals.openedition.org/signata/2980. *CS Peirce (1978) Écrits sur le signe. Paris, Seuil.

[ conservatisme ] [ pré-mémétique ] [ damnatio memoriae ] [ diachronie ] [ sciences ] [ humaines tiercités ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

littérature

Les 19 lois du bon polar, selon Borges.

Le grand écrivain argentin s'était amusé à codifier la narration policière. En partenariat avec le magazine BoOks.

Dans son article "Lois de la narration policière" (1), de 1933, Jorge Luis Borges propose quelques règles élémentaires, ou "commandements", pour le récit policier classique. Ces conventions, comme il le remarque avec esprit, "ne visent pas à éluder les difficultés, mais plutôt à les imposer". Borges énonce explicitement les six règles suivantes:

1 : Une limite facultative de ses personnages

Les personnages doivent être peu nombreux et bien définis, de façon que lecteur puisse les connaître et les distinguer. "La téméraire infraction à cette loi est responsable de la confusion et de l'ennui fastidieux de tous les films policiers."

2 : Exposition de toutes les données du problème

On doit mettre toutes les cartes sur la table, sans as sortis de la manche à la dernière minute. À partir d'un certain point, le lecteur devra disposer de toutes les pistes nécessaires pour trouver lui-même la solution. "L'infraction répétée de cette deuxième loi est le défaut préféré de Conan Doyle. Il s'agit parfois de quelques imperceptibles particules de cendre, ramassées dans le dos du lecteur par ce privilégié d'Holmes. Parfois l'escamotage est plus grave. Il s'agit du coupable, terriblement démasqué au dernier moment, qui s'avère être un inconnu : une insipide et maladroite interpolation."

3 : Avare économie de moyens

Qu'un personnage se dédouble, on peut l'admettre, dit Borges. Mais que deux individus en contrefassent un troisième pour lui conférer un don d'ubiquité "court le risque incontestable de paraître une surcharge". La solution doit être la plus claire et nette possible, sans lourdeurs techniques, artifices improbables ou déploiements accablants de mouvements et de détails. La solution doit aussi pouvoir se déduire des ressources déjà mises en jeu, comme réorganisation des éléments connus.

4 : Primauté du comment sur le qui

Le véritable mystère d'un bon whodunit(2) n'est pas le nom de celui qui a commis le crime, mais ce que sera le nouvel ordre logique, plus subtil, la vérité souterraine qui éclaire le récit d'un nouveau jour.

5 : Pudeur de la mort

À la différence des thrillers du cinéma contemporain, où l'imagination cherche à concevoir des crimes de plus en plus sanglants et des cadavres de plus en plus choquants, dans le récit policier classique, la mort est comme une ouverture au jeu d'échecs et n'a pas en soi beaucoup d'importance. "Les pompes de la mort n'ont pas leur place dans la narration policière dont les muses glaciales sont l'hygiène, l'imposture et l'ordre", écrit Borges.

On trouve une transgression exemplaire de cette loi dans "le Noël d'Hercule Poirot"(3), d'Agatha Christie. Ce roman, comme on le comprend dans la dédicace, est conçu comme un défi, son beau-frère lui ayant reproché d'éviter le sang dans ses crimes. "Vous y déploriez que mes meurtres deviennent trop épurés - exsangues, pour parler net. Vous y réclamiez un de ces bons vieux meurtres bien saignants. Un meurtre qui, sans l'ombre d'un doute, en soit bien un." Le plus remarquable est peut-être que, dans ce crime esthétiquement opposé aux précédents, Agatha Christie reste elle-même: le cri terrifiant, la scène brutale du meurtre, le sang abondamment répandu sont des clés de l'élucidation finale.

6 : Nécessité et merveilleux dans la solution

"La première implique que le problème soit un problème précis susceptible d'une seule réponse, l'autre requiert que cette réponse puisse émerveiller le lecteur." Cette sensation de merveilleux, précise Borges, ne doit pas faire appel au surnaturel. La solution d'une énigme policière doit être comme la démonstration d'un théorème complexe: difficile à imaginer à partir des prémisses, mais dont la nécessité s'impose par la rigueur d'une explication parfaitement logique. En plus de ces six axiomes déclarés, Borges en postule indirectement certains autres dans son article: Le véritable récit policier repousse - ai-je besoin de le préciser - avec le même dédain les risques physiques et la justice distributive. Il fait abstraction, avec sérénité, des cachots, des escaliers secrets, des remords, de la voltige, des barbes postiches, de l'escrime, des chauves-souris, de Charles Baudelaire et même du hasard. Il découle de ce passage trois règles supplémentaires :

7 : Dédain des risques physiques

Dans ce dédain des risques physiques réside l'une des principales différences avec le roman noir ou le thriller cinématographique. Borges observe que, dans les premiers exemples du genre, "l'histoire se limite à la discussion et à la résolution abstraite d'un crime, parfois à cent lieues de l'événement ou bien éloignée dans le temps". Isidro Parodi, le détective qu'il imagina avec Bioy Casares, résout les énigmes alors qu'il est enfermé dans une prison. Dans les aventures de Sherlock Holmes comme dans celles d'Hercule Poirot, la vie du détective est parfois en danger imminent, mais ces risques sont éphémères et ne constituent jamais la matière narrative principale, sauf peut-être dans leurs dernières enquêtes. C. Auguste Dupin, la vieille Miss Marple, le père Brown et Perry Mason(4) sont tous des exemples de détectives à l'abri des risques physiques.

8 : Renoncement aux considérations ou jugements moraux

Sur la question de la "justice distributive", "la Huella del crimen" de Raúl Waleis, premier roman policier argentin (il date de 1877 et a été récemment réédité - (5)), avait l'intention déclarée de favoriser une nouvelle législation, à travers l'exposé d'une affaire mettant en évidence une faille dans la justice: "Le droit est la source où je puiserai mes arguments. Les mauvaises lois doivent être dénoncées pour les effets que produit leur application. Je crée le drame auquel j'applique la loi en vigueur. Ses conséquences fatales prouveront la nécessité de la réformer. " Les enquêtes de Perry Mason et les récits de Chesterton témoignaient peut-être d'un certain attachement aux canons de la justice et aux considérations morales sur les innocents et les coupables.

9 : Rejet du hasard

À cet égard, citons les intéressantes réflexions de Patricia Highsmith, qui ne craint pas de mettre à l'épreuve la crédulité du lecteur: " J'aime beaucoup qu'il y ait dans l'intrigue des coïncidences et des situations presque (mais pas entièrement) incroyables comme par exemple le plan audacieux qu'un homme propose à un autre qu'il connaît depuis deux heures à peine dans "L'Inconnu du Nord-Express". [...] L'idéal est que les événements prennent une tournure inattendue, en gardant une certaine consonance avec le caractère des personnages. La crédulité du lecteur, son sens de la logique - qui est très élastique -, peut être étirée au maximum, mais il ne faut pas la rompre " ("L'Art du suspense" (6), chap. 5). Le hasard peut survenir dans la narration comme ellipse, tout comme, dans les comédies, on accepte qu'une porte s'ouvre pour laisser sortir un personnage et qu'un autre apparaisse aussitôt. Ou comme le catalyseur d'une circonstance propice à l'accomplissement d'un crime quand le mobile n'est pas très affirmé. C'est ce qui arrive, par exemple, avec l'apparition d'un parent éloigné, dans "Paiement différé" (7) de Cecil Scott Forester. En revanche, le hasard ne devrait pas jouer un rôle décisif dans l'explication finale. À noter que, dans la nouvelle de Borges "la Mort et la Boussole", c'est un accident fortuit, une mort inattendue, qui donne à l'assassin l'idée de la série de meurtres qu'il va commettre. D'autres règles peuvent encore être tirées de l'article de Borges :

10 : Méfiance ou rejet des procédures de l'investigation policière

"Les démarches quotidiennes des investigations policières - empreintes digitales, torture et délation - sembleraient ici des solécismes." L'enquête policière appartient à l'ordre prosaïque des faits et du bon sens. C'est ce qui établit la différence entre le plan de l'enquête officielle de la justice et l'enquête parallèle, de l'ordre de la fiction - à l'écart des critères et des paramètres usuels -, que mène le détective. Dans "la Mort et la Boussole", ironiquement, le policier et le détective ont tous deux raison, mais chacun à sa manière.

11 : L'assassin doit appartenir à la distribution initiale des personnages

"Dans les récits honnêtes, écrit Borges, le criminel est l'une des personnes qui figurent dès le début."

12 : La solution doit éviter le recours au surnaturel, qui ne peut être invoqué que comme une conjecture transitoire à écarter

La réponse doit émerveiller le lecteur "sans faire appel bien sûr au surnaturel, dont l'usage dans ce genre de fiction est un alanguissement et une félonie. Chesterton réalise toujours le tour de force de proposer une explication surnaturelle et de la remplacer ensuite, sans perdre au change, par une autre, toute naturelle."

13 : La solution ne peut comporter des éléments inconnus du lecteur

"Sont également prohibés [...] les élixirs d'origine inconnue." Voici donc les règles énoncées par Borges dans son article. Nous pourrions en rajouter quelques autres :

14 : Omission de la vie privée du détective et de ses aventures sentimentales ou sexuelles

Règle enfreinte dans tous les films policiers, où immanquablement l'enquêteur divorce, mène une existence malheureuse et a une liaison avec l'actrice principale.

15 : Dans le cas d'un double ou triple dénouement, il doit y avoir une progression, chaque fin surpassant la précédente en ingéniosité et en rigueur

Comme dans la règle des trois adjectifs que mentionne Proust à propos des salons de la bonne société française, le troisième est tenu de surpasser les deux premiers.

16 : Le meurtrier ne peut être le majordome (à moins d'être dans un congrès de majordomes)

L'assassin ne peut être un personnage trop secondaire, maintenu en permanence caché, comme une carte que l'on garde pour la fin.

17 : L'assassin ne peut être l'immigré ou le fanatique religieux ou le suspect d'extrémisme politique

Règle toujours soigneusement respectée par Agatha Christie. Les mobiles du meurtre doivent être intimes et le meurtrier doit appartenir au noyau dur de l'histoire. Cette règle est négligée de manière particulièrement décevante dans "Meurtriers sans visage", de Henning Mankell.

18 : L'assassin ne doit pas être le narrateur

Règle admirablement transgressée par Agatha Christie dans "le Meurtre de Roger Ackroyd" et, de manière plus prévisible, par Tchekhov dans "la Confession".

19 : L'assassin ne doit pas être l'enquêteur

Règle non respectée par Agatha Christie dans "le Noël d'Hercule Poirot" et par Juan José Saer dans "l'Enquête". Pourrait-on encore allonger cette liste ? Assurément. Mais cela créerait peut-être une fausse illusion, l'illusion que le genre peut être circonscrit et réduit à un formalisme d'axiomes, à une liste de règles et de procédés. Une illusion symétrique et tout aussi erronée - bien que prisée dans les tables rondes, car elle permet la pose iconoclaste et les métaphores guerrières - veut que le genre doit être dynamité, qu'il faut faire voler en éclats toutes les règles, que les lois sont faites pour être violées. Quiconque s'y est essayé sait en tout cas qu'il est difficile, sinon impossible, de se défaire de toutes à la fois, et qu'il y a dans le genre policier une tension extraordinaire entre ce qui a déjà été dit, entre la rhétorique accumulée dans des milliers de romans, et ce qui reste encore à dire, à la limite des règles. Les lois sont, en ce sens, comme une barrière que l'astuce et la créativité doivent franchir. Dans une des très rares occasions où Borges conçoit un projet de roman (dans l'article "è vero, ma non troppo", paru en 1938 dans la revue "El Hogar") ce n'est pas un hasard s'il choisit, entre tous les genres littéraires, le roman policier. Le sien serait, dit-il, "un peu hétérodoxe". Et il souligne que c'est là un point important, car "le genre policier, comme tous les genres, vit de l'incessante et délicate infraction à ses lois". Oui, la délicate infraction à ses lois.

Auteur: Martinez Guillermo

Info: Texte paru dans le quotidien argentin La Nación, le 15 août 2009, traduit de l'espagnol par François Gaudry

[ recettes ] [ écriture ]

 

Commentaires: 0

philosophe musicien

C’est au tournant du XXe siècle, après soixante-dix ans d’abandon, que l’œuvre de Rousseau comme compositeur fut redécouverte. Son Devin du village fut pourtant l’un des succès publics les plus intenses et durables de la scène lyrique, donné sans interruption de 1752 à 1829 ; tandis que son Dictionnaire de musique, publié en 1767, constitua le modèle et le réservoir de tout travail de lexicographie musicale ultérieur.

L’authenticité de ses facultés de musicien (auditeur, compositeur, " musicologue " et musicographe) est au cœur des ultimes pages autobiographiques et, notamment, de cet étonnant texte Rousseau juge de Jean-Jacques. À défendre sa paternité du Devin du village, il applique plus d’effort qu’à toute autre cause et justification. Comme Rousseau lui-même dans cet écrit, il faut donc envisager la musique comme véritablement fondatrice de sa vie, de son œuvre et de sa personne.

L’artisan musicien

Tout au long de ses Confessions, Rousseau se décrit comme un musicien de métier et ne se satisfait jamais d’être tenu pour un amateur inexpérimenté. Dès l’adolescence, il étudia l’art des sons ; jeune homme, il l’enseigna et l’exécuta ; enfin de 1750 à ses dernières années, il exerça une activité de copiste. Et il composa, rencontrant pour ces productions musicales des réactions du public aussi passionnées que pour ses écrits politiques, pédagogiques ou romanesques.

Pour l’adolescent nomade, la musique fut la seule matière d’études " encadrées ". Il chanta six mois, en 1729, dans la maîtrise de la cathédrale d’Annecy, bénéficiant de l’enseignement de Louis-Nicolas Le Maître. Puis il poursuivit en autodidacte l’apprentissage de la musique : la pratiquant avec des amateurs provinciaux (il chantait, jouait de la flûte et du clavecin, lors des " concerts " organisés aux Charmettes), en étudiant la théorie au travers de traités italiens et, surtout, des écrits de Rameau dont il " dévora ", selon ses propres termes, le Traité de l’harmonie réduite à ses principes naturels. Il s’occupa à enseigner la musique à de jeunes filles de la noblesse ou de la bourgeoisie savoyardes. Cette activité stimulait déjà son intérêt pour la pédagogie et suscitait de premières réflexions relatives à la notation musicale, de sorte qu’un Projet concernant de nouveaux signes pour la musique était prêt pour être remis à l’Académie des Sciences en 1742 à son arrivée à Paris.

De cette opiniâtreté à maîtriser l’écriture de la musique participe également sa longue pratique du métier de copiste. Il devint même sa seule source de revenus dans la dernière partie de sa vie. Il tenait à jour un registre de ses travaux, signait chacun de ses initiales et le numérotait par une combinaison de lettres et de chiffres. Du 1er avril 1772 au 22 août 1777, il dénombra ainsi 360 copies équivalant à 8 343 pages. En matière de calligraphie musicale, Rousseau a voulu également innover et clarifier, cherchant à retrouver la méthode " d’écrire par sillons, pratiquées par les anciens Grecs […] J’ai écrit de cette manière beaucoup de Musique […] m’attachant toujours à cette constante règle, de disposer tellement la succession des lignes et des pages, que l’œil n’eût jamais de saut à faire, ni de droite à gauche, ni de bas en haut. " (Lettre à M. Burney)

De la musique, Jean-Jacques Rousseau en composa et sa première notoriété dans la société parisienne fut musicale. À trente ans, il s’installait dans la capitale avec dans ses bagages quelques compositions. Après un séjour à Venise où il avait reçu la révélation de la vocalité italienne, il reprenait un acte de ses Muses galantes qu’il avait placées sous l’autorité alors révérée de Rameau et le faisait entendre chez le fermier général La Pouplinière, en septembre 1745. Rousseau y récoltait l’enthousiasme du monde mais l’hostilité du " maître " : selon Les Confessions, " Rameau prétendit ne voir en moi qu’un petit pillard sans talent et sans goût. " Flatté par l’un et irrémédiablement meurtri par l’autre, il persévérerait dans la composition et entreprendrait d’investir la sphère de la critique et de la théorie musicales. Avec Le Devin du village, créé en 1752, il obtient véritablement la gloire. Des reprises régulières à l’Académie royale de musique attestent d’un réel engouement du public pour cet ouvrage.

Dans ces mêmes années où Rousseau est un homme à la mode, il compose pour Mademoiselle Fel qui tenait les premiers rôles à l’Opéra, un Salve Regina exécuté au Concert spirituel, autre institution phare de la vie culturelle française. La musique occupera toujours le proscrit et contempteur du genre humain qu’il est devenu après la condamnation de l’Émile par le Parlement de Paris en juin 1762. En 1770, il l’honore en participant, comme auteur du texte, à la création d’une œuvre d’un genre musical inédit, le mélodrame Pygmalion. Représenté, sans son assentiment, par la Comédie-Française le 31 octobre 1775, l’ouvrage impressionne une fois encore et inaugure une formule qu’adopteront les musiciens romantiques de Beethoven à Schumann ou Liszt.

Le dernier Rousseau, consacré tout entier à l’autodéfense et à l’introspection, a dressé le catalogue de ses œuvres musicales et l’a confié au Marquis de Girardin qui l’avait accueilli à Ermenonville. On y relève le 1er acte et des airs pour le 2e d’un autre opéra, Daphnis et Chloé, de nouveaux airs pour Le Devin du village (qui furent intégrés à la reprise de 1779 à l’Opéra), 83 chansons, 10 ariettes et 3 duos, des motets. Les manuscrits de ces œuvres furent réunis en un recueil déposé à la Bibliothèque royale et elles furent publiées en 1781 sous le titre des Consolations des misères de ma vie.

Le philosophe musicographe

C’est à Rousseau que Diderot et d’Alembert confient dès 1747, la rédaction des articles " techniques " sur la musique pour l’Encyclopédie. Ils lui valurent une nouvelle réaction hostile de la part de Rameau exprimée dans les Erreurs sur la musique dans l’Encyclopédie et entraînèrent une série de contrefeux polémiques (dont la célèbre Lettre sur la musique française) avant d’être repris et complétés pour composer le Dictionnaire de musique.

Au-delà du seul pittoresque de cette querelle entre vedettes de la vie culturelle parisienne, Rousseau inaugure et attise une nouvelle étape dans la controverse séculaire engagée autour des mérites comparés de la langue (élément sonore et véhicule d’idées) et de la musique. Rameau est alors considéré comme le représentant du génie français pour avoir inscrit l’art musical dans un système rationnel et universel fondé sur les lois scientifiques de la résonance du corps sonore. Toute sa théorie est fondée sur l’harmonie. Rousseau au contraire défend la primauté de la mélodie sur l’harmonie. Selon lui, le principe harmonique défini par Rameau est inadéquat à rendre compte de la totalité du phénomène sonore puisqu’il impose l’artifice réducteur du " tempérament " qui assimile des sons de tonalités différentes et cristallise toutes les tonalités dans les seuls modes majeur et mineur. Mais surtout, il est inapte à expliquer les ressources rhétoriques et expressives du langage musical. " L’Harmonie est une cause purement physique ; l’impression qu’elle produit reste dans le même ordre ; les accords ne peuvent qu’imprimer aux nerfs un ébranlement passager et stérile. […] Les plus beaux accords, ainsi que les plus belles couleurs, peuvent porter aux sens une impression agréable et rien de plus. Mais les accents de la voix passent jusqu’à l’âme ; car ils sont l’expression naturelle des passions, et en les peignant ils les excitent. C’est par eux que la Musique devient oratoire, éloquente, imitative, ils en forment le langage ; c’est par eux qu’elle peint à l’imagination les objets, qu’elle porte au cœur les sentiments. " (Jean-Jacques Rousseau, Examen de deux principes avancés par Monsieur Rameau dans sa brochure intitulée " Erreurs sur la musique dans l’Encyclopédie ")

L’écho de cette discussion fut considérable. Les positions théoriques de Rameau étaient fixées depuis plus de vingt-cinq ans et elles avaient donné lieu à nombre de commentaires savants et d’écrits de vulgarisation qui leur assuraient la force de l’autorité. En revanche, celles de Rousseau ne connaissaient ni codification, ni finition. Jusqu’aux articles de l’Encyclopédie, elles ne se s’étaient exprimées que fragmentairement. Il y avait, de même, une disparité considérable entre Rameau et Rousseau compositeurs : au professionnel et au savant s’opposait le philosophe et le musicien débutant. Sa pratique personnelle de musicien représentait d’ailleurs pour Rousseau une première forme de lutte contre l’arrogance technique de la musique. Selon lui, elle ne doit pas être confisquée par les seuls spécialistes. On ne s’étonne pas que les premiers travaux musicaux de Rousseau aient cherché à simplifier l’écriture musicale pour la rendre accessible à tous.

La priorité de la mélodie sur l’harmonie que Rousseau martèle, comme celle de la musique sur la langue, est celle du sentiment sur la raison, de l’éthique sur la physique, de la signification sur le signe. Il y applique ce mouvement rétroactif propre à toute sa pensée qui fait de la reconstruction volontaire d’un idéal primitif la solution aux déchirures du réel et contradictions de la pensée. C’est ainsi qu’il faut interpréter le concept d’unité de mélodie, véritable contrat musical, qui, au-delà du seul contexte de la musique, représente un nœud du système de penser de Rousseau. " L’harmonie, qui devait étouffer la mélodie, l’anime, la renforce, la détermine : les diverses parties, sans se confondre, concourent au même effet ; et quoique chacune d’elles paraisse avoir son chant propre, de toutes ces parties réunies on n’entend sortir qu’un seul et même chant. C’est là ce que j’appelle unité de mélodie. " (Dictionnaire de musique : " Unité de mélodie ")

On a moqué le goût immodéré de Jean-Jacques pour les airs naïfs et pastoraux mais souvent négligé le cas qu’il fait du " récitatif obligé ", seul apte à rendre la violence ou l’ineffable des passions. Il sait donner " à la parole tout l’accent possible et convenable à ce qu’elle exprime, et jeter dans les ritournelles de la symphonie toute la mélodie, toute la cadence et le rythme qui peuvent venir à l’appui. " (Fragments d’observations sur l’Alceste italien de M. le Chevalier Gluck) On mesure l’impact immédiat qu’eut cette pensée de la musique au fait que Gluck, annonçant son arrivée à Paris et sa réforme, elle aussi controversée, de l’opéra, se plaça sous l’autorité de Jean-Jacques Rousseau. Il voulut le rencontrer et lui demanda de publier son jugement sur Alceste. Ce furent les derniers textes publics du philosophe sur la musique. Mais dans le dialogue avec lui-même que transcrivent ses œuvres ultimes, la musique est présente. Cette voix qui fonde l’humanité est aussi voix de la conscience, celle qui fonde l’être.

L'homme mélomane

La conscience de soi qu’il éprouve et qui nourrit toute sa production littéraire s’exprime dans la musique, remémorative, consolatrice, thérapeutique.

Son entrée dans le monde qu’il se rappelle sans cesse est placée sous le signe de la musique. Elle lui a été instillée avec les airs que lui chantait sa tante Suzon (souvenir des Confessions). " Je suis persuadé que je lui dois le goût ou plutôt la passion pour la musique qui ne s’est bien développée en mois que longtemps après. "

Une quête de l’identité ou du temps perdus croise toujours un souvenir musical, comme cet air évoqué dans le Dictionnaire de musique : " Le célèbre Ranz des vaches, cet Air si chéri des Suisses qu’il fut défendu sous peine de mort de le jouer dans leurs Troupes, parce qu’il faisait fondre en larmes, déserter ou mourir ceux qui l’entendaient, tant il excitait en eux l’ardent désir de revoir leur pays. "

Quand il décrit dans La Nouvelle Héloïse, faute de le vivre, un idéal de sociabilité et de bonheur, Rousseau romancier associe la musique à la rusticité, la frugalité et l’égalité qui entourent les vendanges sur les rives du Lac de Genève. " Après le souper on veille encore une heure ou deux en taillant du chanvre ; chacun dit sa chanson tour à tour. Quelquefois les vendangeuses chantent en chœur toutes ensemble, ou bien alternativement à voix seule et en refrain. La plupart de ces chansons sont de vieilles romances dont les airs ne sont pas piquants ; mais ils ont je ne sais quoi d’antique et de doux qui touche à la longue. "

La fiction, les souvenirs, les rêveries, sont des remèdes au sentiment de persécution ; les véritables consolations des misères de sa vie résident sans aucun doute dans ces musiques composées et tracées par la main de Rousseau.



 

Auteur: Giuliani Elizabeth

Info: https://gallica.bnf.fr/essentiels/rousseau/lettre-musique-francaise/rousseau-musique

[ helvètes ] [ écrivain ] [ protestantisme ] [ catholicisme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nanomonde

La majeure partie de la vie sur Terre est en sommeil, après avoir activé un " frein d’urgence"

De nombreux microbes et cellules dorment profondément, attendant le bon moment pour s’activer. Les biologistes ont découvert une protéine largement répandue qui arrête brusquement l'activité d'une cellule et la réactive tout aussi rapidement.

(Photo : Lorsque les choses se compliquent, de nombreux microbes entrent en dormance. De nouvelles recherches ont découvert une protéine omniprésente qui arrête instantanément la production de protéines dans une cellule.)

Des chercheurs ont récemment rapporté la découverte d'une protéine naturelle, appelée Balon, qui peut stopper brutalement la production de nouvelles protéines par une cellule. Balon a été trouvé dans des bactéries qui hibernent dans le pergélisol arctique, mais il semble également être fabriqué par de nombreux autres organismes et pourrait être un mécanisme négligé de dormance dans l'arbre de vie.

Pour la plupart des formes de vie, la capacité de s’isoler est un élément essentiel pour rester en vie. Des conditions difficiles comme le manque de nourriture ou le froid peuvent apparaître de nulle part. Dans cette situation désastreuse, plutôt que de s’effondrer et de mourir, de nombreux organismes sont passés maîtres dans l’art de la dormance. Ils ralentissent leur activité et leur métabolisme. Puis, lorsque des temps meilleurs reviennent, ils se réaniment.

Rester assis dans un état de dormance est en fait la norme pour la majorité de la vie sur Terre : selon certaines estimations, 60 % de toutes les cellules microbiennes hibernent à un moment donné. Même dans les organismes dont le corps entier ne se met pas en dormance, comme la plupart des mammifères, certaines populations cellulaires se reposent et attendent le meilleur moment pour s'activer.

"Nous vivons sur une planète endormie", a déclaré Sergey Melnikov , biologiste moléculaire évolutionniste à l'Université de Newcastle. "La vie, c'est avant tout dormir."

Mais comment les cellules réussissent-elles cet exploit ? Au fil des années, les chercheurs ont découvert un certain nombre de " facteurs d’hibernation ", des protéines que les cellules utilisent pour induire et maintenir un état de dormance. Lorsqu’une cellule détecte une condition défavorable, comme la famine ou le froid, elle produit une série de facteurs d’hibernation pour arrêter son métabolisme.

Certains facteurs d’hibernation démantelent la machinerie cellulaire ; d'autres empêchent l'expression des gènes. Les plus importants, cependant, arrêtent le ribosome, la machine cellulaire chargée de fabriquer de nouvelles protéines. La fabrication de protéines représente plus de 50 % de la consommation d’énergie d’une cellule bactérienne en croissance. Ces facteurs d'hibernation jettent du sable dans les engrenages du ribosome, l'empêchant de synthétiser de nouvelles protéines et économisant ainsi de l'énergie pour les besoins de survie de base.

Plus tôt cette année, en publiant dans Nature, des chercheurs ont rapporté la découverte d' un nouveau facteur d'hibernation, qu'ils ont nommé Balon. Une protéine qui est étonnamment courante : une recherche de sa séquence génétique a révélé sa présence dans 20 % de tous les génomes bactériens catalogués. Et cela fonctionne d’une manière que les biologistes moléculaires n’avaient jamais vue auparavant.

(Photo : Karla Helena-Bueno a découvert un facteur d'hibernation courant lorsqu'elle a accidentellement laissé une bactérie arctique sur la glace pendant trop longtemps. " J'ai essayé d'explorer un coin de nature sous-étudié et j'ai trouvé quelque chose ", a-t-elle déclaré.)

Auparavant, tous les facteurs connus d'hibernation perturbant le ribosome fonctionnaient passivement : ils attendaient qu'un ribosome ait fini de construire une protéine, puis l'empêchaient d'en créer une nouvelle. Balon, cependant, tire sur le frein d'urgence. Il s'introduit dans chaque ribosome de la cellule, interrompant même les ribosomes actifs au milieu de leur travail. Avant Balon, les facteurs d'hibernation n'étaient observés que dans les ribosomes vides.

"Ce papier au sujet de Balon est incroyablement détaillé", a déclaré le biologiste évolutionniste Jay Lennon, qui étudie la dormance microbienne à l'Université d'Indiana et n'a pas participé à la nouvelle étude. "Cela enrichira notre vision du fonctionnement de la dormance."

Melnikov et son étudiante diplômée Karla Helena-Bueno ont découvert Balon chez Psychrobacter urativorans, une bactérie adaptée au froid, originaire des sols gelés et récoltée dans le pergélisol arctique. (Selon Melnikov, la bactérie a été découverte pour la première fois dans un paquet de saucisses congelées dans les années 1970, puis redécouverte par le célèbre génomiciste Craig Venter lors d'un voyage dans l'Arctique.) Ils étudient P. urativorans et d'autres microbes inhabituels pour caractériser la diversité des outils de construction de protéines utilisés dans tout le spectre de la vie et pour comprendre comment les ribosomes peuvent s'adapter aux environnements extrêmes.

Parce que la dormance peut être déclenchée par diverses conditions, notamment la famine et la sécheresse, les scientifiques poursuivent ces recherches avec un objectif pratique en tête : " Nous pouvons probablement utiliser ces connaissances pour concevoir des organismes capables de tolérer des climats plus chauds ", a déclaré Melnikov, " et donc résister au changement climatique. "

Présentation : Balon

Helena-Bueno a découvert Balon entièrement par hasard. Elle s'employait à amadouer qour que les P.Urativorans grandissent joyeusement en laboratoire. Au lieu de cela, elle a fait le contraire. Elle a laissé la culture dans un seau à glace pendant trop longtemps et a réussi à la soumettre à un choc froid. Au moment où elle se rappela de sa présence, les bactéries adaptées au froid étaient devenues dormantes.

Ne voulant pas gaspiller la culture, les chercheurs ont quand même poursuivi leurs investigations initiales. Helena-Bueno a extrait les ribosomes des bactéries choquées par le froid et les a soumis à la cryo-EM. Abréviation de microscopie électronique cryogénique, la cryo-EM est une technique permettant de visualiser de minuscules structures biologiques à haute résolution. Helena-Bueno a vu une protéine coincée dans le site A du ribosome bloqué – la " porte " où les acides aminés sont livrés pour la construction de nouvelles protéines.

Helena-Bueno et Melnikov n'ont pas reconnu la protéine. En effet, cela n’avait jamais été décrit auparavant. Elle présentait une similitude avec une autre protéine bactérienne, importante pour le démontage et le recyclage des parties ribosomales, appelée Pelota de l'espagnol pour " balle ". Ils ont donc nommé la nouvelle protéine Balon, un mot espagnol pour " balle ".

"Contrairement à d’autres facteurs d’hibernation, Balon peut être inséré pour bloquer la croissance, puis rapidement éjecté comme une cassette."

La capacité de Balon à arrêter l'activité du ribosome est une adaptation essentielle pour un microbe soumis à un stress, a déclaré Mee-Ngan Frances Yap, microbiologiste à l'Université Northwestern qui n'a pas participé aux travaux. "Lorsque les bactéries se développent activement, elles produisent beaucoup de ribosomes et d'ARN", a-t-elle déclaré. " Lorsqu’elle est confrontée à un stress, une espèce peut avoir besoin d’arrêter la traduction " de l’ARN en nouvelles protéines pour commencer à économiser de l’énergie pendant une période d’hibernation potentiellement longue.

Notamment, le mécanisme de Balon est un processus réversible. Contrairement à d’autres facteurs d’hibernation, il peut être inséré pour bloquer la croissance, puis rapidement éjecté comme une cassette. Il permet à une cellule de se mettre rapidement en veille en cas d’urgence et de se réanimer tout aussi rapidement pour se réadapter à des conditions plus favorables.

Balon peut le faire car il s'accroche aux ribosomes d'une manière unique. Chaque facteur d'hibernation ribosomale découvert précédemment bloque physiquement le site A du ribosome, de sorte que tout processus de fabrication de protéines en cours doit être terminé avant que le facteur puisse s'attacher pour désactiver le ribosome. Balon, en revanche, se lie à proximité mais pas à travers le canal, ce qui lui permet d'aller et venir indépendamment de ce que fait le ribosome.

Malgré la nouveauté mécaniste de Balon, il s’agit d’une protéine extrêmement courante. Une fois identifié, Helena-Bueno et Melnikov ont trouvé des parents génétiques de Balon dans plus de 20 % de tous les génomes bactériens catalogués dans les bases de données publiques. Avec l'aide de Mariia Rybak , biologiste moléculaire à la branche médicale de l'Université du Texas, ils ont caractérisé deux de ces protéines bactériennes alternatives : une provenant du pathogène humain Mycobacterium tuberculosis, responsable de la tuberculose, et un autre chez Thermus thermophilus, qui vit dans le dernier endroit où on pourrait trouver P. urativorans, c'est-à-dire dans des bouches d'aération sous-marines ultra-chaudes. Les deux protéines se lient également au site A du ribosome, ce qui suggère qu'au moins certains de ces gènes apparentés agissent de la même manière que Balon chez d'autres espèces bactériennes.

Balon est notamment absent d' Escherichia coli et de Staphylococcus aureus, les deux bactéries les plus étudiées et les modèles de dormance cellulaire les plus largement utilisés. En se concentrant uniquement sur quelques organismes de laboratoire, les scientifiques ont raté une tactique d'hibernation largement répandue, a déclaré Helena-Bueno. "J'ai essayé d'explorer un coin de nature sous-étudié et j'ai trouvé quelque chose."

Tout le monde hiberne

Chaque cellule a besoin de pouvoir se mettre en veille et d’attendre son moment. La bactérie modèle de laboratoire E. coli possède cinq modes d'hibernation distincts, a déclaré Melnikov, chacun étant suffisant à lui seul pour permettre au microbe de survivre à une crise." La plupart des microbes sont affamés ", explique Ashley Shade, microbiologiste à l'université de Lyon, qui n'a pas participé à la nouvelle étude. " Ils vivent en constant état de manque. Ils ne se dédoublent pas et ne vivent pas leur meilleure vie ".

Mais la dormance est également nécessaire en dehors des périodes de famine. Même chez les organismes, comme la plupart des mammifères, dont le corps entier n’est pas complètement endormi, les populations cellulaires individuelles doivent attendre le meilleur moment pour s’activer. Les ovocytes humains dorment pendant des décennies en attendant d’être fécondés. Les cellules souches humaines naissent dans la moelle osseuse, puis restent au repos, attendant que le corps les appelle pour se développer et se différencier. Les fibroblastes du tissu nerveux, les lymphocytes du système immunitaire et les hépatocytes du foie entrent tous dans des phases dormantes, inactives et sans division et se réactivent plus tard.

"Ce n'est pas quelque chose qui est propre aux bactéries ou aux archées", a déclaré Lennon. " Chaque organisme de l’arbre de vie a une manière de mettre en œuvre cette stratégie. Ils peuvent suspendre leur métabolisme.

Les ours hibernent. Les virus de l'herpès se lysogénisent. Les vers forment un stade Dauer. Les insectes entrent en diapause. Les amphibiens estivent. Les oiseaux entrent en torpeur. Tous ces mots désignent exactement la même chose : un état de dormance que les organismes peuvent inverser lorsque les conditions sont favorables.

"Avant l'invention de l'hibernation, la seule façon de vivre était de continuer à grandir sans interruption", a déclaré Melnikov. "Mettre la vie sur pause est un luxe."

C'est aussi une sorte d'assurance à l'échelle de la population. Certaines cellules poursuivent leur dormance en détectant les changements environnementaux et en réagissant en conséquence. Cependant, de nombreuses bactéries utilisent une stratégie stochastique. "Dans des environnements fluctuant de manière aléatoire, si vous ne vous mettez pas parfois en dormance, il y a un risque que la population entière disparaisse" à la suite de rencontres aléatoires avec des catastrophes, a déclaré Lennon. Même dans les cultures d' E. coli les plus saines, les plus heureuses et à la croissance la plus rapide, entre 5 % et 10 % des cellules seront néanmoins dormantes. Ce sont les survivants désignés qui survivront si quelque chose arrivait à leurs cousins ​​plus actifs et plus vulnérables.

En ce sens, la dormance est une stratégie de survie face aux catastrophes mondiales. C'est pourquoi Helena-Bueno étudie l'hibernation. Elle s'intéresse aux espèces qui pourraient rester stables malgré le changement climatique, à celles qui pourraient se rétablir et aux processus cellulaires, comme l'hibernation assistée par Balon, qui pourraient aider.

Plus fondamentalement, Melnikov et Helena-Bueno espèrent que la découverte de Balon et son omniprésence aideront les gens à recadrer ce qui est important dans la vie. Nous dormons tous fréquemment et beaucoup d’entre nous l’apprécient beaucoup. "Nous passons un tiers de notre vie à dormir, mais nous n'en parlons pas du tout", a déclaré Melnikov. Au lieu de nous plaindre de ce qui nous manque lorsque nous dormons, peut-être pourrions-nous le vivre comme un processus qui nous relie à toute vie sur Terre, y compris les microbes qui dorment au plus profond du pergélisol arctique.

Auteur: Internet

Info: https://www.quantamagazine.org/ - Dan Samorodnitski, 5 juin 2024

[ prudent tâtonnements bayésiens ] [ création de réserves ] [ hivernation ] [ arrêts ] [ répits ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

addiction

Elle étudie la façon dont la toxicomanie interfère avec l'apprentissage dans le cerveau

Erin Calipari cherche à comprendre comment des drogues comme les opioïdes et la cocaïne modifient les circuits d'apprentissage et la neurochimie dans l'un des épicentres nationaux des troubles liés à la consommation de substances psychoactives et de la toxicomanie.

(Photo : La dopamine est mieux comprise comme une molécule " d’apprentissage " que comme une molécule de " plaisir ", déclare Erin. "Tout le monde doit avoir un neuromodulateur préféré dans le cerveau, et pour moi c'est la dopamine.")

À quoi ressemble l’apprentissage dans le cerveau et comment les drogues interfèrent-elles avec cela ?

Notre cerveau est programmé pour nous aider à voir les choses qui sont importantes et à y réagir. Cela détermine si nous devons refaire quelque chose ou non. Devons-nous déménager ou rester ? Est-ce bon ou mauvais? Est-ce quelque chose auquel je dois faire attention ?

Les drogues convainquent notre cerveau : " Oui, c’est important. C’est quelque chose que nous devons refaire. Les drogues déterminent non seulement les décisions concernant la drogue elle-même, mais également les décisions concernant les stimuli non médicamenteux présents dans notre environnement. Elles modifient la façon dont nous apprenons.

Comment ça marche au niveau moléculaire ?

Les médicaments comme les opioïdes agissent sur la dopamine. La plupart des gens considèrent la dopamine comme une " molécule du plaisir ", mais ce n’est pas tout. Oui, la dopamine est libérée par des stimuli enrichissants comme le chocolat ou le sucre. Mais Elle est également libérée par des stimuli aversifs comme le stress ou la douleur. Elle se déclenche lorsque les choses sont nouvelles ou différentes, qu'elles soient bonnes ou mauvaises. Et de cette façon, la dopamine est essentielle pour vous aider à apprendre.

Les drogues continuent essentiellement à stimuler la dopamine même lorsque les choses ne sont plus nouvelles ou différentes. Le cerveau continue de penser que quelque chose est important, vous signalant ainsi de continuer à y prêter attention. Mais si les drogues augmentent la dopamine sur le moment, leur consommation à long terme la diminue. Ainsi, avec la consommation croissante de drogues, il y a de moins en moins de dopamine dans le cerveau, ce qui signifie que vous avez du mal à apprendre quelque chose de nouveau.

La dopamine doit-elle être redéfinie comme une molécule " d’apprentissage " plutôt que comme une molécule de " plaisir " ?

Oui. Comprendre la dopamine en tant que molécule qui détermine l’efficacité de notre apprentissage est beaucoup plus précis.

Comment étudiez-vous ce système compliqué ?

Dans mon laboratoire, nous utilisons différentes stratégies pour enregistrer et manipuler différentes cellules du cerveau afin d’essayer de déterminer quelles cellules et quels circuits nous aident à prendre des décisions adaptatives. Et puis, une fois que nous avons identifié ces circuits, nous y allons et disons : Comment l'exposition aux drogues change-t-elle le fonctionnement du système ? Nous effectuons ce travail au niveau physiologique et épigénétique. L’objectif est de comprendre la biologie fondamentale – comment les médicaments détournent les circuits – et ensuite de déterminer si nous pouvons inverser le processus. Nous pouvons utiliser les outils CRISPR*, par exemple, pour inverser une partie de la plasticité de cellules cérébrales spécifiques.

Comprendre le fonctionnement de la dopamine peut-il éventuellement nous aider à développer des traitements contre la dépendance ?

Comprendre ce que fait la dopamine pour aider le cerveau à apprendre est vraiment important. Mais ce sera très difficile à cibler. Vous ne pouvez pas simplement bloquer la dopamine : si vous le faites, les gens ne pourront plus bouger, ils ne pourront plus prêter attention à quoi que ce soit. De nombreux travaux sont en cours sur différentes manières d'affiner le système dopaminergique au lieu de simplement l'activer ou le désactiver. Je pense que c'est ce que nous allons devoir faire.

Qu'est-ce que ça fait de travailler en tant que chercheur en toxicomanie dans l'un des épicentres de la toxicomanie ?

Nashville est mauvais. Au plus fort de l’épidémie d’opioïdes, le Tennessee avait l’un des taux de prescriptions d’opioïdes les plus élevés. Ces dernières années, ce chiffre a diminué, mais pas le problème des opioïdes. Et il ne s’agit pas uniquement d’opioïdes pour nous ; la méthamphétamine est également un problème important. Vanderbilt se trouve donc dans cet espace unique en tant que l’un des plus grands hôpitaux de recherche de la région, au cœur des troubles liés à l’usage de ces substances.

Parfois, il est épuisant de ne pas pouvoir résoudre sa dépendance. C'est écrasant dans un sens pas sympa. Parfois, c'est triste de parler à des personnes qui souffrent de troubles liés à l'usage de substances, et je ne sais pas comment les aider. Elles me posent des questions, mais si je suis experte des changements neurobiologiques spécifiques qui se produisent il m’est difficile de comprendre l’impact de ce trouble sur la vie quotidienne d’un individu puisque je ne l’ai pas vécu personnellement.

Sommes-nous sur le point de comprendre et, à terme, de trouver un remède à la dépendance ?

Guérir de la dépendance est difficile car la dépendance n’est pas une maladie uniforme. Certaines personnes souffrant de dépendance souffrent de troubles comorbides comme l’anxiété et la dépression. Certaines personnes prennent des drogues pour éviter la douleur. Certaines personnes ont un comportement compulsif, d’autres non.

Il sera essentiel de comprendre ce qui est similaire et différent dans le cerveau des individus présentant chacun de ces symptômes uniques pour comprendre comment aborder le traitement en premier lieu. Dans mon laboratoire, par exemple, nous étudions les différences entre les hommes et les femmes.

Qu'avez-vous découvert ?

Lorsque l’on examine les raisons pour lesquelles les gens consomment de la drogue, les femmes sont plus susceptibles de déclarer qu’elles en prennent pour éviter ou échapper à des conséquences négatives, comme le stress et l’anxiété. Les hommes sont plus susceptibles de consommer des drogues de manière impulsive, de planer et de sortir avec des amis. Les deux sexes consomment des drogues et un certain pourcentage d’entre eux développeront un trouble lié à l’usage de substances. Mais ils le font pour différentes raisons.

Les hormones ont beaucoup à voir avec cela. Nous avons découvert que l'estradiol, une hormone ovarienne qui circule avec le cycle menstruel, modifie la façon dont la nicotine agit dans le cerveau en modifiant les fonctions de ses récepteurs.

Nous avons également constaté que si l’on donne aux animaux un accès illimité aux drogues, les mâles et les femelles consomment la même quantité de drogues et leur comportement semble identique. Mais lorsque nous avons examiné les modifications apportées aux protéines de leur cerveau, les hommes et les femmes étaient totalement différents. Beaucoup de ces protéines ont des fonctions cellulaires similaires. Nous pensons que ce médicament augmente la dopamine chez les hommes et les femmes et détermine le comportement de la même manière, mais les voies moléculaires utilisées par chaque sexe sont très différentes.

Pourquoi les cerveaux de sexes différents emprunteraient-ils des chemins différents pour arriver au même point ?

Si vous aviez un système dans lequel vous avez besoin d’un neurone pour coder une information, ce système serait susceptible de tomber en panne. Tout devrait fonctionner parfaitement à chaque fois pour que vous puissiez naviguer dans l'environnement. Mais le cerveau comporte de nombreuses redondances, ce qui signifie que vous n’avez pas besoin que tout fonctionne parfaitement. Il existe de nombreuses façons d’arriver au même but. La raison pour laquelle les mâles et les femelles ont des manières différentes de coder leurs comportements est probablement basée sur l'évolution et la survie de notre espèce.

Cela doit être un domaine difficile dans lequel travailler. Qu'est-ce qui vous motive ?

Ce qui me préoccupe chaque jour, c’est que ce sont des questions importantes. Apprendre la prochaine chose et résoudre des problèmes difficiles est en soi très satisfaisant. Ensuite, lorsque vous respirez, prenez du recul et réalisez que les problèmes difficiles que vous résolvez ont vraiment un impact sur les gens, cela rend le tout encore plus significatif. Mais ma véritable motivation réside dans le mentorat de la prochaine génération. Lorsque je me suis lancé dans la recherche, mon objectif était d’influencer le plus de personnes possible. Je pensais y parvenir en découvrant quelque chose d'important et en changeant la société, ce qui est évidemment le but ultime. Mais ensuite, quand je suis arrivée ici et que j'ai installé mon laboratoire, j'ai réalisé que ce qu'on fait, c'est apprendre aux étudiants qu'ils peuvent faire ce travail. Leur permettre de découvrir ce pour quoi ils sont bons et ce qu'ils aiment me permet de continuer, même lorsque la science ne va pas toujours comme je le souhaite.

Vous êtes un peu comme l'entraîneur de votre propre équipe.

Lorsque vous finissez par diriger un laboratoire, vous réalisez qu’il s’agit d’une grande partie de la science, mais aussi d’une grande partie de la non-science. Il s'agit d'amener les gens à travailler ensemble et de créer l'environnement approprié pour chaque individu, ce qui peut s'avérer difficile. C'est comme constituer une équipe. S'ils travaillent ensemble, c'est moins difficile pour chacun. Et si vous le faites correctement, alors tout le monde y gagne.

Vous défendez également les femmes scientifiques. D’où vient cette motivation ?

Personne dans ma famille n’avait de diplôme d’études supérieures avant moi. Parce que mon père est sportif, l'accent n'était pas mis sur les études. Ensuite, je me suis retrouvé dans un espace dans lequel – je ne veux pas dire que je n’avais rien à faire, mais j’étais entouré d’un groupe de personnes qui, à mon avis, étaient plus intelligentes que moi. Ils savaient ce qu'ils faisaient. Ils savaient quel chemin ils étaient censés emprunter.  Heureusement j’ai eu des mentors extraordinaires qui m’ont aidé à rester sur un chemin que je ne connaissais pas. Et puis, en vieillissant, j’ai commencé à réaliser que ma place était ici. J'étais aussi intelligente que les gens autour de moi. Cela seul m’a fait réaliser à quel point il est important que les gens se sentent à leur place.

Au lieu de demander aux femmes d'agir comme des hommes pour s'intégrer dans un système construit pour les hommes, peut-être devrions-nous changer le système pour renforcer les éléments qui nous manquent, c'est-à-dire les éléments que les femmes apportent à la table : la façon dont elles naviguent dans le monde, comment elles perçoivent les choses, comment elles accompagnent les étudiants. Nous bénéficions énormément de la création d’un espace pour les femmes.

Vous avez fait du sport toute votre vie, y compris le basket-ball à l'université. Pensez-vous que cela a eu une influence sur votre carrière aujourd’hui ? 

Les choses les plus importantes que l’on apprend dans le sport sont comment se dépasser pour s’améliorer chaque jour, comment se remettre d’un échec et comment compter sur ses coéquipiers. Quand j'étais plus jeune, ces expériences m'ont appris à venir travailler après qu'une expérience n'ait pas fonctionné et à demander de l'aide lorsque j'en avais besoin.

Durant mon entraînement, j’étais l’athlète qui jouait à un jeu. Cependant, lorsque je suis devenu professeur, je suis tout d’un coup devenu entraîneur. Mon travail est différent maintenant. Il se concentre sur la façon dont je peux amener mon équipe à s’améliorer. Je dois identifier les points forts de chacun et les mettre en mesure de réussir. Je suis également là pour les aider à combler les lacunes avec d’excellents coéquipiers qui sont bons dans des domaines pour lesquels ils ne sont peut-être pas bons. Le sport m'a donné les compétences nécessaires pour me concentrer sur le travail acharné et la motivation, et m'a donné un cadre pour créer une équipe efficace et la motiver à donner le meilleur d'elle-même.

Votre père, John Calipari , est un entraîneur de basket-ball professionnel. Était-il un mentor pour vous ?

Il était un mentor extraordinaire, mais plus par les choses qu'il faisait que par les choses qu'il disait. Quand j'étais au collège, il a été viré. Le regarder se faire virer, puis revenir et dire : " Vous savez quoi, tout va bien ; Je vais me lever et recommencer " – c'était vraiment important pour moi de réaliser que même lorsque les choses semblent être d'énormes échecs, c'est parfois le début de quelque chose de nouveau.

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 7 décembre 2023 *système simple, rapide et efficace pour couper l'ADN à un endroit précis du génome, dans n'importe quelle cellule.

[ accoutumance ] [ femmes-hommes ] [ éducation ] [ dépaysement ] [ ajustement ]

 

Commentaires: 0

Ajouté à la BD par miguel

exobiologie

Les extraterrestres sont-ils là sous nos yeux ?

Difficile de détecter quelque chose sans avoir aucune idée de ce que c'est.

Cette année, plusieurs missions sont en quête de vie sur la planète rouge. Mais reconnaîtrions-nous des extraterrestres si nous les trouvions ? En juillet, trois missions non habitées se sont envolées vers Mars : de Chine (Tianwen-1), depuis les États-Unis (Mars 2020 Perseverance Rover de la Nasa) et des Émirats arabes unis (Hope). Les missions chinoise et américaine sont équipées d'atterrisseurs qui rechercheront des signes de vie actuelle ou passée sur Mars. La Nasa prévoit également d'envoyer sa sonde Europa Clipper sur la lune de Jupiter, Europa, et l'atterrisseur robotisé Dragonfly sur la lune de Saturne, Titan. Ces deux lunes sont considérées comme des terrains de chasse prometteurs pour la vie dans notre système solaire, tout comme les océans souterrains d'Encelade, la lune glacée de Saturne.

En attendant, nous pouvons désormais entrevoir la composition chimique des atmosphères des planètes qui orbitent autour d'autres étoiles (exoplanètes), dont plus de 4 000 sont aujourd'hui connues. Certains espèrent que ces études pourraient révéler d'éventuelles signatures de vie.

Mais ces recherches peuvent-elles être efficaces si nous n'avons pas une idée claire de ce qu'est la "vie" ? La définition officieuse de la Nasa est la suivante : "système chimique autonome capable d'évolution darwinienne". "La Nasa a besoin d'une définition de la vie pour savoir comment construire des détecteurs et quels types d'instruments utiliser lors de ses missions", explique le zoologiste Arik Kershenbaum, de l'université de Cambridge. Mais tout le monde ne pense pas qu'elle utilise la bonne définition.

L'astrobiologiste Lynn Rothschild, du centre de recherche Ames de la Nasa en Californie, voit une mise en garde dans l'histoire de Winnie l'ourson d'AA Milne, dans laquelle Pooh et Piglet chassent un Woozle sans savoir à quoi il ressemble et confondent leurs propres empreintes avec ses traces. "On ne peut chasser quelque chose sans avoir aucune idée de ce que c'est", dit-elle.

Le problème de la définition de la vie hante les planétologues depuis que les deux atterrisseurs Viking de la Nasa se sont posés sur Mars en 1976. Depuis, les rovers ont parcouru des dizaines de kilomètres sur les plaines martiennes mais n'ont trouvé aucun signe de vie. Mais saurions-nous la reconnaître si nous la voyions ?

Certains astrobiologistes - scientifiques qui étudient la possibilité de vie sur d'autres mondes - pensent que notre vision est trop étroite. Nous ne connaissons qu'un seul type de vie : la vie terrestre. Tous les êtres vivants sur Terre sont constitués de cellules adaptées à un environnement aquatique, utilisant une machinerie moléculaire construite à partir de protéines et codée sous forme de gènes dans l'ADN. Peu de scientifiques pensent que la vie extraterrestre - si tant est qu'elle existe - repose sur les mêmes éléments chimiques. "Il serait erroné de supposer que la biochimie qui nous est familière est celle que nous allons trouver sur d'autres planètes", déclare Kershenbaum. La surface de Titan, par exemple, est trop froide (moins 179 °C) pour contenir de l'eau liquide, mais la mission de l'atterrisseur Huygens en 2005 a révélé la présence de lacs d'un autre type, constitués d'hydrocarbures comme ceux de l'essence, principalement du méthane et de l'éthane.

Rothschild pense que les règles universelles de la chimie réduisent certaines des options. "J'ai du mal à imaginer une autre forme de vie qui ne soit pas basée sur le carbone", dit-elle. Il est donc logique de concevoir les missions planétaires de recherche de la vie en gardant cela à l'esprit. L'eau présente également "une tonne d'avantages" en tant que solvant de la vie. Même si des réactions chimiques intéressantes se produisaient dans les lacs de méthane de Titan, elles seraient fortement ralenties par les températures glaciales. La vie pourrait-elle se dérouler à un rythme aussi glacial ? Le planétologue Stuart Bartlett, de l'Institut de technologie de Californie à Pasadena, garde l'esprit ouvert. "Il pourrait y avoir des organismes flottant dans l'atmosphère de Titan qui boivent essentiellement de l'essence pour se maintenir", dit-il.

On a longtemps pensé que toute entité méritant d'être qualifiée de vivante possède des attributs qui ne dépendent pas de sa composition chimique précise. Il est toutefois très difficile de définir ces qualités générales. Les systèmes vivants - même les bactéries - sont extrêmement complexes, maintenus par des informations qui passent (dans notre cas via les gènes) entre les générations et créent une organisation. Mais il ne s'agit pas de l'ordre froid et mort des cristaux, où les atomes sont empilés selon des motifs réguliers. Il s'agit plutôt de l'ordre dynamique d'une ville ou d'une formation nuageuse, que les scientifiques qualifient de "déséquilibré" : il est constamment alimenté en énergie et ne s'installe pas dans un état statique.

Bartlett et Wong proposent une catégorie plus large appelée "lyfe", dont la vie telle que nous la connaissons n'est qu'une variante.

Lorsque James Lovelock, aujourd'hui connu pour l'hypothèse Gaia qui propose que notre planète entière soit assimilée à une entité vivante, participa à la conception des atterrisseurs Viking dans les années 1970, il suggéra de rechercher un tel déséquilibre chimique dans l'environnement - que seule la vie pourrait éventuellement maintenir sur des échelles de temps géologiques. Il s'agit plutôt de l'ordre dynamique d'une ville ou d'une formation nuageuse, que les scientifiques qualifient de "déséquilibré" : Les deux étant constamment alimentés en énergie et ne s'installent pas dans un état statique.  Mais des états de "déséquilibre ordonné" peuvent également être trouvés dans des systèmes non vivants, comme des liquides fluides, de sorte que ce seul critère ne permet pas d'identifier la vie.

Bartlett, en collaboration avec l'astrobiologiste Michael Wong de l'Université de Washington à Seattle, soutient que nous devons échapper au carcan de la pensée terrestre sur la vie. Ils proposent d'introduire une catégorie plus large appelée "lyfe" (prononcé, d'une façon étrangement typique du West Country, comme "loif"), dont la vie telle que nous la connaissons n'est qu'une variation. "Notre proposition tente de se libérer de certains des préjugés potentiels dus au fait que nous faisons partie de cette seule instanciation de lyfe", explique Bartlett. Ils suggèrent quatre critères pour la lyfe :

1. Elle puise dans les sources d'énergie de son environnement qui l'empêchent de devenir uniforme et immuable.

2. Elle connaît une croissance exponentielle (par exemple par réplication).

3. Elle peut se réguler pour rester stable dans un environnement changeant.

4. Elle apprend et se souvient des informations sur cet environnement. L'évolution darwinienne est un exemple de cet apprentissage sur des échelles de temps très longues : les gènes préservent les adaptations utiles à des circonstances particulières.

Les deux chercheurs affirment qu'il existe des systèmes "sublyfe" qui ne répondent qu'à certains de ces critères, et peut-être aussi des "superlyfe" qui en remplissent d'autres : des formes lyfe qui ont des capacités supérieures aux nôtres et qui pourraient nous regarder comme nous regardons des processus complexes mais non vivants tels que la croissance des cristaux.

"Nous espérons cette définition libère suffisamment notre imagination pour que nous ne passions pas à côté de formes de lyfe qui pourraient se cacher à la vue de tous", déclare Bartlett. Lui et Wong suggèrent que certains organismes lytiques pourraient utiliser des sources d'énergie inexploitées ici sur Terre, comme les champs magnétiques ou l'énergie cinétique, l'énergie du mouvement. "Il n'existe aucune forme de vie connue qui exploite directement l'énergie cinétique dans son métabolisme", déclare Bartlett.

Selon eux, il pourrait y avoir d'autres moyens de stocker des informations que dans des brins génétiques comme l'ADN. Les scientifiques ont, par exemple, déjà imaginé des moyens artificiels de stocker et de traiter l'information en utilisant des réseaux bidimensionnels de molécules synthétiques, comme des réseaux en damier ou des abaques. Selon Bartlett, la distinction entre "alyfe" et "non-lyfe" pourrait être floue : être "alyve" pourrait être une question de degré. Après tout, les scientifiques se disputent déjà sur la question de savoir si les virus peuvent être considérés comme tels, même si personne ne doute de leur capacité à détruire la vie.

Il est sceptique quant à la notion de la définition de travail de la Nasa selon laquelle la vie ne peut apparaître et se développer que par l'évolution darwinienne. Il affirme que même les organismes terrestres peuvent façonner leur comportement d'une manière qui ne dépend pas d'un mécanisme Darwinien, à savoir des mutations aléatoires couplées à une compétition pour les ressources qui sélectionne les mutations avantageuses. "L'évolution darwinienne existe bien sûr, mais je pense qu'elle doit être complétée par une vision plus large de l'apprentissage biologique", déclare-t-il.

L'astrobiologiste et physicienne Sara Walker, de l'Arizona State University, partage cet avis. "Il se peut que certains systèmes possèdent de nombreux attributs de la vie mais ne franchissent jamais le seuil de la vie darwinienne", dit-elle. Mais dans son nouveau livre The Zoologist's Guide to the Galaxy, Kershenbaum affirme qu'il est difficile d'imaginer un autre processus susceptible de produire des systèmes chimiques complexes dignes d'être considérés comme vivants (ou alyves). L'évolution par sélection naturelle, dit-il, suit "des principes bien définis dont nous savons qu'ils s'appliqueront non seulement sur Terre mais aussi ailleurs dans l'univers" - et il est "très confiant dans le fait qu'elle sera à l'origine de la diversité de la vie sur les planètes extraterrestres". Si c'est le cas, affirme-t-il, nous pouvons faire des hypothèses raisonnables sur d'autres attributs de ces planètes : par exemple, la vie aura un processus comme la photosynthèse pour récolter l'énergie de l'étoile mère.

Bartlett et Wong se demandent également si les choses vivantes doivent avoir des frontières physiques bien définies.

Après tout, alors que nous pourrions imaginer n'être que tout ce qui se trouve à l'intérieur de notre peau, nous dépendons d'autres organismes en nous : le micro-biote des bactéries dans nos intestins par exemple. Et certains philosophes soutiennent que notre esprit s'étend au-delà de notre cerveau et de notre corps, par exemple dans nos appareils technologiques. "Nous pensons que la vie est un processus qui se déroule probablement à l'échelle de planètes entières", déclare Bartlett. Walker convient que "la seule limite naturelle des processus vivants est la planète", ce qui rappelle l'hypothèse Gaia de Lovelock.

Mais en l'absence d'une limite pour les ingrédients moléculaires, dit Rothschild, tous les composants d'un système vivant se dilueraient dans son environnement, comme des gouttelettes d'encre dans l'eau. Et Kershenbaum affirme que des organismes distincts et délimités sont nécessaires si l'évolution est darwinienne, car ce n'est qu'alors qu'il y a quelque chose d'autre à concurrencer.

Walker pense qu'en fait Bartlett et Wong ne vont pas assez loin dans leur tentative de libérer les idées quant à une vie terracentrique. Leur notion de lyfe, dit-elle, "fait table rase de bon nombre des problèmes omniprésents dans les définitions actuelles de la vie en proposant une définition plus large basée sur les définitions existantes. Les problèmes de base restent les mêmes. Nous n'avons pas besoin de nouvelles définitions de la vie. Ce dont nous avons besoin, c'est de nouvelles théories qui s'attaquent aux principes sous-jacents qui régissent la physique du vivant dans notre univers."

Une autre possibilité d'élargir notre vision de ce que pourrait être la vie est que nous devenions capables de créer de toutes pièces, en laboratoire, des systèmes vivants totalement différents de ceux que nous connaissons. "Nous en sommes beaucoup plus proches que vous ne le pensez", déclare M. Rothschild. En fait, cela s'est peut-être déjà produit et nous ne nous en sommes pas rendu compte, ajoute-t-elle, en plaisantant à moitié. Si nous ne savons pas ce que nous cherchons, un chercheur a peut-être déjà créé une nouvelle forme de vie - et l'a jetée dans l'évier.

En fin de compte, nous ne devrions peut-être pas être trop sûrs que la vie corresponde à une quelconque définition naturelle, estime M. Rothschild. "Je crois que ce que nous avons actuellement, ce sont des définitions non naturelles de la vie, parce que nous n'avons qu'un seul point de données. Je me demande si la vie n'est pas simplement ce que nous définissons."

"Nous pourrions découvrir des systèmes si bizarres et inattendus qu'il serait ompossible de décider s'ils sont vivants ou non", dit Kershenbaum. "Mais si nous découvrons quelque chose de vraiment intéressant et complexe qui ne correspond pas tout à fait à la définition de la vie, cela restera une avancée passionnante. Nous n'allons pas l'ignorer parce que ça ne correspond pas à notre définition !"

Auteur: Ball Philip

Info: The Guardian, 5 Septembre 2020 - Are aliens hiding in plain sight?

[ dépassement conceptuel ] [ spéculations ] [ changement de paradigme ] [ révolution scientifique ] [ monade planétaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Le premier chapitre de l’ouvrage montre que la période grecque est déterminante pour les développements ultérieurs de la connaissance, elle a posé certains principes fondamentaux qui seront discutés jusqu’à nos jours. En synthétisant les apports de penseurs grecs d’Héraclite et Parménide, de Socrate à Platon, Aristote et Épicure, Martine Bocquet pointe qu’à cette époque le signe (séméïon) est secondaire, il est considéré comme un signe de la nature que l’on peut interpréter (symptôme de maladies, foudre, etc.). Il s’oppose au mot qui, lui, repose sur une relation conventionnelle. Martine Bocquet montre qu’Aristote est important pour la sémiotique, de Deely en particulier. Réaffirmant l’importance du rapport sensible au monde, face à Platon, il a placé le séméïon au fondement de la connaissance et orienté ses recherches vers la relation comme catégorie discursive (pp. 33-45), notion qui sera au cœur des discussions des scoliastes.

Le chapitre deux montre l’évolution importante des notions de signe et de relation à la période latine médiévale et scolastique. Suivant l’étude de Deely, Martine Bocquet souligne le rôle d’Augustin d’Hippone. En traduisant le séméïon grec en signum, il a proposé la première formulation générale du signe qui subsume l’opposition entre nature et culture entre lesquelles il fonctionne comme une interface (p. 65, 68). Bien qu’elle demeure imparfaite, l’approche d’Augustin pose d’une part les fondements d’une théorie relationnelle de la connaissance ; d’autre part, en maintenant une distinction entre signe naturel (signum naturale, séméïon) et signe conventionnel (signum datum), elle ouvre sur une conception de la communication, tout à fait intéressante, engageant tous les êtres vivants (animaux, plantes) (p. 67, 69). D’une autre façon, la problématisation de la relation apparaît tout aussi importante à cette période. En distinguant, chez Aristote, la relatio secundum dici (relation transcendantale) — relation exprimée par le discours — et la relatio secundum esse (relation ontologique) — relation en tant qu’entité particulière (p. 70) — Boèce permet de concevoir l’existence de relations ontologiques, indépendantes de la pensée (p. 73) — fondamentales chez Poinsot, Peirce et Deely. Cette distinction aura son incidence puisqu’elle posera les termes de la querelle des universaux, tournant épistémologique majeur de l’histoire des connaissances.

Initiée par Pierre Abélard, la "querelle des universaux" est abordée par Martine Bocquet au chapitre trois et apparaît comme le point pivot de l’ouvrage (pp. 107-112) dans la mesure où elle aura une incidence sur le rapport au monde et à la connaissance. La dispute, qui porte sur la nature de l’objectivité et du statut de réalité des entités dépendantes ou non de la pensée, par le biais de la catégorie aristotélicienne de relation, et, par extension, de celle de signe, oppose les réalistes aux nominalistes.

Les penseurs dits "réalistes", parmi lesquels Thomas d’Aquin, Roger Bacon, Duns Scot, considèrent que le signe est constitué d’une relation indépendante de la pensée, dite ontologique, à la nature. Le traitement de Martine Bocquet montre clairement que Deely se retrouve dans la pensée de ces auteurs, dont il a avant tout souligné la contribution à la sémiotique de Peirce : (i) le signe subsume l’activité cognitive (pp. 80-81) (ii) la relation de signe est dans tous les cas triadique (p. 82), (iii) les signes se constituent de manière dynamique, ce qui leur permet d’agir (sémiosis) et de jouer un rôle dans l’expérience et la connaissance (pp. 83-86).

Martine Bocquet met particulièrement en évidence la pensée de Jean Poinsot (Jean de St-Thomas), en soulignant son influence sur Deely. L’originalité de ce dernier est d’avoir considéré Poinsot comme le précurseur d’une sémiotique voisine de celle de Peirce, plus ontologique encore. Pour le résumer en quelques points, Poinsot défend avant tout que la nature et la réalité du signe sont ontologiques (secundum esse), c’est-à-dire que le signe est une relation dont le véhicule est indifférent à ce qu’il communique (p. 102). Ce point est essentiel car il permet de doter le signe d’une nature proprement relationnelle : (i) il pointe vers autre chose (une autre réalité physique ou psychique), (ii) il permet d’articuler la subjectivité et l’intersubjectivité et (iii) opère la médiation entre les choses (indépendantes de la pensée) et les objets (dépendants de la pensée) (pp. 105-106) ; ce que la représentation, où l’objet pointe vers lui-même, n’autorise pas. Le point de vue de Poinsot est déterminant, car les nombreux retours vers sa pensée réalisés tout au long de l’ouvrage, montrent que c’est au prisme de ces principes que Deely réévaluait les pensées modernes.

De l’autre côté, les "nominalistes" comme Guillaume d’Ockham considèrent que la réalité est extra mentale, que seules les causes externes sont réelles, et qu’en conséquence, les relations intersubjectives n’existent que dans la pensée. Malgré l’intervention des successeurs d’Ockham qui, contrairement à celui-ci, admettront le signe, divisé en deux entités — signes instrumentaux (physiques, accessibles aux sens) et signes formels (concepts) — à partir de 1400 environ, les concepts (signes formels) seront considérés comme des représentations (p. 91). Martine Bocquet montre bien que le principe nominaliste, souvent simplifié, sera largement adopté par les sciences empiriques qu’il permettra de développer, mais cela, et c’est l’enjeu de la démarche de Deely, au détriment du rapport entre le monde et les sens.

Dans le quatrième chapitre consacré à la modernité, Martine Bocquet montre comment Deely a pointé les problèmes et les limites posés par l’héritage du nominalisme, en mettant notamment en perspective les travaux des empiristes (John Locke, David Hume), puis ceux de Kant, avec les propositions de Poinsot. Elle montre d’emblée que le rationalisme de Descartes, où la raison est indépendante et supérieure à la perception, conduira à renégocier la place de la perception dans la connaissance. En concevant les qualités des sens comme des images mentales, les modernes renversent l’ordre de la perception sensorielle reconnu par les scoliastes, les qualités sensorielles (couleurs, odeurs, sons) autrefois premières sont reléguées au second plan (p. 117). Les empiristes (John Locke, George Berkeley, David Hume) contribueront à considérer l’ensemble des sensations comme des images mentales, ils ne seront alors plus capables de s’extraire de la subjectivité (p. 121-124). À ce titre, Martine Bocquet porte à notre attention que Deely avait bien montré que l’empirisme et le rationalisme éludaient la description du phénomène de cognition.

L’approche de Kant apparaît dans l’ouvrage comme point culminant, ou synthèse, de la pensée moderne. En suivant les pas de Deely, Martine Bocquet prend le soin de mettre son travail en perspective avec la pensée de Poinsot, ce qui permet de réaffirmer sa pertinence dans le projet sémiotique de Deely. Kant a eu le mérite d’envisager des relations objectives. Toutefois, en limitant la cognition aux représentations, il la sépare de la signification, c’est-à-dire du supplément de sens contenu dans l’objectivité (au sens de Poinsot), et se coupe de l’expérience de l’environnement sensible qui permet à l’homme de connaître et de constituer le monde (pp. 130-131). Martine Bocquet insiste sur le fait que, selon Deely, la pensée kantienne est lourde de conséquences puisqu’en inversant les concepts d’objectivité et de subjectivité, elle enferme l’individu dans sa propre pensée (p. 134), reléguant la communication au rang d’illusion.

Le dernier chapitre de l’ouvrage est consacré aux chercheurs post-modernes, qui ont marqué la fin du modernisme et opéré un retour vers le signe. On y trouve notamment les apports d’Hegel et de Darwin, entre autres, qui ont permis d’affirmer le rôle concret de la relation ontologique dans la cognition, et la prise des facultés cognitives avec l’environnement physique. Martine Bocquet consacre une grande partie du chapitre à la sémiotique en tant que discipline, ce qui lui permet de réaffirmer l’ancrage de Deely dans l’héritage peircien qui est ici clairement distingué des modèles de Saussure et Eco.

Martine Bocquet rappelle d’abord que la pensée de Peirce s’inspire des réalistes (d’Aquin, Duns Scot) et considère donc que les produits de la pensée sont bien réels, et non de simples constructions des sens. La sémiotique qu’il développe appréhende la signification comme un parcours de pensée dynamique entre expérience et cognition. Dans son modèle ternaire, présenté en détail, la relation de tiercité caractérise le fonctionnement de la cognition humaine depuis la perception d’indices jusqu’à la constitution d’un système de signification ; elle est propre à l’homme qui peut se référer à la réalité mais aussi évoquer des choses imaginées (p. 146). L’intérêt de ce modèle est de permettre d’envisager que les non-humains utilisent aussi des signes, possibilité envisagée par Peirce dans sa « grande vision », doctrine qui selon Bocquet fascine Deely. Ce projet consistait à étendre la sémiotique au vivant, considérant que l’action des signes est enracinée dans toutes les choses du monde. Il ouvre sur un vaste champ de recherche abordé en conclusion, sur lequel nous reviendrons.

Contrairement à la sémiotique peircienne, Bocquet montre que John Deely considère que la sémiologie de Saussure, reposant sur le signe linguistique, est limitée car elle ne s’occupe que des signes conventionnels, culturels. De ce fait, elle se montre non seulement incapable d’approcher le signe naturel mais elle court aussi le risque de faire de la réalité une construction de l’esprit (idéalisme). En dépit d’un substrat peircien partagé, la même critique sera adressée à la théorie des codes d’Eco puis, plus loin dans la conclusion de Martine Bocquet (pp. 171-172), au structuralisme (Greimas, Lévi-Strauss). En somme, ces sémiotiques sont très efficaces pour étudier les systèmes de signes spécifiquement humains, mais, enfermées dans le langage et la culture, elles sont incapables de traiter les signes naturels, toute tentative révèle leur idéalisme. À cet endroit, l’auteure met bien en évidence l’opposition irréductible entre, d’un côté, ces théories qui ne rendent compte ni du signe naturel ni de la reconnaissance des phénomènes de la nature, et de l’autre, la posture de Deely qui défend l’idée que les données des sens ne sont jamais déconnectées et que la perception comprend une structure d’objectivité car les relations sont réelles (p. 165). Finalement, au travers de l’ouvrage, Bocquet montre que Deely prônait un retour à l’universalité du signe.

La conclusion du livre indique que Deely plaçait le signe et la sémiotique au cœur d’une pensée postmoderne capable de rétablir le dialogue entre les sciences dures et les sciences de la communication. Ce dialogue répondrait à la nécessité de comprendre l’action des signes autant dans la nature que dans la culture. Pour concrétiser cela, Deely propose un retour au réalisme oublié des scoliastes latins pour réviser les théories des modernes afin de renouer le lien avec la nature, en tenant compte des entités dépendantes et indépendantes de la pensée (p. 168).

Cette posture s’inscrirait, selon Martine Bocquet, dans un projet sémioéthique au sein duquel l’homme prendrait conscience de ses responsabilités vis-à-vis de la nature. Finalement, la solution à adopter correspond à la "grande vision" de Peirce, introduite en amont, c’est-à-dire une doctrine des signes qui, d’une part, intègre l’ensemble de la connaissance humaine du sensoriel aux interactions sociales et à la culture et, d’autre part, étend la sémiotique à l’ensemble du monde vivant, considéré comme un réseau de significations entre humains et non-humains, et noué sur une relation ontologique présente dans toute chose (pp. 169-170). Mis en application dans les années 1960, ce projet a donné lieu à un ensemble de sémiotiques spécifiques étudiant aussi bien le vivant, comme la physiosémiotique, la phytosémiotique, la zoosémiotique, la biosémiotique, que l’homme avec l’anthroposémiotique. Nous soulignons que certaines de ces disciplines sont aujourd’hui émergentes pour répondre aux questions environnementales actuelles en termes de climat, de cohabitation entre espèces et d’habitabilité du monde.

La restitution des travaux de Deely par Martine Bocquet semble tout à fait pertinente pour les sciences de la communication. Tout d’abord, parce que la démarche historique de Deely invitant à réévaluer nos acquis au prisme de modèles plus anciens, parfois moins connus, est tout à fait d’actualité et nécessaire dans notre réseau de recherche pluridisciplinaire. Ensuite, du fait de la structure détaillée du livre de Martine Bocquet qui permettra autant aux étudiants qu’aux chercheurs de trouver une formulation des concepts et des problèmes qui sous-tendent encore le domaine de la communication.

D’autre part, le grand intérêt de l’ouvrage réside dans le parti pris épistémologique de la sémiotique de Deely. En adoptant la relation ontologique de Poinsot, présente en creux chez Peirce, Deely ouvre des perspectives importantes pour le champ des sciences de la communication puisqu’il attire notre attention sur un concept universel de signe capable de réaffirmer la place du sensible dans la communication et de problématiser les interactions entre humains et non-humains. À ce titre, la pensée de Deely rapportée par Martine Bocquet est tout à fait en phase avec la recherche de ces quinze dernières années où différentes disciplines ont cherché à étudier la signification au-delà des particularités entre humains mais aussi entre êtres vivants, soit en adoptant un point de vue ontologique soit en intégrant les sciences physiques ou cognitives. Citons par exemple la biosémiotique, la zoosémiotique mais aussi l’anthropologie de la nature de Philippe Descola, "l’anthropologie au-delà de l’humain" d’Eduardo Kohn, la sémiophysique de René Thom et Jean Petitot ou encore la sémiotique cognitive.

Auteur: Chatenet Ludovic

Info: résumé critique de : Martine Bocquet, Sur les traces du signe avec John Deely : une histoire de la sémiotique Limoges, Éditions Lambert Lucas, 2019, 200 p.

[ panorama sémiologique ] [ anthropocentrisme ] [ xénolinguistique ] [ philologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel