Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 21
Temps de recherche: 0.0363s

déclic

Toute l'attention stratégique est donc à reporter à ce stade initial, en amont de l'"occasion", moment discriminant bien que non encore patent, qui fait imperceptiblement pencher la situation, et d'où découlera progressivement le succès. Là est le premier déclenchement, secret mais commandant l'autre, où se "tranche" de la façon la plus subtile ce qui fera ensuite tout basculer. En même temps que l'occasion se dédouble, la notion de "crise" (krisis au sens de "décision") est donc elle-même à repenser. Car le moment critique ne correspond plus au stade de la manifestation (cf. dans la médecine hippocratique où la crise est le moment où la maladie se "juge"), mais se déplace en amont jusqu'au stade le plus infime - celui de l'amorce - où commence à s'opérer le clivage et qui est "décisif". Il n'est plus lié au spectaculaire, comme dans l'action théâtrale, mais au plus discret. Mais sait-on le détecter, on peut alors prévoir l'évolution et la gérer; et la "crise" peut être désamorcée.

Auteur: Jullien François

Info: Traité de l'efficacité

[ effet papillon ] [ bascule ]

 

Commentaires: 0

interroger

L'organisation intellectuelle de mon travail est conséquence de la routine et de cet ennui de savoir que tant d'autres choses qui ont été écrites sur les paysans sont plus intéressantes que tout ce que les politologues ont écrit sur eux... Si vous passez tout votre temps à lire les sciences politiques courantes, vous allez simplement les reproduire. Rien d'autre ne peut découler de cet endroit particulier. Il me semble que tout ce qui se passe d'intéressant en science politique est importé d'un endroit exotique hors science politique et il m'arrive d'aller dans des endroits exotiques différents de ceux des autres personnes. Et, de temps en temps, je tombe sur quelque chose qui m'aide à comprendre. ... Le truc, c'est de savoir comment arriver à avoir un oeil quasi-extérieur et voir d'un œil neuf toutes les choses que votre discipline considère comme allant de soi. Donc une des choses que vous pouvez faire, bien sûr, c'est de renverser toute hypothèse que votre discipline enseigne et voir comment elle se présente à l'envers. Et de manière générale c'est tout aussi plausible que la façon dont on vous l'enseigne et c'est une bonne façon de commencer.

Auteur: Scott James C.

Info: West and Plender, 2014

[ mettre en question ]

 

Commentaires: 0

Ajouté à la BD par miguel

songes

Le travail du rêve [...] fait subir au matériel de pensées mis au mode optatif une élaboration tout à fait singulière. Tout d’abord, il fait le pas qui mène de l’optatif au présent, il substitue à la tournure "Ah, si seulement il était possible... " un : "Cela est." Ce "Cela est" a une destination, la figure hallucinatoire, processus que j’ai désigné du nom de "régression" du travail du rêve : la voie qui mène des pensées aux images perceptives, ou bien [...] la voie qui mène de la région des formations de pensée à celle des perceptions sensibles. En empruntant cette voie, qui est à l’opposé de la direction dans laquelle se développent les processus de complication psychique, les pensées du rêve gagnent en caractère concret ; ce qui apparaît, en fin de compte, c’est une situation plastique, qui est le noyau de l’ "image manifeste du rêve". [...] On comprend comme un nécessaire succès annexe de la régression le fait que presque toutes les relations existant à l’intérieur des pensées, relations qui ont structuré celles-ci, sont perdues pour le rêve manifeste. Ce que le travail du rêve prend en charge pour le figurer, ce n’est, pour ainsi dire, que le matériel brut des représentations, il n’y adjoint pas les rapports de pensée que celles-ci avaient les unes avec les autres, ou du moins se réserve-t-il la possibilité de n’en pas tenir compte. Par contre, il existe une autre partie du travail du rêve que nous ne pouvons faire découler de la régression, de la transformation rétroactive en images sensibles, et c’est précisément celle que nous jugeons importante pour l’analogie que nous établissons avec la formation du mot d’esprit. Durant le travail du rêve, le matériel des pensées du rêve subit une compression ou condensation tout à fait extraordinaire. [...] Les éléments communs nécessités par la condensation, qui ont été nouvellement créés, entrent dans le contenu manifeste du rêve en tant que représentants des pensées du rêve, de sorte qu’un élément du rêve correspond, pour les pensées du rêve, à un point nodal et crucial et qu’il nous faut dire de lui, en tenant compte de ces dernières, qu’il est, d’une façon très générale, "surdéterminé". Le fait que constitue la condensation est la partie du travail du rêve la plus facile à repérer : il suffit de comparer l’énoncé littéral d’un rêve tel qu’on l’a mis par écrit au texte des pensées du rêve qu’on a réussi à connaître grâce à l’analyse, pour se faire une bonne idée de l’envergure de la condensation qui est à l’œuvre dans le rêve.

Il est moins aisé de se convaincre de l’existence de la deuxième grande modification que le travail du rêve provoque en agissant sur les pensées du rêve, à savoir du processus que j’ai appelé déplacement dans le rêve. Ce dernier se manifeste comme suit : ce qui, dans le rêve manifeste, occupe une position centrale et se présente avec une grande intensité sensible, c’est cela même qui, dans les pensées du rêve, occupait une position périphérique et qui était d’importance accessoire ; et inversement. [...] Pour qu’un tel déplacement se fasse, il a fallu que l’énergie d’investissement puisse, sans être inhibée, passer des représentations importantes sur celles qui ne le sont pas, ce qui, dans la pensée préconsciente normale, ne peut que donner l’impression d’une "faute de raisonnement".

Auteur: Freud Sigmund

Info: "Le Mot d'esprit et sa relation à l'inconscient", éditions Gallimard, Paris, 1988, pages 294 à 297

[ interprétation ] [ étapes ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

symbole

Les 7 différences entre la religion et la spiritualité.
Beaucoup de gens confondent la religion et la spiritualité ou certains phénomènes mystérieux et surnaturels. Certains pourraient même la comparer à une secte, mais cela est dû à un manque de connaissances et à la peur d'être manipulé.
Si nous nous engageons à faire abstraction de nos appréhensions pour essayer d'étudier et de comprendre le sens même de la spiritualité, nous arrivons à une prise de conscience et à la conclusion qu'elle n'a rien de mystérieux ni de surnaturel, et qu'elle n'est en aucun cas liée à une secte.
Voici 7 différences entre la religion et la spiritualité qui vous aideront à mieux les comprendre :
1) La religion vous fait vous incliner - La spiritualité vous libère
La religion vous dit de suivre une idéologie et d'obéir à certaines règles car sinon vous allez être puni. Le spiritualisme vous permet de suivre votre coeur et de sentir ce qui est juste pour vous. Elle vous libère de façon à exprimer votre vraie nature sans devoir vous incliner à tout ce qui ne s'aligne pas avec vous. Il vous a été donné de choisir ce qui peut être honoré afin de le rendre divin.
2) La religion vous montre la peur - La spiritualité vous montre comment être courageux
La religion vous dit ce qu'il faut craindre et vous montre les conséquences. Le spiritualisme vous fait prendre conscience des conséquences, mais ne veut pas que vous vous concentriez sur la peur. Elle vous montre comment vous positionner malgré la peur, et comment continuer à faire ce que vous sentez être juste, malgré les conséquences qui peuvent en découler. Elle vous montre l'acte fondé autour de l'amour et non de la peur, et ainsi comment contrôler la peur, pour en tirer le meilleur.
3) La religion vous dit la vérité - La spiritualité vous permet de la découvrir
La religion vous dit ce qui est juste et ce en quoi il faut croire. L' immatérialité vous permet de le découvrir à votre propre rythme et selon vos aspirations. Elle vous permet de vous connecter avec votre Soi Supérieur et de comprendre avec votre propre esprit ce qu'est la vérité, car la vérité dans son ensemble ; est la même pour tous. Ainsi, elle vous permet de croire en votre propre vérité et à travers votre propre perception et coeur.
4) La religion sépare des autres religions - Le spiritualité les unit
Il y a beaucoup de religions à l'échelle mondiale et toutes prêchent que leur histoire est le bon récit. Le spiritualisme voit la vérité à travers toutes celles-ci et les unit, parce que la vérité est la même pour tous, malgré nos différences. Elle met l'accent sur la qualité du message divin que les religions partagent et non sur les différences de ses détails historiques.
5) La religion crée une dépendance - La spiritualité vous rend indépendant
Vous n'êtes réellement religieux que si vous assistez à des événements religieux et alors seulement, vous êtes considéré comme quelqu'un qui est digne du bonheur. Le spiritualisme vous montre que vous n'avez ni à dépendre ni à avoir besoin de quoi que soit pour être heureux. Le bonheur se trouve toujours au fond de nous-mêmes et nous sommes les seuls à être responsables de notre bonheur. Nous sommes toujours là où nous devons être, au-delà d'assister à certains événements. La divinité se trouve en nous et c'est la raison pour laquelle nous sommes toujours dignes.
6) La religion met la répression en pratique - La spiritualité met le Karma en pratique
La religion dit que si nous n'obéissons pas à certaines règles, il y a une punition qui nous attend. Le spiritualisme nous permet de comprendre que toute action a une conséquence et de réaliser que la punition suite à nos actes sera la conséquence provenant des actes que nous mettons en pratique. Elle s'appuie uniquement sur les forces fondamentales de l'univers et vous n'avez pas besoin de croire à l'existence de cette force.
7) La religion vous fait suivre le parcours d'un autre - La spiritualité vous permet de créer le vôtre
La fondation d'une religion est l'histoire qu'elle raconte au sujet d'un Prophéte ou de plusieurs Dieux, leur voyage vers l'illumination et la vérité découverte en vous faisant suivre leurs pas. La spiritualité vous laisse faire votre propre voyage vers l'illumination et découvrir la vérité par vos propres moyens en suivant ce que votre coeur vous dit être vrai, parce que la vérité est toujours la même, peu importe la manière que vous utilisez pour y parvenir.
Chaque religion est arrivée par la spiritualité, par le voyage à travers lequel une personne est devenue Dieu ou Prophéte. Les détails de l'histoire ne sont pas forcément importants, ils aident seulement le personnage à découvrir la vérité. Ce qui est important, c'est le message qui partage la vérité, "le code divin du coeur humain" qui résonne harmonieusement à travers chacun d'entre nous. C'est pourquoi chaque religion a aussi quelque chose de vrai.

Auteur: Internet

Info: http://stopmensonges.com

[ dogme ] [ croyance ]

 

Commentaires: 0

jeu

Le fantasque Mario Balotelli, la vraie star de cet Euro 2012
Rebelle, iconoclaste, le joueur qualifié pour les demi-finales avec l'Italie contredit tous les clichés du politiquement correct.
"Oubliez-moi. La vraie rock star ici, c'est Mario Balotelli !" Déclare Noel Gallagher, le chanteur controversé de l'ex-groupe Oasis, qui parle de l'attaquant italien de Manchester City. Un rapide condensé de l'esprit de ce joueur qui vient de se qualifier pour les demi-finales de l'Euro 2012 avec la Squadra Azzurra. Et c'est d'ailleurs sa patrie d'adoption - l'Angleterre, où il évolue sous les couleurs de Manchester City - qu'il vient d'éliminer de la compétition, aux tirs au but, après y être allé de sa petite réalisation.
Mario Balotelli est un show à lui tout seul qui défraie la chronique. On en est fan ou on l'exècre. Soit on le considère comme un génie, soit comme un sombre abruti. Mais une chose est sûre, il ne laisse pas indifférent. Et pour ses débuts à l'Euro 2012, il n'a pas failli à sa réputation de joueur fantasque. Capable du pire comme du meilleur sur une pelouse, il a appliqué avec panache ce concept lors de la phase des poules. Il passe ainsi à côté de ses deux premiers matches et suscite la colère des tifosi pour son comportement de diva sur le terrain. Alors, pour faire taire tout le monde, l'attaquant italien est aussi en mesure d'inscrire un somptueux but lors du troisième match de poule et de le célébrer en boudant et en se faisant censurer par ses coéquipiers, de peur que l'intenable ne dérape dans ses propos ou dans la célébration de son but. Au final, ses partenaires s'en amusent et ont appris à composer avec ce caractère instable.
Compétitif et instable
Car Balotelli est un véritable ovni du ballon rond. Le genre de joueur complètement perché en marge totale des principes liés au monde du football professionnel. Conscient de son talent, il n'en fait qu'à sa tête, ce qui déclenche inévitablement des polémiques. Mais là où certains joueurs français pénalisent leur équipe par des attitudes immatures, la folie de Mario Balotelli le rend compétitif et hors du commun. Il peut, par exemple, se vanter en club cette saison d'un meilleur ratio buts-temps de jeu que la star de Manchester City Sergio Agüero et a été décisif dans l'obtention du titre de champion des Citizens. Et c'est d'ailleurs ce point précis qui dérange.
À une époque où l'on nous apprend que seuls la volonté, le travail et l'effort conditionnent la réussite sociale, Mario arrive au sommet de sa profession avec une attitude de dilettante. Alors que les médias font le constat d'une société en manque de repères qui découlerait d'une autorité défaillante, Mario Balotelli conteste fréquemment la figure hiérarchique du coach, ce qui ne l'empêche pas pour autant de faire une belle carrière. Quel joueur, du haut de ses 22 ans, a déjà gagné une Ligue des champions, trois championnats d'Italie et un titre de champion d'Angleterre ? Il met ainsi en porte à faux tous ces principes consensuels qui ont transformé le football en univers aseptisé où aucun comportement rebelle n'est toléré. Un constat qui a énormément de mal à passer et qui se verra toujours opposer des arguments fallacieux mettant en avant l'instabilité du garçon ou ses doigts d'honneur faits à la morale.
Il faut dire que le parcours de Mario Balotelli est lui-même hors norme. Né à Palerme, en Sicile, de parents ghanéens, il est recueilli à 2 ans par une famille italienne de Brescia. Et dans un pays loin d'être cosmopolite, il est l'un des rares enfants de couleur noire de cette ville. Pourtant, il n'a jamais été tenté par un "retour aux sources" salvateur ou mystique dont les joueurs français ou anglais d'origine africaine sont friands. Au contraire, il se revendique 100 % italien et déclare être un amoureux de sa patrie. N'a-t-il pas sorti un drapeau vert-blanc-rouge devant les supporteurs de Manchester City au moment de célébrer le titre avec eux ? Paradoxe : ce genre d'attitude - très certainement glorifiée en France par ceux qui s'inquiètent de ne voir aucun joueur chanter La Marseillaise - ne passe pas en Italie. Les Transalpins ne pardonnent rien à l'ancien sociétaire de l'Inter Milan.
Premier Noir de la Squadra Azzurra
Majoritairement xénophobe, l'Italie a eu du mal à accepter qu'un joueur de couleur noire soit la figure la plus visible de la Squadra Azzurra. Pire, Mario Balotelli est devenu en 2010 le premier joueur de couleur noire à revêtir le maillot de la Nazionale... De quoi déclencher de vives migraines chez les supporteurs les plus farouches et réactionnaires de la Petite Botte. D'autant plus que l'indiscipline de Mario n'arrange rien. Son passage à l'Inter Milan s'est d'ailleurs très mal terminé. Ce qui n'a rien d'étonnant vu que l'entraîneur était à l'époque José Mourinho. D'un côté, un coach portugais show man de classe mondiale qui est très à cheval sur les valeurs collectives de son équipe. De l'autre, un joueur individualiste et forte tête qui se considère comme la seule star de l'effectif. Le clash était inévitable.
Malgré ses frasques, ses attitudes incompréhensibles, son comportement immature et son inconscience avérée il vient de provoquer un incendie à son domicile en allumant pétards et feux d'artifice dans sa salle de bains), Mario Balotelli fait curieusement du bien au football. Il apporte de la fraîcheur et de l'originalité dans ce monde du ballon rond qui a perdu son innocence à cause des exigences du haut niveau. Qui ne s'est pas déjà ennuyé devant une interview d'un joueur de Ligue 1 au discours formaté du type "l'important, c'est les trois points" ?
Pourquoi les Cantona, Maradona, Romario, Ronaldinho ou Paul Gascoigne étaient si populaires ? Parce qu'ils ont toujours compris que le football était d'abord un jeu avant d'être leur travail. Et que le spectacle fait aussi partie de ce sport au même titre, voire plus, que la performance. Mario Balotelli, même s'il ne le revendique pas ouvertement, s'inscrit dans cet héritage. Il est l'enfant terrible du football moderne, directement engendré et inspiré par ces anciennes gloires du ballon rond. Mario Balotelli confond la pelouse d'un stade avec une cour d'école et c'est ce qui plaît. On l'adule ou on le hait, mais on ne peut pas nier qu'il apporte de la vie et de l'humain au football avec son comportement d'enfant.

Auteur: Cacace Giuseppe

Info: Le Point.fr, 25 juin 2012

[ fantaisie ] [ star ] [ sport ] [ révolte ]

 

Commentaires: 0

pouvoir sémantique

Wokisme, un protestantisme déréglé?

À l’instar de plusieurs chercheurs américains qu’il cite largement dans son étude*, l'auteur observe dans cet activisme progressiste un post-protestantisme débarrassé de sa théologie, soit un nouveau puritanisme entièrement sécularisé.

L’analogie? "La rédemption des péchés du monde ne se réalise plus à travers le sacrifice christique, mais par celui du bouc émissaire, à savoir la figure de l’homme blanc hétérosexuel, symbole qui réunit les trois fautes à la racine des injustices sexuelles, raciales et de genre: la masculinité, la blanchité et l’hétéronormativité", lit-on dans le document. Ou encore: "Les rêves d’une société parfaite que le christianisme reportait à un Royaume céleste doivent être matérialisés ici-bas et immédiatement." Interview avec un chercheur très critique à l’endroit de son objet d’étude.

- Le wokisme découlerait du protestantisme. Comment cela?

- Un certain nombre d’intellectuels protestants et catholiques nord-américains analysent le phénomène woke comme une forme de protestantisme sécularisé, c’est-à-dire l’idée qu’un certain nombre de thèmes chrétiens (l’Éden, le péché originel, la confession, le blasphème, etc.) ont été capturés par la frange progressiste de la gauche et transférés dans le champ politique. L’orthodoxie morale n’est plus produite par les Églises mais par les divers activismes qui composent le mouvement de la Justice Sociale (anti-racisme, droits LGBT, féminisme, etc. ndlr).

- Concrètement, de quelle manière se manifeste ce nouveau puritanisme?

- De multiples manières et à différents étages de la société. Essentiellement, ce puritanisme est le produit de l’hégémonie de la gauche dans les champs intellectuel et culturel. Il fabrique des hiérarchies et des tabous utiles à un certain nombre de groupes d’intérêt et circonscrit les interprétations dicibles dans les universités et les grands médias.

- On assiste, avec ce courant, à une nouvelle moralisation de l’espace public, avec une mobilisation autour de la notion de justice sociale et le souci des minorités. Ne faudrait-il pas s’en réjouir?

- Plus d’un s’en réjouissent, mais je ne partage pas cet optimisme. L’impact des idées politiques ne s’évalue pas à partir des intentions de leurs promoteurs. Or nous avons affaire à un mouvement profondément anti-libéral et passablement anti-scientifique – il suffit de lire les intellectuels qui nourrissent ce phénomène pour s’en convaincre. Rien n’est plus dangereux que des révolutionnaires qui s’imaginent pur de cœur.

- Plusieurs observateurs parlent d’une "religion civile". L’analogie au champ religieux vous semble-t-elle pertinente ?

- Elle est pertinente pour deux raisons: la première est que le wokisme fonctionne à la manière des cosmographies religieuses, c’est-à-dire qu’il procure une explication globale du fonctionnement de la société et de l’histoire, et offre à ses ouailles sens, ordre et direction. La seconde est que le comportement sectaire et les hyperboles moralisantes des activistes invitent naturellement une comparaison avec les mouvements religieux fondamentalistes. Pour preuve, le recours à des concepts infalsifiables et tout-puissants, comme le "patriarcat" ou le "racisme systémique".

- Comment comprendre que le langage du wokisme soit si présent au sein du monde protestant et de ses Églises?

- Il y a aussi beaucoup de résistance, mais je suppose qu’une partie du clergé entend profiter de la vitesse acquise de cette nouvelle religion civile, reproduisant des comportements analogues aux Églises, et capable de mobiliser certains segments de la population. Articulé autour de notions de justice sociale, d’équité, d’inclusivité, le militantisme woke peut assez aisément être réapproprié dans un contexte ecclésial. On peut aussi s’attendre à une demande par le bas, un certain nombre de membres motivés dans les communautés exigeant de leur hiérarchie un positionnement sur les grands thèmes du jour. La chose n’est pas très surprenante quand on pense, par exemple, à l’influence que le marxisme a pu exercer sur les théologiens de la libération en Amérique latine. Les Églises ne sont pas imperméables aux modes. 

- Vous pointez, au sein de ce phénomène, l’absence de "gardes-fous théologiques". Qu’entendez-vous par là?

- L’idée qu’un corpus théologique, qui s’est construit à travers des siècles d’affinage et de conciles, procure un cadre normatif à des notions de justice, de péché ou de rédemption. Libérées de ce cadre et réintroduites dans une religiosité révolutionnaire, ces idées prennent le mors aux dents. Le Royaume des Cieux se transforme en l’ambition d’établir ici-bas une société parfaitement égalitaire, quels qu’en soient les coûts.

- Vous êtes très critique à l’égard de ce mouvement. En quoi considérez-vous qu’il tende à glisser dans le fondamentalisme, voire le totalitarisme?

- La volonté de faire disparaître toutes les "inégalités", c’est-à-dire ici les disparités entre sexes ou entre populations, requiert nécessairement un État autoritaire régulant et corrigeant les effets des choix individuels. L’autoritarisme de la gauche progressiste n’est pas simplement la conséquence accidentelle d’une raideur idéologique propre au militantisme. Tout comme l’illustre l’histoire des économies planifiées, l’autoritarisme est l’inévitable propriété émergente du système.

- Votre étude souligne la contradiction de ce mouvement, dont les membres se proviennent majoritairement des classes les plus aisées…

- L’hypothèse que je trouve la plus séduisante a été formulée par le psychologue Rob Henderson: les classes supérieures nord-américaines signalent leur statut, c’est-à-dire se reconnaissent entre pairs et se distinguent du peuple, non plus seulement à l’aide de produits de luxe, mais aussi à l’aide d’idées luxueuses. Les coûts de ces idées sont assumés par les classes populaires tandis que les bénéfices à la fois matériels et immatériels sont capturés par les classes supérieures. Selon cette perspective, le wokisme est un outil dans un jeu de pouvoir et de statut. Son adoption signale son appartenance au camp du Bien et son institutionnalisation assure des débouchés professionnels à toute une classe de diplômés issus de filières académiques où le savoir tend à se dissiper au profit de l’activisme.

- N’allez-vous pas un peu loin en dénonçant une stratégie qui serait à nouveau profitable aux plus privilégiés, en faisant fi de leurs bonnes intentions?

-
Je ne pense pas que les activistes dont nous parlons ici soient des cyniques travaillant consciemment à consolider leur statut et je ne doute pas que leur mobilisation puise son énergie dans de bonnes intentions. Le problème réside dans la confusion entre les slogans et la réalité, d’une part, et dans la perception naïve que les bonnes intentions font de bonnes réformes, d’autre part. Or les réformes proposées par ces activistes (qui sont articulées sur toute une batterie de programmes préférentiels, de coûteuses formations, de régulations du langage) oscillent le plus souvent entre l’inutile et le contre-productif. 

Auteur: Moos Olivier

Info: Entretien avec Anne-Sylvie Sprenger à propos de *"The Great Awokening. Réveil militant, Justice Sociale et Religion", Religioscope, déc. 2020

[ cancel culture ] [ erreur catégorielle ] [ antispiritualisme ] [ bien maléfique ]

 

Commentaires: 0

Ajouté à la BD par miguel

polémique évolutionniste

L'épigénétique, qui existe depuis 50 ans, n'est pas un nouvel acteur majeur de l'évolution. Dans la mesure où son importance avérée est d'ordre génétique. L'évolution culturelle et comportementale est un phénomène réel, mais ce n'est pas une évolution biologique.

Synthèse moderne

La variation génétique est aléatoire. Les mutations qui se produisent n'améliorent pas nécessairement la condition physique. Si les mutations donnent lieu à des caractéristiques qui améliorent la capacité des organismes à survivre et à prospérer, il s'agit d'un simple hasard.

Synthèse évolutionniste élargie (Laland)

La variation phénotypique n'est pas aléatoire. Les individus se développent en réponse aux conditions locales, de sorte que les nouvelles caractéristiques qu'ils possèdent sont souvent bien adaptées à leur environnement.

Presque toute l'évolution est finalement due à une mutation d'une sorte ou d'une autre. Nombreux sont ceux qui pensent que le hasard des mutations est le thème dominant de l'évolution. L'affirmation concernant la synthèse moderne est parfaitement correcte, en première approximation. (On peut ergoter sur les détails.)

L'idée que les phénotypes changent en fonction des conditions locales - par exemple, l'opéron lac s'exprime en présence de lactose - n'est guère révolutionnaire et n'exige pas de changement dans notre compréhension de la théorie moderne de l'évolution.

Synthèse moderne

L'évolution se produit généralement par le biais de multiples petites étapes, conduisant à un changement graduel. C'est parce qu'elle repose sur des changements progressifs provoqués par des mutations aléatoires.

Synthèse évolutive élargie (Laland)

L'évolution peut être rapide. Les processus de développement permettent aux individus de répondre aux défis environnementaux ou aux mutations par des changements coordonnés dans des ensembles de traits.

Est-il possible que Kevin Laland ignore totalement le débat sur le gradualisme, l'hybridation, la symbiose, le transfert horizontal de gènes, les mutations homéotiques, la saltation et les macromutations ? Est-il possible qu'il n'ait jamais pensé aux équilibres ponctués et à la théorie hiérarchique ?

Il est vrai que les vues démodées d'Ernst Mayr et compagnie ("Synthèse moderne") rejetaient toutes ces idées, mais l'évolution a évolué depuis les années 1950. Elle ne se limite plus à de petites étapes graduelles.

Les "révolutionnaires" pensent que les mutations peuvent être dirigées dans un but ultime. L'idée de base d'une augmentation des taux de mutation dans certaines conditions est débattue activement depuis très longtemps (avant 1996). On ne pense pas qu'il s'agisse d'une caractéristique majeure de l'évolution, sauf dans le sens d'une augmentation du taux de mutations "aléatoires".

Synthèse moderne

La perspective est centrée sur les gènes : l'évolution nécessite des changements dans la fréquence des gènes par le biais de la sélection naturelle, de la mutation, de la migration et de la perte aléatoire de variantes génétiques.

Synthèse évolutionniste élargie

La perspective est centrée sur l'organisme, avec des conceptions plus larges des processus évolutifs. Les individus s'adaptent à leur environnement au fur et à mesure qu'ils se développent et modifient les pressions de sélection.

Cette description de la synthèse moderne est la seule fois où j'ai vu Kevin Laland mentionner quelque chose qui ressemble à la dérive génétique aléatoire. Cela ne fait manifestement pas partie de sa vision normale du monde.

Je reconnais que la théorie moderne de l'évolution est "centrée sur les gènes" à cet égard. C'est parce que nous DÉFINISSONS l'évolution comme un changement dans la fréquence des allèles au sein d'une population. Je ne sais pas ce que cela signifie de passer à un point de vue "centré sur l'organisme" comme le décrit Laland. Il est certainement vrai que les cyanobactéries individuelles s'adaptent à leur environnement au fur et à mesure qu'elles grandissent et se développent, et il est certainement vrai qu'elles peuvent modifier l'environnement. Dans le cas présent, elles ont provoqué une augmentation des niveaux d'oxygène qui a affecté toutes les espèces vivantes.

Les cyanobactéries ont évolué pour s'adapter à leur environnement par le biais de mutations aléatoires et de changements dans la fréquence des allèles au sein de la population, en partie sous l'effet de la sélection. Beaucoup d'entre elles se sont éteintes. En quoi est-ce un changement dans notre vision de l'évolution ?

Synthèse moderne

Les processus micro-évolutifs expliquent les schémas macro-évolutifs. Les forces qui façonnent les individus et les populations expliquent également les changements évolutifs majeurs au niveau des espèces et au-delà.

Synthèse évolutionniste élargie

D'autres phénomènes expliquent les changements macro-évolutifs en augmentant l'évolutivité, c'est-à-dire la capacité à générer une diversité adaptative. Il s'agit notamment de la plasticité du développement et de la construction de niches.

L'un des principes de base de la synthèse moderne était que la macroévolution peut être expliquée efficacement comme étant simplement une multitude de microévolutions cumulatives. Les manuels modernes de biologie évolutive abordent d'autres caractéristiques de la macroévolution qui nécessitent un apport supplémentaire, notamment en ce qui concerne la spéciation. La vieille idée selon laquelle la microévolution suffit à expliquer la macroévolution n'est plus un axiome en biologie évolutive, et ce depuis plusieurs décennies [voir Macroévolution].

Les manuels modernes traitent de toutes sortes de choses qui influencent l'histoire à long terme de la vie (= macroévolution). Des éléments tels que les extinctions massives, la stase, la spéciation allopatrique, les contraintes, etc. L'évolutivité a été activement débattue pendant un demi-siècle et elle est bien couverte dans la plupart des manuels. (Voir Futuyma, 2e édition, p. 599). L'évolutivité n'est pas une idée nouvelle qui va révolutionner la théorie de l'évolution. En fait, le consensus, après de nombreux débats et discussions, est que l'évolutivité échoue sur les bancs de la téléologie. La théorie ne résiste tout simplement pas à un examen approfondi.

La sélection organisationnelle pour des caractéristiques qui confèrent un succès reproductif différentiel dans le moment écologique ne peut tout simplement pas générer, de manière active ou directe, un ensemble de caractéristiques qui n'acquièrent une importance évolutive qu'en conférant une flexibilité pour des changements dans un avenir lointain. Nous ne pouvons pas nier que ces caractéristiques d'évolutivité "comptent" profondément dans l'histoire des lignées ; mais comment des avantages pour l'avenir peuvent-ils découler d'un processus causal ici et maintenant ? (Gould, 2002 p. 1274)

Il est malhonnête de laisser entendre, dans un article destiné au lecteur moyen, qu'un sujet comme l'évolutivité est récent et n'a pas été examiné en profondeur, et rejeté, dans la littérature théorique sur l'évolution. Il en va de même pour les concepts de plasticité et de construction de niche. Ce ne sont pas des concepts nouveaux. Les experts compétents en matière d'évolution - ceux qui ont lu et écrit les manuels - ont examiné ces idées et les ont rejetées en tant que facteurs majeurs de la théorie de l'évolution.

Kevin Laland peut ne pas être d'accord avec ces analyses, mais en tant que scientifique, il a l'obligation de les mentionner au moins lorsqu'il écrit des articles promouvant un changement radical de la théorie de l'évolution. Il a la responsabilité de déclarer sa partialité.

Mais je fais une supposition qui n'est peut-être pas justifiée. Peut-être ne sait-il pas que ses opinions ont déjà été débattues, discutées et, pour la plupart, rejetées. Dans ce cas, son omission n'est pas due au fait qu'il induit délibérément ses lecteurs en erreur au sujet de la controverse. Il y a une autre raison.

1. L'accent mis sur les changements héréditaires (allèles) fait partie de la définition minimale actuelle de l'évolution. Elle est très différente de la perspective du "gène égoïste" défendue par Richard Dawkins. Ceux qui ne voient pas la différence ne sont tout simplement pas attentifs.

2. Je me demande comment "l'évolution culturelle" fonctionne chez les cyanobactéries et les érables ? Les principaux participants à la réunion de la Royal Society ont un penchant extrême pour l'évolution des organismes multicellulaires complexes - essentiellement des animaux et surtout des mammifères. Cela influence grandement leur point de vue sur l'évolution. Ils ont tendance à utiliser des exemples qui ne s'appliquent qu'à l'espèce qui les intéresse comme des leviers pour faire basculer l'ensemble de la théorie de l'évolution.

King, J. L., et Jukes, T. H. (1969) Non-darwinian evolution. Science, 164:788-798. PDF (en anglais)

Auteur: Moran Laurence A.

Info: A propos de la nouvelle vision de l'évolution de Kevin Laland, 4 décembre 2016

[ tâtonnements ] [ biogénétique ] [ auto-domestication ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Lorsqu'on réfléchit à une idée-concept c'est toujours à postériori. 

Pas tout à fait ici, puisque nous désirons aborder et tenter de caractériser le terme "conscience". Vu bien sûr "à partir de", l'entendement humain. 

Conscience humaine, ici notion-idée tant grégaire-objective, qu'individuelle-subjective, qui serait, selon nous autres singes dépoilés, la plus complexe et la plus évoluée à ce jour. 

Ah ah ah, c'te bonne blague. 

Soit. 

Selon FLP l'entendement humain est principalement scriptural, c'est à dire qu'il a pu se développer "un cran plus loin, ou plus" grâce aux symboles et langages, puis à l'écriture de signes organisés, bientôt stockés sur supports externes, ceci amenant l'émersion-développement d'une culture grégaire (dictionnaires, traductions, mathématiques, spécialisations théologico-scientifiques, recensement des tactiques militaro-politico-économiques, littérature, philos, intellectualisme, chatgpt, etc). Tout ceci maintenant traduit et trans-frontières, accessible à tous, planétarisé... numérisé... Avec une tendance à s'orienter vers l'image ; mais c'est une autre histoire.

Il y a donc un grand corpus-intellect humain, constitué au fil des générations par des millions de singularités qui bougent, agissent... réfléchissent, échangent, et manipulent les idées, principalement écrites donc. 

Corpus qui résulte de notre interaction avec la réalité (priméité), interaction qui génère par rétroaction, grâce à des idiomes qui codifient-définissent-organisent, nos divers points de vue,  (codés par des mots pour faire simple) sur ce réel. Un corpus suffisamment vaste, riche et varié pour que chaque subjectivité puisse s'y épanouir, y exister... se définir elle-même. Et s'y perdre. Aussi.

La preuve ici-même ?

C.S. Pierce dirait quelque chose comme ; humains-secondéités qui, au contact de leur réel-priméité, génèrent des textes, pensées-écrits, qui sont des tiercités. 

Ainsi l'IA matérialisée par chatgpt et consorts ne fait que manipuler ces humaines tiercités. Autant dire que par rapport aux développements divers de la vie bactérienne, et des combinaisons toujours plus complexes de molécules et de protéines qui s'en sont ensuivies, les langages humains font piteux. Pour l'instant.

Oublions ceci et réfléchissons selon la triade piercéenne, partant de l'idée que la priméité est au premier chef notre biotope terre-soleil, avec l'univers en arrière-plan. 

(Avec cette digression :  si la priméité est le soleil et la secondéité notre matrice Gaïa, cette dernière générerait alors des tiercités sous forme de vie organique et d'humains. Perspective éventuellement pessimiste dans la mesure où elle pourrait impliquer l'idée d'une terre-Gaïa terminus, à la surface de laquelle les humains ne seraient qu'éphémères et transitoires virus. Pourquoi pas.)

Mais restons sur cette triade initiale, qui peut être appréhendée comme purement mécanique, logique, voire simplement informationnelle récursive :

a) réalité source-priméité b) vie organique hommes-secondéité C) technologies écritures humaines-tiercité.  

Prenons maintenant un peu de recul en termes de temps et d'échelles, partant de ce que nous savons de plus basique pour ce qui concerne la vie "issue de la matière". A savoir à partir de la chimiosynthèse et surtout, de la photosynthèse. C'est à dire de l'interaction assez incroyable entre l'énergie solaire (photons) et certains atomes-molécules terrestres qui, par le truchement de l'anhydride de carbone*, en viennent à générer des chaines organiques, des végétaux, des animaux...  Et nous.  

Reprenons : l'idée-concept de départ à définir ici est celle de conscience, vue de, et rapportée à "l'entendement humain". ( Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. FLP, ne se refusant à aucune mégalomanie, s'attaque à l'esprit lui-même, sissi. D'autant qu'on dirait  que les paradoxes quantiques pointent vers cet impératif. Impératif qui pourra se résumer en une question : comment fonctionne l'observateur ?)

Ici se pose le vertige des limites que porte en lui le langage. Parce que ce dernier, usant de "symboles écrits", désignait/nommait originellement les éléments issus de notre réalité de "façon claire", un arbre est un arbre, une montagne est une montagne, etc... Langage aussi capable de désigner/nommer une abstraction généralisante comme "notre réel lui-même". Et qui, plus avant, est même apte à désigner l'observateur-générateur-manipulateur de l'idiome lui-même. Toi moi, nous autres humains lecteurs.

Puissance paradoxale d'une pensée symbolique suffisamment adroite pour se contempler en miroir d'elle-même via les jeux polysémiques et autres variés décalages signifiant-signifié.

Quel(s) terme(s) alors utiliser pour tenter d'approcher une définition de cette curieuse émergence auto-réfléxive en s'inspirant de l'interaction photosynthétique ?  médium, mécanisme, outil interactif, "quelque chose qui réfléchit"... intelligence... transmutation...  émergence...  interface pseudo rationnelle... pensée abstraite agissante ?... 

Quelques mots simples n'y suffiront pas, et, pour prendre un exemple, une AI totalisante comme chatgpt semble s'y perdre à l'identique, enfermée dans ce qu'il faut bien appeler un anthropisme limitatif. 

C'est ici que FLP, sous pilotage humain (ses participants-lecteurs inserteurs) pourra se positionner, via la conjonction-usage de plusieurs termes simultanés (verticaux, nuage de corrélats ?). Conjonction susceptible de mieux préciser-comprendre-communiquer tel ou tel mot ou situation. Ce qui pourrait bien aider à mieux définir-consolider certaines articulations de nos raisonnements. Mais aussi mieux approcher une image "rapportée" de la conscience humaine, en fonction de "contextes précis et délimités" - pour commencer. 

Fonction FLPique de dictionnaire intriqué - qui n'en n'est qu'à ses balbutiements - et qui s'amuse à sortir de la prison séquentielle du raisonnement écrit en ouvrant une réflexion qui s'arrête en un point, perpendiculaire en quelque sorte. Halte cogitation éventuellement aidée par ces termes-tags-étiquettes annexes, verticaux, ou en nuage. Listing annexe à tendance synonymique qui pourra se présenter comme suit pour ce texte même, éventuellement par ordre d'importance :

entendement

assimilation chlorophyllienne

gnose

méta-moteur

savoirs

mécanisme constructeur, etc.

Humaine-conscience-interface très limitée aussi, au sens où elle ne sert à peu près qu'à elle-même, femmes et hommes, enfermés encore et toujours dans une Culture communautaire trans-époque que nous qualifions volontiers de "solipsisme anthropique". 

Savoirs humains entassés-conjugués qui ressemblent donc à un genre de grande conscience désordonnée, pour laquelle des termes comme information, communication, virtualité, annales akashiques... quasi-esprit, savoirs compilés... Une fois bien mélangés-combinés, pourront faire l'affaire. Mais stop.

Intéressons-nous maintenant ici à la notion de vitesse, sans lâcher cette idée de comparer "comment nous pensons nous-mêmes" avec une photosynthèse qui opère à des échelles de l'ordre du millionnième de seconde et du millionnième de millimètre.  

Bonjour alors les infinités d'échelons et de déclinaisons de "consciences", ou de niveaux de réflexions qui pourront découler de cette idée ; enchevêtrés de surcroit. Au hasard - et par seuls groupes de deux : animaux et biotope, molécules et gravitation, lune et océans, humains et idées, insectes et univers, etc...

Tout est dans tout.

Sortons alors de cette idée de mécaniques résonantes partout dans le cosmos et remettons nous à la place de l'individu monade, du créateur, ou de l'indispensable lecteur qui aide à faire exister ces lignes. 

De notre conscience propre donc, au sens d'une intellection humaine rationnelle, directement issue d'un esprit des listes - et de la logique formelle duale qui nous anime. Une fondation très simple donc, pour qui "s'introspecte" avec honnêteé et lucidité.

Ici l'auteur de ces lignes précise qu'il y a, à tous les plans de la vie non minérale incarnée, un mécanisme incontournable qui est celui de la survie, de la perpétuation. Un mécanisme "qui pousse" et qui, pour FLP, est sous-tendu depuis peu (à l'échelle cosmique) particulièrement chez les eucaryotes, par la dualité mâle-femelle. Avec les poncifs qui vont avec : procréation-curiosité, terre-ciel, conservation-exploration, etc... 

Mécanisme tétravalent, mais c'est une autre histoire.

Cette survie, de notre limitée perspective d'animaux humains, au-delà des infinies différences de vitesse citées plus tôt, présente divers stades-niveaux d'intensité et de résilience que nous dirons psycho-sociologiques : l'individu-monade, sa famille, la communauté... son pays... jusqu'à sa planète. 

Déclinés comme suit : 

- Survie immédiate, dans l'instant.

- Survie à moyen terme - comment se développer, s'intégrer, trouver un travail, un/une partenaire... 

- Survie dans le temps - comment procréer, fonder une, ou plusieurs, famille(s). Construire une carrière pour y aider.

- Survie communautaire ou territoriale - comme n'importe quelle nation agressée qui se défend... ou un peuple juif qui veut se maintenire au travers des pays et des âges.

- Survie grégaire - par exemple de terriens menacés par de vilains ET's dans un mauvais scénario de SF. Ou plus simplement menacés par eux-mêmes de par le réchauffement climatique qu'ils ont induit. 

Humano-terriens qui malgré celà continuent leur expansion démographique et consumériste. Grr

Quant à la survie du processus Gaïa lui-même, ayons l'humilité de reconnaitre que c'est une problématique qui nous dépasse. En attendant de rencontrer les entités qui se sont amusées à nous créer (pour voir ?)... et ouvrir un peu nos perspectives ;-)

En résumé, pour reprendre l'objet de départ de ce texte, la caractérisation du terme "conscience", on s'aperçoit que comme tout principe terminologique arrêté, ce mot se révèle plurivoque, jusqu'à devenir UNIVERS (classe d'universalité des mathématiciens-physiciens ?) dès qu'on entreprend d'approfondir-préciser son analyse sémantique. Univers avec donc une infinité de niveaux et de vitesses imbriquées, ou pas, parallèles, ou pas... C'est à dire tout en même temps connexionniste, bayésien, perspectiviste, diachronique, systémique, cybernétique, etc. 

Tout est dans tout. 

Encore.

Tout ceci allant très au-delà - par exemple - d'une méthode sémantico-noétique aristotélicienne de l'abstraction, limitation en elle-même.

La conscience est partout et nulle part. 

Elle est surtout un mot à la mode qui, sans le langage et surtout l'écriture, ressemble à une illusion. 

"L'être humain vivant semble n'être constitué que de matière et d'énergie. L'esprit n'est qu'une hypothèse." Isaac Asimov**

Auteur: Mg

Info: sept 2023. *Le carbone représente 0,5% des atomes dans la voie lactée. Le CO2, atome de carbone sous sa forme gazeuse, aussi nommé dioxyde de carbone, gaz carbonique ou anhydride carbonique est présent à 4% dans l'athmosphère terrestres. En janvier 2021, l'atmosphère terrestre comportait 415,13 ppmv (parties par million en volume) de CO2, soit 0,04153 %. Cette teneur était de 283,4 ppmv en 1839 d'après des carottes de glace prélevées dans l'Antarctique, soit une augmentation globale d'environ 46 % en 182 ans. **Épigraphe dans Isaac Asimov's Book of Science and Nature Quotations (1988), 214

[ anthropocentrisme ] [ hiérarchisation ] [ corps-esprit ] [ au coeur de FLP ] [ ontologie ] [ polysémie ]

 
Commentaires: 8
Ajouté à la BD par Le sous-projectionniste

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel