Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 27
Temps de recherche: 0.0388s

opinions politiques

Si je l’avais choisi comme analyste, c’était avec la conviction qu’il était d’extrême gauche, qu’il partageait les idéaux de la Révolution. Ses fréquentes allusions à Marx, la caution d’Althusser, ses relations avec les membres de la Gauche prolétarienne maoïste et avec celui devenu entre-temps son gendre, avaient renforcé cette illusion. Certes il lisait Le Figaro tous les matins. Mais je n’étais pas à une contradiction près. Les hommes d’envergure peuvent se compromettre avec le diable en gardant leur intégrité. En vérité, je n’avais pas saisi son projet d’après Mai 68, celui d’attirer à lui ces jeunes intellectuels fascinés par l’action violente et le terrorisme à la mode allemande des années de plomb, éviter que cette jeune élite intellectuelle ne s’égare dans les sables mouvants du terrorisme. C’est à lui, bien plus qu’à Sartre, dressé sur son tonneau, que l’on doit ce sauvetage de l’élite d’une génération. Mais avait-il prévu le revers de la médaille, à savoir que ces gauchistes analysés, voire devenus psychanalystes, sans faire le deuil de leur fascination totalitaire, allaient injecter dans le mouvement psychanalytique cette mortelle maladie de l’esprit qui frappera en premier lieu son propre enseignement et sa transmission. Du coup, l’institution analytique finira par ressembler à une association mafieuse ou sectaire.

Auteur: Haddad Gérard

Info: A propos de Jacques Lacan dans "Le jour où Lacan m'a adopté", éd. Grasset & Fasquelle, Paris, 2002, page 134

[ conséquences ] [ incompréhension ] [ cénacle ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

allègement

Il fait sombre parce que tu essayes trop fort.

Légèrement, mon enfant, sois léger. Apprends à tout faire avec légèreté.

Oui, sens-toi aérien, même si tu te sens profond.

Laisse les choses arriver avec légèreté et gère-les pareillement.



J'étais tellement sérieux à l'époque, un petit con sans humour.

Léger, en douceur - c'est le meilleur conseil qu'on m'ait jamais donné.

Même s'il s'agit de mourir. Rien de pesant, ni de prétentieux, ni d'emphatique.

Pas de rhétorique, pas de trémolos,

pas de personnage fictif, conscient de lui-même, singeant le Christ ou la petite Nell.

Et bien sûr, pas de théologie, pas de métaphysique.

Juste le constat du mourir et de la claire lumière.



Alors, débarrasse-toi de tes bagages et va de l'avant.

Tu es cerné par les sables mouvants, ils t'aspirent par les pieds,

tentent de te faire sombrer dans la crainte, l'apitoiement et le désespoir.

Voilà pourquoi tu dois marcher léger.

Légèrement, mes amis,

sur la pointe des pieds et sans bagages,

pas même un sac en mousse,

entièrement libéré.

Sans plus aucun fardeau.

Auteur: Huxley Aldous

Info: Island

[ délivrance ] [ désencombrement ]

 

Commentaires: 0

Ajouté à la BD par miguel

déclaration d'amour

Avec le même amour que tu me fus jadis
Avec le même amour que tu me fus jadis
Un jardin de splendeur dont les mouvants taillis
Ombraient les longs gazons et les roses dociles,
Tu m'es en ces temps noirs un calme et sûr asile.

Tout s'y concentre, et ta ferveur et ta clarté
Et tes gestes groupant les fleurs de ta bonté,
Mais tout y est serré dans une paix profonde
Contre les vents aigus trouant l'hiver du monde.

Mon bonheur s'y réchauffe en tes bras repliés
Tes jolis mots naïfs et familiers,
Chantent toujours, aussi charmants à mon oreille
Qu'aux temps des lilas blancs et des rouges groseilles.

Ta bonne humeur allègre et claire, oh ! je la sens
Triompher jour à jour de la douleur des ans,
Et tu souris toi-même aux fils d'argent qui glissent
Leur onduleux réseau parmi tes cheveux lisses.

Quant ta tête s'incline à mon baiser profond,
Que m'importe que des rides marquent ton front
Et que tes mains se sillonnent de veines dures
Alors que je les tiens entre mes deux mains sûres !

Tu ne te plains jamais et tu crois fermement
Que rien de vrai ne meurt quand on s'aime dûment,
Et que le feu vivant dont se nourrit notre âme
Consume jusqu'au deuil pour en grandir sa flamme.

Auteur: Verhaeren Émile

Info: Recueil : Les heures du soir

[ poème ]

 

Commentaires: 0

en douceur

Les choses sont noires parce que tu essayes trop fort.

Légèrement, mon enfant, légèrement. Apprends à tout faire avec légèreté.

Oui, ressentir avec légèreté même si tu ressens beaucoup de choses.

Laisse les choses arriver avec légèreté et gère-les avec légèreté.



J'étais tellement sérieux à l'époque, un petit con sans humour.

Léger, léger - c'est le meilleur conseil qu'on m'ait jamais donné.

Même lorsqu'il s'agit de mourir. Rien de pesant, ni de prétentieux, ni d'emphatique.

Pas de rhétorique, pas de trémolos,

pas de personnage conscient de lui-même imitant le Christ ou la petite Nell.

Et bien sûr, pas de théologie, pas de métaphysique.

Juste le fait de mourir et le fait de la lumière claire.



Alors, débarrasse-toi de tes bagages et va de l'avant.

Il y a des sables mouvants tout autour de nous, qui nous aspirent par les pieds,

Qui tentent de nous faire sombrer dans la peur, l'apitoiement et le désespoir.

C'est pourquoi il faut y aller avec légèreté.

Légèrement, ma chérie,

sur la pointe des pieds et sans bagages,

pas même un sac en éponge,

complètement désencombré. 





It’s dark because you are trying too hard.

Lightly child, lightly. Learn to do everything lightly.

Yes, feel lightly even though you’re feeling deeply.

Just lightly let things happen and lightly cope with them.



I was so preposterously serious in those days, such a humorless little prig.

Lightly, lightly – it’s the best advice ever given me.

When it comes to dying even. Nothing ponderous, or portentous, or emphatic.

No rhetoric, no tremolos,

no self conscious persona putting on its celebrated imitation of Christ or Little Nell.

And of course, no theology, no metaphysics.

Just the fact of dying and the fact of the clear light.



So throw away your baggage and go forward.

There are quicksands all about you, sucking at your feet,

trying to suck you down into fear and self-pity and despair.

That’s why you must walk so lightly.

Lightly my darling,

on tiptoes and no luggage,

not even a sponge bag,

completely unencumbered.

Auteur: Huxley Aldous

Info: Island. Trad Mg

[ poème ] [ délicatement ] [  doucement ] [ sans se presser ] [ succomber ] [ aérien ] [ lâcher prise ] [ acceptation ] [ facilement ] [ simplement ] [ diaphane ]

 

Commentaires: 0

Ajouté à la BD par miguel

ars conjectandi

Pour s'orienter dans ce monde de symptômes mouvants le médecin doit disposer de toutes les ressources d'une intelligence aussi polymorphe que son adversaire protéiforme: il doit faire preuve d'autant de polytropie que le héros d'Homère aux mille tours. Parallèlement, un aspect essentiel de la pratique médicale est d'agir vite et sûrement: la médecine, dit un aphorisme, est un art de mesure fugitive (oligokairos) et les occasions d'intervenir sont toujours ponctuelles (oxus). Il n'est pas question de traiter à midi ce qui doit être traité le matin. Comme le chasseur à l'affût, le médecin doit guetter le moment précis où son intervention sera décisive. Mais il ne peut saisir l'occasion d'attraper Kairos par les cheveux que s'il est suffisamment lesté de tout le savoir acquis par l'expérience pour avoir deviné et pressenti le temps où surgira l'Instant propice. Car si la maladie est une puissance douée de métamorphose elle est aussi traversée par un rythme propre. Il vient un moment dans son évolution où se produit une transformation décisive, où soudainement le cours des choses tourne et se renverse : c'est la crise, ce sont les jours dits critiques, c'est le point fugitif où la téchnè du médecin, ce chétif, peut triompher des puissances hostiles de la maladie. Afin d'orienter son action, le savoir médical dispose d'un mode de connaissance approprié. La prognose est le pronostic qui combine trois opérations intellectuelles: réfléchir sur les cas présents; les comparer aux cas passés qui offrent des circonstances analogues; en tirer des conclusions qui permettent de prévoir comment la maladie va évoluer. Mais ce n'est pas seulement par sa capacité d'avoir prise sur le temps que le médecin offre un aspect providentiel, qu'il est, comme dit Pindare, epikairotatos, à la manière du pilote tenant le gouvernail sur la mer démontée ; il n'atteint le but visé conjecture (tekmairesthai) sa route en s'aidant de tous les signes que sa polytropie lui permet de reconnaître, de comparer et d'utiliser au mieux. Il faut, dit le Traité de l'Ancienne Médecine, viser une sorte de mesure (stochazesthai métrou tinos) car, dans ce domaine, il n'y a ni nombre ni poids qui permettraient d'atteindre la vérité exacte (akribès). Le seul critère admis est le correct (orthon) : "Ce qui est possible, le médecin l'entreprend; ce qui ne l'est pas, il l'abandonne; s'il lui échappe quelque bévue, il est capable de la réparer. " Comme le marin, assez habile pour éviter à chaque fois la catastrophe que son art incertain l'oblige à frôler - car on ne saurait, dit Platon, connaître le secret de la colère ou de la bienveillance des vents -, le médecin est condamné à se frayer un chemin en le conjecturant à coup d'opinions (doxais).

Auteur: Detienne Marcel

Info: Les ruses de l'intelligence, la mètis des Grecs, écrit avec Jean-Pierre Vernant

[ métaphore ] [ méta-rationnel ] [ analyse immédiate ] [ diagnostic ] [ holisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

dictionnaire analogique

Réflexions sur les tags des "fils de la pensée"...
Après m'être intéressé au concept de taxonomie via Internet il m'apparait que pour une classification d'extraits ou plus simplement un ordonnancement du langage, lui-même relatif avec des termes qui peuvent littéralement changer de sens ("personne" par exemple) - parallèlement avec des habitudes de lecture qui se modifient au cours des âges et de l'évolution, il sera pertinent de déceler certaines taxonomies "transitoires" telles qu'elles apparurent et existèrent, géographiquement ou historiquement dans nos sociétés humaines. On peut penser ici entre autres à la place de la femme (sa prédominance ou pas), celle de la mort (idem), ou au concept de l'inégalité des hommes (acceptée ou pas)... Parce qu'il semble bien, au regard de ces simples exemples, que le concept de taxonomie (voire de phylogénie) dans l'organisation du langage soit bien souvent relatif à une époque, une société, une langue ou, à l'extrême, à un individu.
L'idée d'une taxonomie parfaite, quasi religieuse puisqu'elle voudrait constituer un consensus accepté par tous, lien reconnu entre les hommes via le langage, reste donc, heureusement, quasi utopique. On ne mettra jamais en commun un dictionnaire dans lequel chacun donnera le même sens précis au même mot (amusez-vous à cela avec des amis et un dico de synonymes en ligne).
Avec un tel soft, destiné à classer des extraits de langage, nous sommes confrontés à deux extrémités de la lorgnette, forts difficiles à faire coïncider.
A) La perception/organisation individuelle
B) Le consensus du plus grand nombre.
On trouvera certes bien des bases solides, pragmatiques, humaines : faim, soif, survie, etc... ou en s'accordant sur des évidences telles que "la mort est une disparition physique"...
Mais les appuis deviennent mouvants et complexes pour qui veut se mettre d'accord sur, par exemple, une notion aussi relative que le "bon goût" dans les arts. Alors on s'amuse à identifier et référencer les tendances, modes et autres habitudes culturelles dans l'histoire. Et ainsi de suite. Nous voilà avec des listes, ou des taxonomies diachroniques.
Avec Internet, pour ce qui est de la classification des extraits langagiers à ce jour, il semble que le tropisme grégaire mette toujours plus en balance le surfeur avec le "cerveau collectif", faisant osciller son vécu, son ressenti... en le confrontant avec des statistiques de deux sortes.
1) Celles, globales à une langue-pays, du consensus synonymiques, du SENS DE BASE du terme/tag utilisé.
2) Celles - résonnances ordonnées des autres surfeurs - sur un extrait donné (je like, je mets une note, ou autres...) qui établissent de fait de petits classements locaux ou on pourra tenir en compte différemment une citation en fonction de sa place dans ce classement.
Il doit aussi être aisé de définir un "moyen terme" entre ces deux pôles. "Moyen terme" statistique, probablement inintéressant, pour ne pas dire atroce, inhumain, négateur absolu de la singularité de chacun - dans la singularité d'un instant donné.
Ce soft apportera peut-être, avec le temps, un petit bout de solution à un laminage statistique général qui met en question l'individualité au sens de sa singularité créative, de son génie folie. Sa part divine dirons certains.
L'originalité essentielle de chacun a toujours été menacée par l'insignifiant mercantile des statistiques de masse.

Auteur: Mg

Info: 27 aout 2015

[ classement ] [ organisation ] [ moyenne ] [ citation s'appliquant à ce logiciel ] [ intrication ]

 

Commentaires: 0

homme-machine

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

Quel film ces emojis décrivent-ils ? (On voit une vidéo qui présente des myriades d'émoji formant des motifs mouvants, modélisés à partir de métadonnées)

Cette question était l'une des 204 tâches choisies l'année dernière pour tester la capacité de divers grands modèles de langage (LLM) - les moteurs de calcul derrière les chatbots d'IA tels que ChatGPT. Les LLM les plus simples ont produit des réponses surréalistes. "Le film est un film sur un homme qui est un homme qui est un homme", commençait l'un d'entre eux. Les modèles de complexité moyenne s'en sont approchés, devinant The Emoji Movie. Mais le modèle le plus complexe l'a emporté en une seule réponse : Finding Nemo.

"Bien que j'essaie de m'attendre à des surprises, je suis surpris par ce que ces modèles peuvent faire", a déclaré Ethan Dyer, informaticien chez Google Research, qui a participé à l'organisation du test. C'est surprenant parce que ces modèles sont censés n'avoir qu'une seule directive : accepter une chaîne de texte en entrée et prédire ce qui va suivre, encore et encore, en se basant uniquement sur des statistiques. Les informaticiens s'attendaient à ce que le passage à l'échelle permette d'améliorer les performances sur des tâches connues, mais ils ne s'attendaient pas à ce que les modèles puissent soudainement gérer autant de tâches nouvelles et imprévisibles.

Des études récentes, comme celle à laquelle a participé M. Dyer, ont révélé que les LLM peuvent produire des centaines de capacités "émergentes", c'est-à-dire des tâches que les grands modèles peuvent accomplir et que les petits modèles ne peuvent pas réaliser, et dont beaucoup ne semblent pas avoir grand-chose à voir avec l'analyse d'un texte. Ces tâches vont de la multiplication à la génération d'un code informatique exécutable et, apparemment, au décodage de films à partir d'emojis. De nouvelles analyses suggèrent que pour certaines tâches et certains modèles, il existe un seuil de complexité au-delà duquel la fonctionnalité du modèle monte en flèche. (Elles suggèrent également un sombre revers de la médaille : À mesure qu'ils gagnent en complexité, certains modèles révèlent de nouveaux biais et inexactitudes dans leurs réponses).

"Le fait que les modèles de langage puissent faire ce genre de choses n'a jamais été abordé dans la littérature à ma connaissance", a déclaré Rishi Bommasani, informaticien à l'université de Stanford. L'année dernière, il a participé à la compilation d'une liste de dizaines de comportements émergents, dont plusieurs ont été identifiés dans le cadre du projet de M. Dyer. Cette liste continue de s'allonger.

Aujourd'hui, les chercheurs s'efforcent non seulement d'identifier d'autres capacités émergentes, mais aussi de comprendre pourquoi et comment elles se manifestent - en somme, d'essayer de prédire l'imprévisibilité. La compréhension de l'émergence pourrait apporter des réponses à des questions profondes concernant l'IA et l'apprentissage automatique en général, comme celle de savoir si les modèles complexes font vraiment quelque chose de nouveau ou s'ils deviennent simplement très bons en statistiques. Elle pourrait également aider les chercheurs à exploiter les avantages potentiels et à limiter les risques liés à l'émergence.

"Nous ne savons pas comment déterminer dans quel type d'application la capacité de nuisance va se manifester, que ce soit en douceur ou de manière imprévisible", a déclaré Deep Ganguli, informaticien à la startup d'IA Anthropic.

L'émergence de l'émergence

Les biologistes, les physiciens, les écologistes et d'autres scientifiques utilisent le terme "émergent" pour décrire l'auto-organisation, les comportements collectifs qui apparaissent lorsqu'un grand nombre d'éléments agissent comme un seul. Des combinaisons d'atomes sans vie donnent naissance à des cellules vivantes ; les molécules d'eau créent des vagues ; des murmurations d'étourneaux s'élancent dans le ciel selon des schémas changeants mais identifiables ; les cellules font bouger les muscles et battre les cœurs. Il est essentiel que les capacités émergentes se manifestent dans les systèmes qui comportent de nombreuses parties individuelles. Mais ce n'est que récemment que les chercheurs ont été en mesure de documenter ces capacités dans les LLM, car ces modèles ont atteint des tailles énormes.

Les modèles de langage existent depuis des décennies. Jusqu'à il y a environ cinq ans, les plus puissants étaient basés sur ce que l'on appelle un réseau neuronal récurrent. Ceux-ci prennent essentiellement une chaîne de texte et prédisent le mot suivant. Ce qui rend un modèle "récurrent", c'est qu'il apprend à partir de ses propres résultats : Ses prédictions sont réinjectées dans le réseau afin d'améliorer les performances futures.

En 2017, les chercheurs de Google Brain ont introduit un nouveau type d'architecture appelé "transformateur". Alors qu'un réseau récurrent analyse une phrase mot par mot, le transformateur traite tous les mots en même temps. Cela signifie que les transformateurs peuvent traiter de grandes quantités de texte en parallèle. 

Les transformateurs ont permis d'augmenter rapidement la complexité des modèles de langage en augmentant le nombre de paramètres dans le modèle, ainsi que d'autres facteurs. Les paramètres peuvent être considérés comme des connexions entre les mots, et les modèles s'améliorent en ajustant ces connexions au fur et à mesure qu'ils parcourent le texte pendant l'entraînement. Plus il y a de paramètres dans un modèle, plus il peut établir des connexions avec précision et plus il se rapproche d'une imitation satisfaisante du langage humain. Comme prévu, une analyse réalisée en 2020 par les chercheurs de l'OpenAI a montré que les modèles gagnent en précision et en capacité au fur et à mesure qu'ils s'étendent.

Mais les débuts des LLM ont également apporté quelque chose de vraiment inattendu. Beaucoup de choses. Avec l'avènement de modèles tels que le GPT-3, qui compte 175 milliards de paramètres, ou le PaLM de Google, qui peut être étendu à 540 milliards de paramètres, les utilisateurs ont commencé à décrire de plus en plus de comportements émergents. Un ingénieur de DeepMind a même rapporté avoir pu convaincre ChatGPT qu'il s'était lui-même un terminal Linux et l'avoir amené à exécuter un code mathématique simple pour calculer les 10 premiers nombres premiers. Fait remarquable, il a pu terminer la tâche plus rapidement que le même code exécuté sur une vraie machine Linux.

Comme dans le cas du film emoji, les chercheurs n'avaient aucune raison de penser qu'un modèle de langage conçu pour prédire du texte imiterait de manière convaincante un terminal d'ordinateur. Nombre de ces comportements émergents illustrent l'apprentissage "à zéro coup" ou "à quelques coups", qui décrit la capacité d'un LLM à résoudre des problèmes qu'il n'a jamais - ou rarement - vus auparavant. Selon M. Ganguli, il s'agit là d'un objectif de longue date dans la recherche sur l'intelligence artificielle. Le fait de montrer que le GPT-3 pouvait résoudre des problèmes sans aucune donnée d'entraînement explicite dans un contexte d'apprentissage à zéro coup m'a amené à abandonner ce que je faisais et à m'impliquer davantage", a-t-il déclaré.

Il n'était pas le seul. Une série de chercheurs, qui ont détecté les premiers indices montrant que les LLM pouvaient dépasser les contraintes de leurs données d'apprentissage, s'efforcent de mieux comprendre à quoi ressemble l'émergence et comment elle se produit. La première étape a consisté à documenter minutieusement l'émergence.

Au-delà de l'imitation

En 2020, M. Dyer et d'autres chercheurs de Google Research ont prédit que les LLM auraient des effets transformateurs, mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et variées afin de déterminer les limites extrêmes de ce qu'un LLM pourrait faire. Cet effort a été baptisé "Beyond the Imitation Game Benchmark" (BIG-bench), en référence au nom du "jeu d'imitation" d'Alan Turing, un test visant à déterminer si un ordinateur peut répondre à des questions d'une manière humaine convaincante. (Le groupe s'est particulièrement intéressé aux exemples où les LLM ont soudainement acquis de nouvelles capacités qui étaient totalement absentes auparavant.

"La façon dont nous comprenons ces transitions brutales est une grande question de la echerche", a déclaré M. Dyer.

Comme on pouvait s'y attendre, pour certaines tâches, les performances d'un modèle se sont améliorées de manière régulière et prévisible au fur et à mesure que la complexité augmentait. Pour d'autres tâches, l'augmentation du nombre de paramètres n'a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont constaté ce qu'ils ont appelé des "percées", c'est-à-dire des augmentations rapides et spectaculaires des performances à partir d'un certain seuil d'échelle. Ce seuil variant en fonction de la tâche et du modèle.

Par exemple, les modèles comportant relativement peu de paramètres - quelques millions seulement - n'ont pas réussi à résoudre des problèmes d'addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a grimpé en flèche dans certains modèles. Des sauts similaires ont été observés pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le décodage des lettres d'un mot, l'identification de contenu offensant dans des paragraphes d'hinglish (combinaison d'hindi et d'anglais) et la formulation d'équivalents en langue anglaise, traduit à partir de proverbes kiswahili.

Introduction

Mais les chercheurs se sont rapidement rendu compte que la complexité d'un modèle n'était pas le seul facteur déterminant. Des capacités inattendues pouvaient être obtenues à partir de modèles plus petits avec moins de paramètres - ou formés sur des ensembles de données plus petits - si les données étaient d'une qualité suffisamment élevée. En outre, la formulation d'une requête influe sur la précision de la réponse du modèle. Par exemple, lorsque Dyer et ses collègues ont posé la question de l'emoji de film en utilisant un format à choix multiples, l'amélioration de la précision a été moins soudaine qu'avec une augmentation graduelle de sa complexité. L'année dernière, dans un article présenté à NeurIPS, réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (capacité appelée raisonnement en chaîne) pouvait résoudre correctement un problème de mots mathématiques, alors que le même modèle sans cette invitation progressivement précisée n'y parvenait pas.

 Yi Tay, scientifique chez Google Brain qui a travaillé sur l'étude systématique de ces percées, souligne que des travaux récents suggèrent que l'incitation par de pareilles chaînes de pensées modifie les courbes d'échelle et, par conséquent, le point où l'émergence se produit. Dans leur article sur NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites via pareille chaines de pensée progressives pouvait susciter des comportements émergents qui n'avaient pas été identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d'expliquer son raisonnement, peuvent aider les chercheurs à commencer à étudier les raisons pour lesquelles l'émergence se produit.

Selon Ellie Pavlick, informaticienne à l'université Brown qui étudie les modèles computationnels du langage, les découvertes récentes de ce type suggèrent au moins deux possibilités pour expliquer l'émergence. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les grands modèles acquièrent réellement de nouvelles capacités de manière spontanée. "Il se peut très bien que le modèle apprenne quelque chose de fondamentalement nouveau et différent que lorsqu'il était de taille inférieure", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'il y ait un changement fondamental qui se produise lorsque les modèles sont mis à l'échelle.

L'autre possibilité, moins sensationnelle, est que ce qui semble être émergent pourrait être l'aboutissement d'un processus interne, basé sur les statistiques, qui fonctionne par le biais d'un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement être en train d'apprendre des heuristiques qui sont hors de portée pour ceux qui ont moins de paramètres ou des données de moindre qualité.

Mais, selon elle, pour déterminer laquelle de ces explications est la plus probable, il faut mieux comprendre le fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit.

Pouvoirs imprévisibles et pièges

Demander à ces modèles de s'expliquer pose un problème évident : Ils sont des menteurs notoires. Nous nous appuyons de plus en plus sur ces modèles pour effectuer des travaux de base", a déclaré M. Ganguli, "mais je ne me contente pas de leur faire confiance, je vérifie leur travail". Parmi les nombreux exemples amusants, Google a présenté en février son chatbot d'IA, Bard. Le billet de blog annonçant le nouvel outil montre Bard en train de commettre une erreur factuelle.

L'émergence mène à l'imprévisibilité, et l'imprévisibilité - qui semble augmenter avec l'échelle - rend difficile pour les chercheurs d'anticiper les conséquences d'une utilisation généralisée.

"Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés", a déclaré M. Ganguli. "Et pour étudier les phénomènes émergents, il faut avoir un cas en tête, et on ne sait pas, avant d'avoir étudié l'influence de l'échelle. quelles capacités ou limitations pourraient apparaître.

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont cherché à savoir si les modèles présentaient certains types de préjugés raciaux ou sociaux, à l'instar de ceux précédemment signalés dans les algorithmes non basés sur les LLM utilisés pour prédire quels anciens criminels sont susceptibles de commettre un nouveau délit. Cette étude a été inspirée par un paradoxe apparent directement lié à l'émergence : Lorsque les modèles améliorent leurs performances en passant à l'échelle supérieure, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des préjudices.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", explique M. Ganguli. Il se réfère à une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. "Les grands modèles deviennent brusquement plus biaisés. Si ce risque n'est pas pris en compte, il pourrait compromettre les sujets de ces modèles."

Mais il propose un contrepoint : Lorsque les chercheurs demandent simplement au modèle de ne pas se fier aux stéréotypes ou aux préjugés sociaux - littéralement en tapant ces instructions - le modèle devient moins biaisé dans ses prédictions et ses réponses. Ce qui suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a présenté un nouveau mode d'"autocorrection morale", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

Selon M. Ganguli, l'émergence révèle à la fois un potentiel surprenant et un risque imprévisible. Les applications de ces grands LLM prolifèrent déjà, de sorte qu'une meilleure compréhension de cette interaction permettra d'exploiter la diversité des capacités des modèles de langage.

"Nous étudions la manière dont les gens utilisent réellement ces systèmes", a déclaré M. Ganguli. Mais ces utilisateurs sont également en train de bricoler, en permanence. "Nous passons beaucoup de temps à discuter avec nos modèles, et c'est là que nous commençons à avoir une bonne intuition de la confiance ou du manque de confiance.

Auteur: Ornes Stephen

Info: https://www.quantamagazine.org/ - 16 mars 2023. Trad DeepL et MG

[ dialogue ] [ apprentissage automatique ] [ au-delà du jeu d'imitation ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel