Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 15
Temps de recherche: 0.0356s

intelligence artificielle

Une IA envoie 5 champions de Poker au tapis en même temps

Pluribus, c'est son nom, a réussi pour la première fois à battre 5 joueurs à la fois au Texas Hold'em no limit. Développé par Facebook et l'Université de Carnegie-Mellon à Pittsburgh en Pennsylvanie, cette IA réalise pour la première fois ce qu'aucune autre n'avait accompli jusqu'ici.

En 1997, et pour la toute première fois, une IA battait un champion du monde d'échecs... Depuis de l'eau a coulé sous les ponts puisqu'une IA a récemment réussi à vaincre cinq adversaires au Poker Texas Hold'em, faisant ainsi d'elle la première IA victorieuse dans un jeu multijoueurs.

Une configuration plutôt modeste
L'IA Pluribus s'est "formé" une stratégie globale en 8 jours de calcul sur un serveur doté de 64 cœurs et aura nécessité moins de 512 Go de RAM. C'est donc assez peu par rapport aux autres IAs déployées ces dernières années pour battre des humains au jeux.

Là où Pluribus fait encore plus fort, c'est que celle-ci ne s'est pas entraînée contre un humain, mais simplement contre elle-même, encore et encore jusqu'à atteindre son meilleur niveau.

Une manière de jouer très personnelle
Seule, pendant une semaine, l'IA à pratiqué ce que ses programmeurs ont appelé le Monte Carlo counterfactual regret minimization. Le principe du Monte Carlo repose sur le fait de réfléchir toujours selon trois possibilités et de construire trois schémas des jeux possibles en prévision des coups à venir, un peu comme un arbre. Regret minimization, quant à lui, est le fait de prédire ce qui peut être joué et de mettre en place celui qui créera le moins de regrets une fois la décision prise.

L'IA a donc montré sa supériorité en évitant les erreurs que pourraient faire d'autres systèmes de ce type, car en un contre un, il est facile de connaître la main de l'adversaire, mais cela se complique lorsque quatre autres personnes sont à prendre en compte.

La plupart des IA sont ainsi battues en répétant finalement une habitude que l'adversaire humain pourrait repérer et mettre à son avantage. De la même façon, Pluribus est capable de changer de tactique en moins d'une minute, passant de la relance au bluff, la rendant ainsi inlisible et imprévisible. C'est donc encore une victoire pour l'IA, reste à savoir quel sera le prochain défi que les chercheurs parviendront à lui faire relever.

Auteur: Internet

Info: https://www.clubic.com. Laura Léger, contributrice, 15 juillet 2019

[ informatique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

microbiote

Le plus grand écosystème microbien du monde découvert sous la croûte terrestre
Des millions d’espèces microbiennes ont été découvertes par un conglomérat de 1 200 scientifiques, composé de géologues, de chimistes, de physiciens et de microbiologistes originaires de 52 pays. Leurs travaux ont été publiés lundi 10 décembre à l’occasion du sommet américain de géophysique à Washington. Pendant 10 ans, ils ont réalisé des centaines de forages, parfois à 5 kilomètres de profondeur sous la croûte terrestre et sous la mer. Ils y ont découvert un monde insoupçonné qui comprend des membres des trois domaines biologiques : les bactéries, les archées et les eucaryotes. Cette découverte vient questionner nos certitudes sur la formation de la vie sur Terre et ailleurs.

Une population aussi diversifiée que celle d'Amazonie
Nous sommes près de 7 milliards d’êtres humains mais nous ne représentons qu’une toute petite partie de la vie sur Terre. L’écosystème découvert par les scientifiques atteint un volume de près de deux fois celui de nos océans et un poids équivalent à une vingtaine de milliards de tonnes, soit beaucoup plus que le poids total de l’humanité. Sa diversité est comparable à celle de l’Amazonie. Ces millions de microbes "vivent partout dans les sédiments" explique Fumio Inagaki de l'agence japonaise pour les sciences marines et de la terre. "Ce sont de nouvelles branches dans l'arbre de la vie qui existent sur Terre depuis des milliards d'années, sans qu’on ne les ait jamais remarquées" ajoute Karen Lloyd de l'université du Tennessee. Une grande partie de la vie se trouverait donc à l'intérieur de la Terre plutôt qu'à sa surface et ces microbes "souterrains" représentent, selon les scientifiques, 70 % de la totalité de ces populations.

Un monde à part
Une telle découverte est souvent accompagnée de son lot d’énigmes et cette biosphère remet en cause de nombreuses certitudes que nous avons sur la vie. Ces microbes sont en effet très différents de leurs cousins vivant en surface. Ils vivent dans des milieux extrêmes très sombres et très chauds. "Leur source d'énergie n'est pas le Soleil et la photosynthèse. Ici, ce qui fait démarrer leurs communautés, c'est la chimiosynthèse. Ils tirent leur énergie des roches qui s'altèrent" explique Bénédicte Menez, responsable de l'équipe géomicrobiologie à l'Institut de Physique du Globe de Paris.

Leur rapport au temps est également différent. Alors qu’à la surface, nous dépendons de cycles relativement rapides, réglés sur le Soleil et sur la Lune, ces organismes souterrains font partie de cycles lents à l'échelles des temps géologiques, et ne dépendent pas de notre étoile. Certaines espèces vivent en effet depuis des milliers d’années et sont à peine en mouvement, excepté en cas de déplacement des plaques tectoniques ou d’éruptions. Les scientifiques ne comprennent pas leur mécanisme de survie à long terme : "Ils sont là et attendent…" conclut un scientifique.

La découverte de cette biosphère pose la question même de l'origine de la vie sur Terre : la vie a-t-elle commencé dans les profondeurs de la Terre pour ensuite migrer vers le Soleil, ou a-t-elle commencé à la surface pour ensuite migrer vers le bas ? Et comment ces microbes survivent-ils au manque de nutriments et aux conditions extrêmes ? Pour Robert Hazen, minéralogiste à la Carnegie Institution for Science, si "la vie sur Terre peut être si différente de ce à quoi nous sommes habitués, quelle étrangeté pourrait nous attendre en cherchant la vie dans d'autres mondes ?"

Auteur: Internet

Info: https://www.nationalgeographic.fr, trad Arnaud Sacleux , nov 2019

[ énigme ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

La direction de l'institution américaine Carnegie Mellon University s'est distanciée des tweets offensants d'Uju Anya, professeur au département de langues modernes de l'école, qui décrivent feu la reine Elizabeth II comme une "femme misérable" et une "colonisatrice génocidaire".

Parmi l'afflux des inquiétudes concernant l'état de santé de la reine malade tôt jeudi – quelques heures avant l'annonce officielle de sa mort – Mme Anya, dans un fil de tweets, souhaitait à la reine "une mort atrocement douloureuse comme celle qu'elle a pu causer à des millions de personnes".

"J'ai entendu dire que le monarque en chef d'un empire génocidaire, voleur et violeur est enfin en train de mourir. Que sa douleur soit atroce".

Après que de nombreuses personnes aient signalé ce tweet, Twitter l'a retiré pour avoir enfreint la règle interdisant de "souhaiter ou espérer que quelqu'un subisse un préjudice physique".

Ce qui n'a pas empêché un déluge de critiques, notamment de la part de l'Université Carnegie Mellon, où Mme Anya enseigne la linguistique appliquée.

"Nous ne tolérons pas les messages offensants et répréhensibles publiés par Uju Anya aujourd'hui sur son compte personnel de médias sociaux. La liberté d'expression est au cœur de la mission de l'enseignement supérieur, cependant, les opinions qu'elle a partagées ne représentent absolument pas les valeurs de l'institution, ni les normes de discours que nous cherchons à promouvoir", a tweeté l'Université Carnegie Mellon.

Les tweets ignobles de Mme Anya ont également attiré l'attention du fondateur d'Amazon, Jeff Bezos.

"Est-ce quelqu'un qui travaille pour rendre le monde meilleur ?" a-t'il tweeté. "Je ne pense pas. Wow."

Les commentataires en ligne ne cessent depuis d'envahir la section de commentaires du tweet de l'université, appelant au licenciement de Mme Anya, soulignant qu'un condamnation ne suffirait pas et demandant des mesures de rétorsion contre le professeur.

L'utilisateur de Twitter @DavidWohl par exemple : "Ainsi, cette ignoble fauteuse de haine restera professeur titulaire, et continuera de recevoir son plein salaire sans aucune mesure disciplinaire, ni suspension, ni rien. Au cas où vous envisageriez d'envoyer vos enfants dans cette université dégénérée."

Un autre tweet, @InterestedObs13 indique : "La liberté d'expression est essentielle, mais la méchanceté de ce tweet ne reflète pas l'opinion réfléchie et rationnelle d'un leader pondéré. Colère et rancune comme celles-ci diminuent la légitimité de l'argument et au final la réputation de la personne qui le transmet."

Un autre @kristi_mccall a été plus explicite : "Si vous ne la virez pas, vous l'approuvez."

Et @chefjohnny84 a écrit: "Alors virez-la. Résilier son contrat. Cette femme ne devrait rien apprendre à personne. Elle devrait apprendre l'histoire, pas remplir le monde de haine."

Plus tôt cette année Mme Anya a indiqué à Carnegie Mellon qu'elle était née au Nigeria et avait déménagé aux États-Unis à l'âge de 10 ans., déplorant être en butte à "l'exclusion du système".

"En raison de l'exclusion systémique, ma voix est unique et fondamentale dans le domaine", expliquait Mme Anya dans l'interview de Carnegie Mellon. "Je suis le principal chercheur qui étudie la race et les expériences de la race noire dans l'apprentissage des langues et l'un des rares à examiner l'éducation des langages dans une perspective de justice sociale."

L'attaque de Mme Anya contre la reine Elizabeth correspond à sa profonde animosité, souvent exprimée, suite à la guerre civile nigériane (1967-1970). On estime que deux millions de personnes auraient été tuées par les troupes nigérianes lors d'une tentative du groupe ethnique Igbo de Mme Anya de se séparer du Nigéria à peine sept ans après l'indépendance.

"Si quelqu'un s'attend à ce que j'exprime autre chose que du mépris pour une monarque qui a supervisé le gouvernement qui a parrainé le génocide, a massacré et déplacé la moitié de ma famille avec des conséquences encore visibles aujourd'hui, vous pouvez continuer à rêver", a ajouté Mme Anya sur Twitter suite à la réprimande de Bezos.

La professeur, qui est d'origine Igbo dans l'est du Nigeria, a acquis cette notoriété sur Twitter après avoir incité à la haine ethnique, en particulier contre les populations haoussa et yoruba.

Il y a deux semaines, elle fut stigmatisée par certains Afro-Américains pour son utilisation d'une insulte de rue, "Akata", puisqu'elle affirmait que ce mot qui émane de la langue yoruba et que le peuple yoruba l'utilise pour décrire les Afro-Américains comme des animaux sauvages.

Son affirmation fut immédiatement démystifiée et présentée comme une tentative d'opposer les Afro-Américains aux personnes de l'ethnie Yoruba au Nigeria, à qui elle n'a jamais pardonné de s'être rangé du côté des troupes fédérales pour maintenir l'unité du Nigeria durant la guerre civile.

 

Auteur: Internet

Info: https://gazettengr.com/, 8 sept. 2022

[ polémique ] [ afrique ] [ usa ] [ Angleterre ] [ événement mondial ] [ deuil planétaire ] [ racisme ] [ communautarisme ] [ socio-linguistique ]

 
Commentaires: 1
Ajouté à la BD par miguel

théorie du tout

Une nouvelle "loi de la nature" qui englobe le vivant, les planètes et les étoiles

(Photo) Ammonite irisée trouvée près de Calgary, Canada. La diversité biologique (biodiversité) entraîne la diversité minérale, et vice versa.


Selon une équipe composée de scientifiques et de philosophes, la théorie de l'évolution formulée par Charles Darwin au 19e siècle n'est qu'un "cas particulier" d'une loi de la nature qui engloberait le vivant mais aussi les minéraux, les planètes et les étoiles. Attention, débats en perspective !

Et si l'évolution ne se limitait pas à la vie sur Terre ? C'est ce que suggère une équipe de neuf scientifiques et philosophes américains dirigés par la Carnegie Institution for Science, à travers un nouvel article publié dans la revue Proceedings of the National Academy of Sciences.

La publication énonce la "loi de l'augmentation de l'information fonctionnelle", selon laquelle tous les "systèmes naturels complexes" – qu'il s'agisse de la vie sur Terre ou des atomes, des minéraux, des planètes et des étoiles – évoluent vers des états "plus structurés, plus diversifiés et plus complexes".

Vivant, atomes, étoiles…

Concrètement, qu'est-ce que cela signifie ? Juste avant d'en venir aux exemples, il faut définir en quelques mots ce que les auteurs entendent par "évolution". Un terme qu'il faut ici comprendre comme "sélection pour la fonction". Restez concentré, c'est tout simple !

Si le naturaliste du 19e siècle Charles Darwin avait globalement assimilé la "fonction" à la survie des êtres, c'est-à-dire à la capacité de vivre assez longtemps pour produire une progéniture fertile, les auteurs vont plus loin en reconnaissant également comme fonctions la "stabilité" (capacité à perdurer) et la "nouveauté" (nouvelles configurations).

Pour illustrer la sélection de la "nouveauté", l'article évoque à la fois des cas qui concernent le vivant, à l'instar de la photosynthèse, de la vie multicellulaire (quand les cellules ont "appris" à coopérer jusqu'à ne former plus qu'un organisme) et des comportements animaux. Mais aussi des exemples au sein du règne minéral !

Ainsi, les minéraux de la Terre, qui étaient au nombre d'une vingtaine à l'aube de notre système solaire, sont aujourd'hui près de 6 000. Et c'est à partir de seulement deux éléments majeurs – l'hydrogène et l'hélium – que se sont constituées, peu après le big bang, les premières étoiles, au sein desquelles se sont ensuite formés une vingtaine d'éléments chimiques plus lourds, avant que la génération suivante d'étoiles ne s'appuie sur cette diversité initiale pour produire près d'une centaine d'autres éléments.

"L'évolution est partout"

"Charles Darwin a décrit avec éloquence la façon dont les plantes et les animaux évoluent par sélection naturelle, avec de nombreuses variations et caractéristiques des individus et de nombreuses configurations différentes. Nous soutenons que la théorie darwinienne n'est qu'un cas très particulier et très important au sein d'un phénomène naturel beaucoup plus vaste", résume dans un communiqué le Pr Robert M. Hazen, de Carnegie, qui a supervisé les travaux.

Et son collègue Michael L. Wong, astrobiologiste à Carnegie et premier auteur de l'étude, de compléter : "l'univers génère de nouvelles combinaisons d'atomes, de molécules, de cellules, etc. Les combinaisons qui sont stables et qui peuvent engendrer encore plus de nouveauté continueront à évoluer."

"C'est ce qui fait de la vie l'exemple le plus frappant de l'évolution, mais l'évolution est partout."

Cette nouvelle "loi de la nature" qui décrit une complexité croissante n'est pas sans en rappeler une autre : le deuxième principe de la thermodynamique. Celui-ci stipule en effet que "l'entropie" (autrement dit, le désordre) d'un système isolé augmente avec le temps – raison pour laquelle la chaleur circule toujours des objets les plus chauds vers les objets les plus froids.

Discussion ouverte

Forces et mouvement, gravité, électromagnétisme, énergie… La plupart des "lois de la nature", décrivant et expliquant les phénomènes observés en permanence dans le monde naturel, ont été énoncées il y a plus de 150 ans.

Nul doute que la nouvelle "loi de la nature" énoncée par l'équipe américaine – formée de trois philosophes des sciences, de deux astrobiologistes, d'un spécialiste des données, d'un minéralogiste et d'un physicien théorique – suscitera moult réactions au sein de la communauté scientifique.

"À ce stade du développement de ces idées, un peu comme les premiers concepts au milieu du 19e siècle pour comprendre "l'énergie" et "l'entropie", une discussion ouverte et large est maintenant essentielle", a d'ailleurs commenté dans le communiqué Stuart Kauffman, chercheur à l'Institut de biologie des systèmes (Seattle).

Pour rappel, une théorie n'est "scientifique" que si les principes qui la constituent conduisent à au moins une prédiction suffisamment précise pour pouvoir être testée par une expérience (ou une mesure) susceptible de la réfuter…

Auteur: Internet

Info: https://www.geo.fr, Nastasia Michaels, 16/10/2023

[ panthéisme ] [ panpsychisme ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel