Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 14
Temps de recherche: 0.0527s

monades et leur limites

Un peu de science-fiction pour présenter/entamer cette chaine

Tout d'abord il y a ici un problème de point de vue. D'où parle le créateur lecteur de cette chaine FLP ? A l'évidence il le fait depuis le sol terrestre, armé de ses sens, de la logique, et du langage, tous fortement grégaires, de son époque. Il sait qu'il n'est qu'un produit de tout ceci. 

Donc, avec le temps, les explorations multiples et tout le recul qu'il en acquiert, ces outils lui paraissent limitants.

Et puis, Internet aidant, il y a accès à de multiples sites/vidéos/témoignages, qui parlent d'autres réalités, mondes parallèles, mentaux, éthériques... Appelez-les comme vous voulez, ces autres dimensions, elles aussi fortement imprégnées par la culture de ceux qui en font témoignages, et donc sujettes à caution, voire peut-être plus à interpréter comme les projections de la singularité de chaque conteur-univers. Ici apparait une fois encore le tropisme humain, qui consiste à vouloir analogiser, catégoriser, conforter, etc. bref à développer des modèles rassurants. 

Mais oublions cela.

Ces autres réels permettent, même si c'est fortement virtuel, de se placer d'un point de vue d'où notre "réalité consensuelle humaine" peut être appréhendée avec un plus de distanciation. 

Et ça c'est bien sympatoche. 

Ainsi, bien calés depuis cette nouvelle perspective, on peut y aller avec des questions qui, n'en doutons pas, donneront à beaucoup une forte "impression d'olé olé". Et alors ?

Donc : est-ce qu'il existe une limitation personnelle, plus qu'une limitation d'espèce ? Quelle est la part limitative de l'individu au sein de sa race ?  Si nous sommes tous quelque part connectés à ce qu'on nommera au-delà, ceci via un "higher self", ce dernier est-il  limité à l'akashique Gaïa ? (ce qui est mon impression personnelle au passage) 

Autrement dit : les limitations se transcendent-elles mieux, ou plus facilement, au niveau personnel ou au niveau collectif ?... 

Exprimé différement : s'il existe un "Moi supérieur" métempirique, mieux averti, hyper conscient ou autre... est-il autant éloigné des autres "Moi supérieurs" que les "petits moi-ego" humains le sont entre eux à notre niveau inférieur ?

D'un point de vue astral élargi on pourrait aussi le formuler comme ceci : quelles sont les analogies entre mondes à basses vibrations (planétaires ?) et ceux dépeints comme "mondes supérieurs ou mondes à plus hautes vibrations", ces derniers étant par définition beaucoup plus vastes, plus élargis... plus ouverts. 

D'où, au-delà de ce questionnement quant aux éloignements des entités entre elles, cette question : s'il existe des analogies entre les divers niveaux vibratoires, planètes, univers... quelles sont elles ?

Et, pour pousser le bouchon plus au large : qu'en est-il alors de ceux aptes à se déplacer entre les couches, verticalement, pour autant que ce terme puisse avoir un sens ? 

Les anges en sont parait-il, même si les sources indiquent - par exemple - que notre niveau vibratoire pris à son plus haut point possible reste comme situé au fond d'un abime très difficilement accessible (trop bas) pour un ange. 

Bref tout ceci est bien amusant, et permet de tenter, humblement et sémantiquement, de tatouiller des limites qui semblent bien être celles de nos perceptions... et puis, de nos langages.

Auteur: Mg

Info: 26 août 2020

[ extrapolations ] [ prospectives ] [ anticipation ] [ moi miroir ] [ point de singularité ]

 
Mis dans la chaine
Commentaires: 5
Ajouté à la BD par miguel

cosmos miroir

Le cerveau humain ressemble étrangement à l'Univers

Des chercheurs ont comparé la structure de l'Univers à celle du réseau neuronal. Proportions, fluctuations de la matière, connexions entre les étoiles et les neurones... Ils ont constaté des similitudes troublantes entre les deux... malgré des échelles distantes d'années-lumière !

Comparer le cerveau humain, qui mesure en moyenne 1.500 cm3 et pèse 1,4 kg, avec l'Univers, estimé à plus de 880.000 milliards de milliards de kilomètres de diamètre, peut sembler quelque peu incongru. C'est pourtant l'exercice auquel se sont essayés deux chercheurs dans un article publié dans la revue Frontiers in Physics. Aussi étonnant que cela puisse paraître, ils ont découvert des similitudes troublantes entre les deux structures. "Bien que les interactions physiques dans les deux systèmes soient complètement différentes, leur observation au moyen de techniques microscopiques et télescopiques permet de saisir une morphologie analogue fascinante, au point qu'il a souvent été noté que la toile cosmique et la toile des neurones se ressemblent", écrivent l'astrophysicien Franco Vazza et le neurobiologiste Alberto Feletti.

70 % de masse "inutile"

Les similitudes sont d'abord notables au niveau des proportions. Le cerveau contient 86 milliards de neurones, reliés par des millions de milliards de synapses. L'Univers observable est formé d'au moins 100 milliards de galaxies, arrangées elles aussi en longs filaments et en nœuds. Dans les deux systèmes, 75 % de la masse a un rôle "passif" : l'eau dans le cas du cerveau, l’énergie noire dans le cas de l’Univers.

Partant de ce constat troublant, les chercheurs ont poursuivi leur comparaison plus loin, en cherchant à observer comment les fluctuations de la matière se dispersent à des échelles aussi différentes. Ils ont pour cela fait appel à une analyse de la densité spectrale de puissance, une technique souvent utilisée en cosmologie pour étudier la distribution spatiale des galaxies. "Notre analyse montre que la distribution des fluctuations au sein du réseau neuronal du cervelet sur une échelle allant de 1 micromètre à 0,1 millimètre suit la même progression de la distribution de la matière dans la toile cosmique mais, bien sûr, à une échelle plus grande qui va de 5 millions à 500 millions d'années-lumière", atteste Franco Vazza.

(Sur l'article original on voit deux photos, une section du cervelet grossie 40x à côté d'une simulation cosmologique de l’Univers - portion de 300 millions d’années - produite par l'Université de Bologne.)

Deux réseaux qui partagent les mêmes structures de connexions

Les deux chercheurs ont également comparé d'autres paramètres, comme le nombre de connexions dans chaque nœud et la tendance à recouper plusieurs connexions dans les nœuds centraux du système. "Une fois de plus, les paramètres structurels ont permis d'identifier des niveaux de concordance inattendus", révèle Alberto Feletti. Les chercheurs se sont aussi amusés à quantifier les informations stockables par chaque système. Sachant que chaque synapse peut contenir 4,7 bits de données, on estime que le cerveau humain est capable de stocker 2,5 petabytes de mémoire. Pour l'Univers, il a été calculé qu'il faudrait 4,3 petabytes de mémoire pour stocker toutes les informations des structures cosmiques observables. Là encore, les ordres de grandeur sont les mêmes.

"Il est probable que la connectivité au sein des deux réseaux évolue selon des principes physiques similaires, malgré la différence frappante et évidente entre les puissances physiques régulant les galaxies et les neurones", souligne Alberto Feletti. Bien entendu, il existe aussi des différences notoires entre les deux systèmes. On sait par exemple que l'Univers est en expansion et se réchauffe, ce qui n'est (heureusement) pas le cas du cerveau. De plus, cette comparaison est basée sur des simplifications majeures. Il n'en reste pas moins que l'expression "avoir la tête dans les étoiles" prend tout son sens à la lecture de cette étude.

Auteur: Internet

Info: Céline Deluzarche, journaliste, https://www.futura-sciences.com, le 19/11/2020

[ monde anthropo-solipsiste ] [ réalité consensuelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

FLP par soi-même

Nous-Je, humains bipèdes de la 3e planète, sommes issus d'une tribu qui a développé des signes puis des langages - améliorés ensuite via diverses fixations sur supports - débuts d'une mémorisation externe, avec ensuite des processus de traductions - au final un corpus extra-communautaire qui se prolonge dans le temps. Corpus qui n'est qu'un simple codage consensuel des représentations de notre réel humain, une réalité consensuelle anthropocentrique.

Vient la machine FLP.

En plus des règles incontournables d'insertions, d'une nécessaire compréhension du sens, alliée aux désambiguations sémantiques et étymologiques que permet le web, la méthodologie de FLP s'appuie sur quelques idées-fondations. Et un apriori audacieux. 

Les deux premières idées émanent de notre principal mentor, CS Peirce :

a) Un mot est quasi-esprit 

b) La triade priméité, secondéité, tiercité est incontournable. Elle permettra une approche pragmatique en cas de rencontre xénolinguistique (sous-entendu un langage alien, éventuellement auto-décrit et fixé sur support externe lui aussi.)

c) Notre apriori aventuré : la dualité du fonctionnement humain (principe du tiers exclus et autres développements boléens) atteint ses limites et conséquemment le fonctionnement tétravalent de l'atome du carbone (majeure ossature du développement de la vie telle que nous la connaissons) mérite une certaine attention quant aux possibilités logiques (sur base 4), et la souplesse des combinaisons qu'il propose. Une simple mise en parallèle des développements biologiques et leurs inouïes complexités taxonomiques entrelacées - par comparaison avec le langage et les idées humaines mélangées - nous donne idée de la pauvreté et de la simplicité de nos mots, idiomes et concepts... au regard, par exemple, des développements de l'arbre du vivant. Sans parler des incessantes avancées de l'épigénétique quantique - et autre trouvailles biophysiques, qui tendent à montrer que la frontière matériel-immatériel n'est pas "marquée", duale... formatés que nous sommes par des habitudes de catégorisations/classifications.

d) Les points précédents n'empêchent pas - et conduisent peut-être - vers une remise en question du rationalisme triomphant au regard de toutes les impuissances que ce dernier montre face à beaucoup de phénomènes classés dans les rubriques paranormales, parapsychique, voire pour dingo-lunatiques. Citons en vrac les placeb et nocebo, les prémonitions, Ufos, voyages astraux, l'inconscient, la télépahie, migration des âmes...  et autres phénomènes insaisissables que la science en pantoufle, bien installée dans des constructions longuement développées, a bien évidemment de la peine à aborder sereinement, c'est à dire sans se remettre profondément en question. 

e) Considérant que d'une certaine manière "tout est dans tout" et que l'unique approche communautaire humaine pour tenter de "mieux comprendre" son monde et qui nous sommes, se situe dans le langage. Considérant aussi que les divers idiomes des hommes - ici ramenés au français - apparaissent comme les meilleurs outils pour formuler et coder nos représentations de singes dépoilés (à l'instar des maths ou de la musique qui ne peuvent parler du langage) FLP, par les vertus de la technologie, se propose de sortir des taxinomies habituelles pour, à partir du mot simple et, dans un premiers temps, des combinaisons à deux ou trois items (mais on peut ici aller beaucoup plus loin),  proposer ce que nous nommons un "dictionnaire analogique intriqué".

Viennent alors les lectures exploratoires réflexives, personnelles, subjectives, dans ce nouveau biotope. Et puis une éventuelle participation, via l'insertion d'extraits, les discussions et propositions/modifications de tags-étiquettes... 

Enfin, avec un peu de pratique, s'offrent les possibilités de liaisons et de création de chaines pour les participants curieux, sujets quêteurs, joueurs... Qui, avec ces deux actions, pourront explorer certaines marottes personnelles, et commenceront non seulement à développer leurs propres Fils de pensées mais aussi, en précisant leur idée-intuition de départ, la contextualiseront mieux dans le corpus des mots et du langage en général. 

FLP est une forêt, avec une topologie multidimensionnelle. Beaucoup de ses sentiers s'y avéreront ardus, souvent trop longs, propices aux égarements, mais permettront parfois d'atteindre parfois certaine hauteurs bien agréables... Sans parler des chances de s'y retrouver coincé, arrêté par un cul-de-sac.

Auteur: Mg

Info: 4 août 2022

[ auto-arborescence ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel