Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1828
Temps de recherche: 0.0578s

origine de la vie

Une IA découvre que plusieurs bases de la vie, notamment sur l'ADN, peuvent émerger naturellement

L'Université de Floride annonce une avancée majeure dans la compréhension de la formation des molécules de la vie. À travers une expérimentation novatrice, des chercheurs ont utilisé le superordinateur HiPerGator pour démontrer que des molécules essentielles à la vie, comme les acides aminés et les bases de l'ADN, peuvent se former naturellement dans des conditions spécifiques.

Le superordinateur HiPerGator, reconnu pour être le plus rapide dans le milieu universitaire américain, a permis de franchir une nouvelle étape dans la recherche moléculaire grâce à ses modèles d'intelligence artificielle et à sa capacité exceptionnelle en unités de traitement graphique (GPU). Ces outils ont rendu possible l'étude des interactions et de l'évolution de vastes ensembles d'atomes et de molécules, une tâche auparavant inenvisageable avec les capacités de calcul disponibles.

Jinze Xue, doctorant à l'Université de Floride, a mené pendant les vacances d'hiver 2023 une expérience de chimie prébiotique. Utilisant plus de 1000 GPU A100, l'expérience a permis d'identifier 12 acides aminés, trois nucléobases, un acide gras et deux dipeptides parmi 22 millions d'atomes. Cette découverte marque un progrès significatif, révélant la formation de molécules complexes qui n'auraient pas été détectables avec des systèmes de calcul moins puissants.

La réussite de cette recherche repose sur l'utilisation de l'apprentissage automatique et de l'intelligence artificielle pour calculer les énergies et les forces agissant sur les systèmes moléculaires. Ces méthodes, selon Adrian Roitberg, professeur au Département de Chimie de l'Université de Floride, fournissent des résultats comparables à ceux de la chimie quantique de haut niveau, mais environ un million de fois plus rapidement.

Erik Deumens, directeur senior pour UFIT Research Computing, souligne la capacité unique de HiPerGator à réaliser de grands calculs, ouvrant la voie à des percées scientifiques majeures. Cette collaboration étroite entre l'université et l'équipe de Ying Zhang, responsable du soutien à l'intelligence artificielle chez UFIT, a permis d'accélérer l'analyse des données, réduisant le temps d'analyse à seulement sept heures, contre trois jours initialement estimés.

Cette recherche illustre le potentiel des simulations informatiques de grande envergure pour découvrir comment les molécules complexes peuvent se former à partir de blocs de construction simples. Elle marque une étape vers la compréhension des origines de la vie sur Terre et démontre l'importance des infrastructures de calcul avancées dans la recherche scientifique contemporaine.

Auteur: Internet

Info: https://www.techno-science.net/ - Adrien le 15/02/2024,  from : Université de Floride

[ source du vivant ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

drogue

La dépendance au tabac renforcée chez les porteurs d'une mutation génétique
Des chercheurs de l'Institut Pasteur, du CNRS et de l'UPMC - Université Pierre et Marie Curie viennent de prouver chez la souris que le besoin de nicotine, principale substance addictive du tabac, était fortement régulé par une mutation génétique très fréquente dans la population humaine. Cette mutation, qui affecte le récepteur neuronal à la nicotine, perturbe son fonctionnement et provoque en conséquence une inactivation partielle du "circuit de la récompense". Les individus porteurs de cette mutation ont donc besoin d'augmenter leur consommation de tabac pour en ressentir les effets. Ces résultats, publiés en ligne dans Molecular Psychiatry le 3 décembre, ouvrent la voie au développement de traitements de sevrage tabagique destinés aux individus porteurs de cette mutation.
Lorsque le tabac est consommé, la nicotine qu'il contient se fixe aux récepteurs nicotiniques, ce qui entraine l'activation du "circuit de la récompense". Il s'agit d'un système neuronal, qui dans un état fonctionnel normal, favorise entre autre la sensation de bien-être de l'individu. C'est l'effet de la nicotine sur le cerveau qui comble le manque ressenti par les fumeurs en cas de privation de tabac. En conséquence, la consommation de tabac d'un individu est fortement liée à la sensibilité de ces récepteurs nicotiniques.
Les équipes de Uwe Maskos, responsable de l'unité Neurobiologie intégrative des systèmes cholinergiques, Institut Pasteur/CNRS, et de Philippe Faure, chercheur CNRS au laboratoire "Neurobiologie des processus adaptatifs" (CNRS /UPMC), viennent de faire une découverte qui prouve que la dépendance au tabac peut être influencée par le patrimoine génétique de l'individu. Chez la souris, les chercheurs ont montré qu'une mutation génétique avait pour conséquence d'abaisser fortement la sensibilité à la nicotine. Les porteurs de cette mutation ont donc besoin d'une dose de tabac plus importante pour obtenir la même quantité de plaisir qu'un individu non porteur de cette mutation (environ 3 fois supérieure).
La mutation caractérisée par les chercheurs affecte une partie du récepteur nicotinique. Lorsqu'elle est présente, le fonctionnement de ce dernier est perturbé et le "circuit de la récompense" est en conséquence partiellement inactivé. Cette mutation est fréquente chez l'homme, d'autres études suggèrent qu'elle est présente chez 35% des européens et près de 90% des gros fumeurs. Ces découvertes ouvrent la voie au développement de traitements de sevrage "personnalisés", destinés aux individus porteurs de cette mutation génétique.

Auteur: Internet

Info:

[ accoutumance ] [ cigarette ]

 
Mis dans la chaine

Commentaires: 0

théorie

La musique, seul domaine que j'ai vraiment approfondi, m'a beaucoup appris sur les aspects d'une réalité, les facettes d'un monde comme celui-ci donnent une idée infiniment vertigineuse sur les complexités de l'univers et, par effet rétroactif, de notre cerveau humain. Tenez, s'il se focalise sur un mode, c'est à dire une gamme (découpe des "étages" que les musiques ont établi entre les redoublements de fréquences), un musicien cérébral dans mon genre saura l'appréhender de plein de manières : verticales (accord) et horizontales (mélodie). Deux branches qu'il pourra décliner via les degrés de la gamme et leurs renversements, tous renversements où verticalité et horizontalité s'appliquent. Ensuite ce grand jeu mathématique sonore correspond à quelque chose de concret - si l'on peut dire - puisqu'un bon musicien "entend" beaucoup de tout ça et, s'il l'a appris, saura aussi le verbaliser de maintes manières. Par exemple, le premier renversement de la dominante correspond à un son (couleur sonore) très mineur, à un mode (locrien), à une fonction harmonique (dominante)... accord "dominant" qui offre quatre appuis possible pour la basse selon quel renversement on utilise, etc... Tout cela est aussi, pour certains musiciens, visuel (Bach vient ici à l'esprit).  En voyant la partition le professionnel de la lecture "entend" la musique avant de la jouer...

Et il n'a pas été question de timbres, des instruments utilisés, ce qui démultiplie encore les possibilités. Sans parler du fait que chaque instrument appréhende différemment ce monde sonore mathématisé. Ainsi n'importe quelle musique donnée présente un vrai univers, virtuel certes, mais qui lui ressemble vraiment parce que  vivant, au sens où il a besoin du temps (pour son déroulement), qu'il peut être vu, entendu, décrit, commenté, mis sur partition, transposé, accéléré, ralenti, arrêté (et ainsi permettre d'en examiner certains détails...) Réorganisé... Presque à l'infini. 

Nous avons là une des probable raison qui fait que beaucoup de mathématiciens/physiciens sont férus de musique, (plutôt classique il me semble), peut-être bien parce qu'ils ont affaire à un système de codage du réel anthropique.

En ce sens ils se complaisent au sein d'un système fermé, verrouillé par les habitudes de la tonalité, probablement parce que cela les rassure. Ils sont conservateurs. Alors que les jazzmen/chercheurs s'y trouvent à l'étroit. Cette insatisfaction est une ouverture vers quelque chose de passionnant. Mais c'est une autre histoire.

Auteur: Mg

Info: 24 déc. 2015

[ solfège ] [ perspectivisme ] [ ondes ] [ simultanéïté ] [ points de vue ]

 

Commentaires: 0

question

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne fait pas tomber une théorie en contradiction avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

Auteur: Ananthaswamy Anil

Info: "Newtonian Space-Time", Texas Quarterly 10 : 174-200, May 22, 2023. Extrait de l'article : Le "problème de la mesure" de la théorie quantique pourrait être une pilule empoisonnée pour la réalité objective. La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

[ recherche fondamentale ] [ limites anthropiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique quantique

Mais revenons à l’article de 1990, dont voici l’introduction : "Le concept de hasard intrigue depuis longtemps les physiciens, et même l'humanité en général. Quelle est l'origine du hasard ? Dans quelle mesure le futur peut-il être prédit ? Notre incapacité à prédire l'avenir est-elle la conséquence de nos limites humaines ou plutôt la conséquence d'une impossibilité de principe ? Ces questions ont, en physique, une longue histoire. La physique classique héritée d'Isaac Newton était complètement déterministe : la connaissance parfaite de l'état d'un système à un instant donné permettait en principe la détermination de son état à tout instant ultérieur. Puis vint au début de ce siècle la mécanique quantique, où probabilités et hasard interviennent au niveau le plus fondamental de la théorie ; en effet, celle-ci ne peut fournir que des probabilités de mesurer telle ou telle valeur de la position, de l'énergie, etc. La mécanique quantique introduisit donc une indétermination fondamentale dans la nature, chose qu'Einstein lui-même ne voulut jamais accepter, comme en témoigne son célèbre "Dieu ne joue pas aux dés". Puis, assez récemment, on s'aperçut avec l'étude des "systèmes dynamiques", qu'après tout, la physique classique avait aussi du hasard, ou plus exactement de l'imprévisibilité, enfouis en son sein, puisque certains systèmes même très simples, comme un système de pendules, peuvent exhiber un comportement imprévisible. Le hasard, souvent associé au désordre, est ainsi devenu, du moins en physique, une notion pleine de contenu." (…)
Mais définir le hasard (ou une suite aléatoire de résultats de mesure) par un programme "minimal", qu’on ne peut pas réduire par un algorithme, c’est faire sauter en souriant l’interprétation métaphysique qui établit une équivalence entre forme aléatoire et absence d’intentionnalité, de sens, de volonté et de conscience. On en revient finalement à Kant qui expliquait que l’on ne peut pas plus démontrer l’existence de Dieu que son inexistence, que toute la métaphysique échappe à la démonstration logique.(…)
Alors sans doute faut-il reconnaître aujourd’hui que ces limites sont inhérentes à la raison humaine, outil magnifique mais incapable de tout surplomber et que, plus nous avancerons dans la connaissance de l’univers et de nous-mêmes, plus nous buterons sur l’inconnaissable ou, plus exactement, l’inexprimable par nos langages, qu’il s’agisse des mots ou des équations. Un inexprimable qui n’empêche pas la conscience et semble jaillir des noces paradoxales de la rigueur et de la liberté, autre nom du hasard.

Auteur: Anonyme

Info: Dans "Les magiciens du nouveau siècle"

[ connaissance maximale ] [ butée ] [ impossible ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

écosophie linguistique

FLP voudrait appréhender les mots et les phrases comme les atomes et autres briques du vivant, qui se structurent et structurent la nature. C'est à dire élaborer un agencement lexicologique, codage humain, qui s'inspire de certains mécanismes dont nous sommes issus

Il s'agira alors d'une hiérarchie différente, c'est à dire non pas selon des logiques de pouvoir, mais plutôt via des rencontres qui définissent en elles-mêmes certains points chauds, lieux, endroits topologico-temporels, carrefours gravitationnels, rencontres... tous synonymes d'opportunités collaboratives. Et éventuellement de rejets. 

La matière parle, interagit, s'adapte, sous l'influence de 3 acteurs majeurs : la gravitation, le cycle de l'eau et les transferts d'énergie. A partir de là elle développe des complexités qui résonnent entre elles et avec l'environnement au sens plus large, comme le soleil et les planètes... (autre chose ? voir ici les paragraphes à propos de la force de Coriolis). 

Ainsi la nature "fait avec" les conditions données telles que nous les percevons et les comprenons, générant des processus orthogonaux (espèces, essences... qui simultanément subjectivisent et généralisent... mutent...) dans le cadre d'une complexe syntropie d'interactions en constant rééquilibrage sur plusieurs niveaux-échelles. Tout ceci produisant un enchevêtrement qui ne peut qu'émerveiller l'observateur, intégré et dépassé par ce qui l'a généré lui-même. Nommons ce phénomène au niveau planétaire local : Gaïa. 

Orthogenèse elle-même ? C'est possible.

L'homme doit se réinventer afin de retrouver une place raisonnable au sein de ce système. 

Nous pensons que cela concerne, entre autres, le langage, ici écrit, pure particularité humaine, presque une définition de cette race.

Ainsi FLP, outil communautaire collaboratif, en développant un corpus lexicologique grâce à quelques esprits curieux - veut participer à cette réflexion-refonte, à partir de quelques idées. Dont celle, centrale, qui désire intégrer-concilier le développement idiosyncratique individuel subjectif solipsiste et horizontal de chacun au sein du processus vertical de la culture humaine, séquence humaine orthogonale elle-même intégrée le plus finement possible dans un processuf évolutif terrestres élargi, objectif, vertical temporel... et peut-être exponentiel. 

Il est plausible que tout ceci soit téléologiquement programmé et que la création-intégration de FLP apparaisse comme une émergence naturelle, contrefeu aux diverses IA sémantiques, structures mécaniques sans affect ni douleurs, ni émotions...   peur de la mort...   et autres particularités purement organiques.

Auteur: Mg

Info: déc 2023

[ ouverture ] [   intégration ] [   coopétition ] [   glocalisation ] [    au coeur de FLP mégalo ] [    tétravalence ] [   atemporalité ] [ transcendance ] [ contre-pouvoir ] [ nature ] [ modèle ] [ organique ]

 
Commentaires: 5
Ajouté à la BD par miguel

science économique

Daron Acemoglu est un économiste de renom et professeur au Massachusetts Institute of Technology (MIT). Il est d'origine turque et a apporté d'importantes contributions dans le domaine de l'économie, notamment en ce qui concerne la croissance économique et le développement, l'économie politique et les institutions. Il a écrit plusieurs livres influents, dont "Why Nations Fail" co-écrit avec James A. Robinson. Le travail d'Acemoglu se concentre souvent sur le rôle des institutions dans la formation des résultats économiques et ses recherches ont été largement reconnues et récompensées.

La position et les réflexions de Daron Acemoglu mettent l'accent sur les facteurs qui contribuent au développement économique et à la croissance. Il souligne l'importance des institutions inclusives pour favoriser la prospérité et le progrès. Selon Acemoglu, les institutions inclusives se caractérisent par des systèmes économiques et politiques ouverts et inclusifs, où les individus ont des opportunités égales, les droits de propriété sont protégés et il y a une égalité des chances pour les entreprises.

Il affirme que de telles institutions permettent aux individus d'innover, d'investir et de participer librement aux activités économiques, ce qui conduit à une croissance économique à long terme. En revanche, les institutions extractives, qui concentrent le pouvoir et la richesse entre les mains de quelques-uns, entravent le développement économique et perpétuent les inégalités.

Acemoglu souligne également l'importance des facteurs politiques et sociaux dans la formation des résultats économiques. Il fait remarquer que les politiques et les institutions sont souvent influencées par la répartition du pouvoir et les intérêts des différents groupes au sein d'une société. Par conséquent, il estime qu'il est essentiel de comprendre les interactions entre la politique, les institutions et les facteurs économiques pour comprendre le développement économique.

Dans son livre "Why Nations Fail", co-écrit avec James A. Robinson, il examine le rôle des institutions dans le succès ou l'échec des nations. Ils soutiennent que les institutions inclusives conduisent à la prospérité économique, tandis que les institutions extractives conduisent à la stagnation économique, voire à l'effondrement. Le livre donne des exemples de différents pays tout au long de l'histoire pour illustrer leur argument.

En résumé, le travail d'Acemoglu met l'accent sur l'importance des institutions et de leurs effets sur les résultats économiques et politiques, offrant ainsi des perspectives sur le développement et la prospérité des différentes nations et économies.

Auteur: chatGPT4

Info:

[ machine-homme ] [ portrait ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

En 2020, Jared Kaplan et ses collaborateurs d'OpenAI ont suggéré qu'il existait un ensemble de " lois d'échelle " pour les modèles de langage de réseaux neuronaux ; ils ont découvert que plus ils les alimentaient en données, plus ces réseaux étaient performants.  L’implication étant que nous pourrions faire de mieux en mieux en matière d’IA si nous rassemblions davantage de données et appliquions l’apprentissage profond à des échelles de plus en plus grandes. Ces rapports d'échelles ont indéniablement aidé, mais nous sommes loin du compte.

Il y a de sérieuses lacunes dans l’argumentation relative aux rapports d'échelles. Tout d'abord les améliorations apportées par les mises à l’échelle n’ont pas pris en compte ce que nous avons désespérément besoin d’améliorer : une véritable compréhension…. Augmenter les mesures examinées par Kaplan et ses collègues d'OpenAI (sur la prédiction des mots dans une phrase) n'équivaut pas au type de compréhension approfondie qu'exigerait une véritable IA. 

Cela semble de plus en plus patent.  

"Les lois d'échelle ne sont pas des lois universelles comme la gravité, mais plutôt de simples observations qui pourraient ne pas être valables éternellement, un peu comme la loi de Moore, une tendance dans la production de puces informatiques qui a duré des décennies mais qui a sans doute commencé à ralentir il y a dix ans." C'est toujours vrai , et récemment reconnu publiquement par Altman, qui a noté que nous ne saurons pas vraiment ce que GPT-5 pourrait faire avant d'y arriver.

Le charismatique PDG de l'entreprise, Sam Altman, avait écrit un article de blog triomphant claironnant " la loi de Moore pour tout ", affirmant que nous étions à quelques années seulement d'" ordinateurs capables de penser ", de " lire des documents juridiques " et (faisant écho à IBM Watson) de " donner avis médical. " Deux ans plus tard, nous n’avons rien qui corresponde à tout cela.

" Si ces mise à l'échelle ne nous amènent pas à une conduite autonome sûre, des dizaines de milliards de dollars d'investissement dans cette mise à l'échelle pourraient s'avérer vains ". 

La neurosymbolique pourrait être une alternative prometteuse. En attente/à voir, et DepMind vient de publier un bel article dans Nature sur un système neurosymbolique, AlphaGeometry.

Bref c'est implicitement reconnu bien des attentes quant à l'IA ne se sont pas réalisées et des gens comme Bill Gates, Demis Hassabis, Yann LeCun et Sam Altman ont tous reconnu qu'un plafonnement semble se profiler.

Auteur: Marcus Gary Fred

Info: 10 mars 2024

[ éphémères méta-moteurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

système économique

Dans un régime libéral, le contrôle social n’est plus politique mais juridique : il s’agit de se conformer à un corpus de normes distantes. Une première conséquence de ce bouleversement concerne les limites de la surveillance. Dans un monde divisé selon des lignes politiques, la surveillance est nécessairement limitée, à une zone géographique et à une communauté données. Tant que des distinctions proprement politiques subsistent, l’idée d’une surveillance mondiale [...] est un non-sens. Une mondialisation du contrôle n’est possible qu’après l’abolition des frontières politiques et leur remplacement par des normes juridiques abstraites, à vocation supposément universelle. En cela, seul un cadre de pensée libéral peut s’accommoder d’une mondialisation du contrôle social.

Deuxièmement, l’essor d’un contrôle social de nature juridique s’accompagne d’un changement de nature de l’espace public. Traditionnellement, l’accès à l’espace public était régulé par des facteurs politiques. [...] Ce sont donc toujours les appartenances qui ouvrent ou non l’accès à l’espace public. [...] C’est parce qu’une unité politique existe au préalable que l’on peut, ex post, laisser certaines latitudes aux hommes. A l’inverse, dès lors que le libéralisme a délégitimé les appartenances politiques, celles-ci ne constituent plus une base viable pour réguler l’accès à l’espace public. Cela ne veut néanmoins pas dire que l’accès à l’espace public devient totalement libre, mais que les restrictions changent de nature : elles sont désormais juridiques. Pour accéder à l’espace public, l’homme doit montrer sa conformité à une norme extérieure, plus ou moins abstraite. [...]

Troisièmement, la formalisation du contrôle social a des implications sociologiques voire anthropologiques. Traditionnellement, lorsque le contrôle social est informel, reflétant les valeurs d’un groupe, il est aisé d’en intérioriser le contenu, qui devient partie intégrante de l’éthique personnelle et des traditions communautaires. [...] La situation est toute différente dans le monde libéral moderne. Le contrôle social est purement extérieur, et ne peut donc pas être intériorisé. Il est bien davantage perçu comme arbitraire, et ne joue aucun rôle intégrateur à une communauté. Il ouvre simplement des portes pour des individus indistincts. Sur le temps long, le rapport que les hommes entretiennent aux institutions de contrôle est donc tout différent. Il n’y a aucun rapport intime à celles-ci, mais au contraire le sentiment d’une absence de sens qui caractérise les grandes machines bureaucratiques et techniques. Le progrès dans l’abstraction du contrôle est in fine facteur de déshumanisation.

Auteur: Travers Guillaume

Info: Dans "La société de surveillance, stade ultime du libéralisme", La nouvelle librairie, Paris, 2021, pages 61 à 64

[ globlisation ] [ virtualisation ] [ déracinement ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

Une IA envoie 5 champions de Poker au tapis en même temps

Pluribus, c'est son nom, a réussi pour la première fois à battre 5 joueurs à la fois au Texas Hold'em no limit. Développé par Facebook et l'Université de Carnegie-Mellon à Pittsburgh en Pennsylvanie, cette IA réalise pour la première fois ce qu'aucune autre n'avait accompli jusqu'ici.

En 1997, et pour la toute première fois, une IA battait un champion du monde d'échecs... Depuis de l'eau a coulé sous les ponts puisqu'une IA a récemment réussi à vaincre cinq adversaires au Poker Texas Hold'em, faisant ainsi d'elle la première IA victorieuse dans un jeu multijoueurs.

Une configuration plutôt modeste
L'IA Pluribus s'est "formé" une stratégie globale en 8 jours de calcul sur un serveur doté de 64 cœurs et aura nécessité moins de 512 Go de RAM. C'est donc assez peu par rapport aux autres IAs déployées ces dernières années pour battre des humains au jeux.

Là où Pluribus fait encore plus fort, c'est que celle-ci ne s'est pas entraînée contre un humain, mais simplement contre elle-même, encore et encore jusqu'à atteindre son meilleur niveau.

Une manière de jouer très personnelle
Seule, pendant une semaine, l'IA à pratiqué ce que ses programmeurs ont appelé le Monte Carlo counterfactual regret minimization. Le principe du Monte Carlo repose sur le fait de réfléchir toujours selon trois possibilités et de construire trois schémas des jeux possibles en prévision des coups à venir, un peu comme un arbre. Regret minimization, quant à lui, est le fait de prédire ce qui peut être joué et de mettre en place celui qui créera le moins de regrets une fois la décision prise.

L'IA a donc montré sa supériorité en évitant les erreurs que pourraient faire d'autres systèmes de ce type, car en un contre un, il est facile de connaître la main de l'adversaire, mais cela se complique lorsque quatre autres personnes sont à prendre en compte.

La plupart des IA sont ainsi battues en répétant finalement une habitude que l'adversaire humain pourrait repérer et mettre à son avantage. De la même façon, Pluribus est capable de changer de tactique en moins d'une minute, passant de la relance au bluff, la rendant ainsi inlisible et imprévisible. C'est donc encore une victoire pour l'IA, reste à savoir quel sera le prochain défi que les chercheurs parviendront à lui faire relever.

Auteur: Internet

Info: https://www.clubic.com. Laura Léger, contributrice, 15 juillet 2019

[ informatique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel