Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 93
Temps de recherche: 0.0723s

femmes-hommes

Des sourires qui détruisent le mythe de l'intuition féminine
L'idée populaire que la puissance de l'intuition féminine excède celle des hommes a été infirmée par une nouvelle étude.
Les psychologues qui ont examiné les capacités de plus de 15.000 personnes à identifier la sincérité de différents sourires en ont conclu que l'intuition féminine est un mythe.
En montrant une série de paires d'images d'individus montrant de vrais et de faux sourires, les hommes ont légèrement surpassé des femmes. Quand ils en sont venu à juger des expressions véritables et fausses de bonheur chez le sexe opposé, les participants mâles ont fait mieux de manière significative que les femelles.
Le professeur Richard Wiseman, psychologue à l'université de Hertfordshire, dit :"ces résultats remettent en cause la notion que les femmes sont plus intuitives que des hommes. Une recherche précédente avait montré l'évidence de l'intuition féminine mais peut-être qu'avec le temps les hommes sont devenus plus en contact avec leur côté intuitif.
"J'ai été étonné, étant donné que les femmes ont tellement plus confiance dans leur intuition. Nous avons pensé que les femmes seraient meilleures mais, globalement, les hommes les ont juste coiffées au poteau."
Aux participants on a montré 10 paires de photographies de visages souriant, dont certains étaient partiellement masqués. Un sourire de chaque paire était véritable et l'autre truqué.
Avant d'étudier les visages, les participants furent invités à évaluer leurs capacités intuitives. Plus de femmes se sont définies comme fortement intuitive - 77 pour cent comparé à juste 58 pour cent d'hommes. Cependant leurs affirmations ne furent pas confirmée par l'expérience de ce mois au festival international de la Science d'Edimbourg.
Les hommes purent sélectionner 72 pour cent de sourires véritables, alors que les femmes en détectèrent 71 pour cent. En évaluant la sincérité dans les visages du sexe opposé les hommes eurent raison dans 76 pour cent des cas comparé à 67 pour cent pour les femmes.
Le DR Wiseman indique :"Ceci pourrait être parce que les femmes éprouvent des émotions plus entièrement et sont plus expressives. Si les hommes ont un système émotif plus limité, ceci peut les aider à le truquer."
Susan Quilliam, psychologue des relations et auteur de livres sur les rapports entre la langue et le corps, dit que femmes ne sont pas bonne pour voir le manque de sincérité parce qu'elles sont programmées pour voir le côté lumineux. Les "femmes cherchent l'approbation plus souvent que des hommes. Elles seront moins à même de noter et de voir la fausseté dans les situations." La psychologue Gladeana McMahon ajoute :"les psychologues cognitifs définissent l'intuition comme un traitement rapide de l'information, de sorte que nous devrions obtenir la réponse avant de savoir la question. Peut-être bien que les femmes sont considérées comme plus intuitives parce qu'elles tendent à parler davantage de leurs sentiments.

Auteur: Fleming Nic

Info: Correspondant de Science 12/04/2005

[ mâles-femelles ] [ vus-scientifiquement ]

 

Commentaires: 0

consumérisme

Qu'est-ce que la "liberté économique" ? On pourrait penser que ce concept renvoie à la liberté par rapport aux contraintes de la vie économique : se libérer de la nécessité de travailler pour manger, par exemple, ou de celle de choisir entre acheter des médicaments et payer le loyer.

Mais ce n'est pas le cas. La liberté économique n'est pas apparentée non plus à l'idée habituelle que nous nous faisons de la liberté politique : elle n'a pas de lien étroit avec la liberté d'expression, la liberté de la presse, la liberté de réunion... des libertés qui donnent le droit de participer à la vie politique et d'influencer l'action publique. Elle ne désigne pas, par exemple, la satisfaction des besoins fondamentaux pour que l'expression culturelle et politique puisse s'épanouir.

Les grands théoriciens de la liberté économique ne sont pas des démocrates deweyiens ; promouvoir la participation collective à la prise de décision politique ne les intéresse pas. D'ailleurs, il y a antagonisme entre le concept conservateur de liberté économique et toute mesure engageant l'État à relever le niveau de vie de la masse de la population. La liberté économique s'oppose à des idées comme l'assurance maladie universelle, l'éducation publique gratuite et les subventions publiques aux beaux-arts, et elle s'y oppose encore plus si ces mesures doivent être financées par l'impôt progressif et redistributeur. Les politiques sociales mises en oeuvre par décision démocratique, comme dans le New Deal de Roosevelt, la Grande Société de Lyndon Johnson, pour ne rien dire du Chili de Salvador Allende [...], sont par leur nature même, selon ce mode de pensée, des atteintes à la liberté. En revanche, dans cette conception, le régime d'Augusto Pinochet, favorable au " libre marché ", a apporté " la liberté économique " au Chili.

On peut être libre économiquement sans avoir aucun droit d'expression politique, par exemple en vivant (ou d'ailleurs en mourant) sous la botte d'une junte militaire. La liberté économique consiste donc dans la capacité de vivre sa vie économique - et celle-là seulement - dans une sphère échappant au contrôle de l'État, donc réservée à l'interaction des forces privées. [...] C'est une liberté de dépenser. Pour mettre l'idée en perspective, il faut lui donner son vrai nom : la liberté d'acheter. On a tendance à ne pas trop s'attarder sur cette idée, au motif que c'est une absurdité manifeste, une perversion de langage, de dire que faire les magasins est une liberté. [...] La liberté de rechercher une gamme très diversifiée de biens et de services à des prix extrêmement variables, de la boutique haut de gamme à la grande surface et au magasin d'usine, se situe-t-elle vraiment sur le même pied que les autres sens du mot " liberté " ? Il est facile de pouffer devant l'idée même, si éloignée de notre conception progressiste de la liberté, fondement de la noble sphère des prises de décision politique et sociale. Mais on aurait tort de rire. L'étonnant, c'est le nombre de gens qui pensent ainsi, à quel point la notion conservatrice de liberté économique paraît intuitivement juste, et a pénétré en profondeur la vie moderne.

Auteur: Galbraith John Kenneth

Info: L'Etat prédateur : Comment la droite a renoncé au marché libre et pourquoi la gauche devrait en faire autant, Première partie : ENCORE UN DIEU QUI MEURT ; Chapitre 2 : La liberté d'acheter

[ marge de manoeuvre ] [ collectivisme ] [ fabrication du consentement ]

 

Commentaires: 0

monde subatomique

Des physiciens comprennent enfin pourquoi l’interaction forte est si tenace 

Il existe quatre forces fondamentales : la force de gravité, l’électromagnétisme, l’interaction faible et l’interaction (ou force) forte. Cette dernière est la plus intense. L’interaction forte agit en liant les quarks au sein des protons et des neutrons. Elle maintient ainsi les nucléons ensemble pour former des noyaux atomiques. La force forte est jusqu’à 100 000 milliards de milliards de fois plus intense que la force de gravité. Malgré cette intensité, elle est relativement peu comprise, par rapport aux autres forces. Récemment, des chercheurs ont percé l’un des mystères de l’interaction forte expliquant sa ténacité et sont notamment parvenus à la mesurer de façon plus précise.

L’interaction forte est quantifiée par la constante de couplage (que les auteurs de l’étude choisissent d’appeler simplement " couplage "), notée αs (alpha s). Il s’agit d’un paramètre fondamental dans la théorie de la chromodynamique quantique (QCD).

La difficulté de la mesure de αs réside principalement dans sa nature très variable : plus deux quarks sont éloignés, plus le couplage est élevé, et plus l’attraction entre eux devient forte. À des distances faibles, où αs est encore faible, les physiciens parviennent à appliquer des méthodes de calcul basique pour déterminer le couplage. Cependant, ces techniques deviennent inefficaces à des distances plus importantes. Dans une nouvelle étude, des physiciens ont ainsi réussi à appliquer de nouvelles méthodes pour mieux déterminer αs à des distances plus importantes. 

Un calcul basé sur l’intégrale de Bjorken

Poussé par sa curiosité, l’un des chercheurs a testé l’utilisation de l’intégrale de Bjorken pour prédire αs sur de longues distances. Cette méthode permet de définir des paramètres relatifs à la rotation de la structure des nucléons et ainsi de calculer le couplage de la force forte à courte distance. Le scientifique ne s’attendait donc pas à faire une découverte de ce calibre en faisant cet essai. Pourtant, contre toute attente, ses résultats ont montré qu’à un moment donné, αs cesse d’augmenter pour devenir constant. Il a ainsi partagé ses découvertes avec son mentor qui avait, lui aussi, obtenu des résultats similaires dans des travaux antérieurs.

 "Ce fut une chance, car même si personne ne s’en était encore rendu compte, l’intégrale de Bjorken est particulièrement adaptée aux calculs de αs sur de longues distances ", déclarent les chercheurs dans un article du Scientific American. Les résultats ont été présentés lors de diverses conférences de physique, durant l’une desquelles l’auteur principal a rencontré un autre physicien, Stanley Brodsky, qui aurait appuyé les résultats obtenus.

Une méthode par holographie

En parallèle à cette découverte, d’autres physiciens ont travaillé sur la mise au point d’une autre méthode de calcul de αs sur de longues distances, qu’ils ont appelée " holographie du front lumineux ". L’holographie est une technique mathématique qui a initialement été développée dans le contexte de la théorie des cordes et de la physique des trous noirs.

Cependant, en physique des particules, elle sert à modéliser des phénomènes en quatre dimensions (incluant les trois dimensions spatiales et une dimension temporelle) en se basant sur des calculs effectués dans un espace à cinq dimensions. Dans cette méthode, la cinquième dimension n’est pas nécessairement une dimension physique réelle, mais peut servir d’outil mathématique pour faciliter les calculs. L’idée est que certaines équations complexes en quatre dimensions peuvent devenir plus simples ou plus intuitives quand elles sont envisagées dans un espace à cinq dimensions.

Auteur: Internet

Info: https://trustmyscience.com/ - Miotisoa Randrianarisoa & J. Paiano·15 avril 2024

[ gluons ] [ force de cohésion nucléaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

architecture sonore

Les intervalles essentiels de la musique sont enracinés dans le discours humain
L'utilisation de 12 intervalles dans la musique de beaucoup de cultures humaines est enracinée dans la façon physique utilisée par notre anatomie vocale pour produire de la parole, selon des chercheurs de Duke University en neurologie cognitive.
Les notes particulières utilisées dans le son musical sonnent juste à nos oreilles en raison du travail spécifique de notre appareil vocal dans toutes les langues humaines, a déclaré Dale Purves, du George Barth Geller Professor for Research in Neurobiology.
Ce n'est pas quelque chose qu'on peut entendre directement, mais quand les bruits de la parole sont examinés avec un analyseur de spectre, les rapports entre les diverses fréquences qu'un individu emploie pour faire le son des voyelles correspond d'une manière quasi parfaite et ordonnée aux rapports entre les 12 notes de la gamme chromatique musicale, dit Purves. Ce travail a été mis en ligne le 24 mai. (téléchargement à http://www.pnas.org/cgi/reprint/0703140104v1)
Purves et les co-auteurs Deborah Ross et Jonathan Choi ont testé leur idée en enregistrant les langues indigènes chinoises et anglaise en faisant dire des bruits de voyelle avec des mots simples ainsi que dans des monologues courts. Ils ont alors comparé les ratios vocaux de fréquence aux ratios numériques qui définissent des notes dans la musique.
La vocalisation humaine vient basiquement des cordes vocales dans le larynx (la pomme d'Adam, dans le cou), qui créent une série de crêtes résonnant puissamment grâce au jet d'air montant des poumons. Ces crêtes de puissance sont alors modifiées par une multitude de moyens spectaculaires comme la déformation du palais mou, de la langue, des lèvres et d'autres parties encore. Notre anatomie vocale est plutôt comme un orgue dont on pourrait étirer, pincer ou élargir les tuyaux. Les anglophones produisent environ 50 bruits différents dans leur langue de cette façon.
Cependant, en dépit de la grande variation en anatomie humaine individuelle, les bruits de la parole produit par différents individus dans différentes langues produisent la même variété de ratios de résonance dit Purves.
Les deux plus basses de ces résonances, appelées formants, sont là pour les voyelles dans la parole. Enlevez ces deux premiers formants et vous ne pourrez rien comprendre de ce qu'une personne dit. La fréquence du premier formant est entre 200 et 1.000 cycles par seconde (hertz) et le deuxième entre 800 et 3.000 hertz.
Quand les chercheurs de Duke ont examiné les rapports de ces deux premiers formants avec les spectres du langage, ils ont constaté que les ratios montraient des relations avec la musique. Par exemple, le rapport des deux premiers formants dans la voyelle anglaise /a/, comme en "physique," pourrait correspondre à l'intervalle musical entre C et A sur un clavier de piano.
"Dans environ 70 pour cent des sons de ces discours, ces ratios tombaient pile sur des intervalles musicaux" dit Purves. "Cette prédominance des intervalles musicaux cachés dans la parole suggère que les notes de la gamme chromatique musicale sonnent juste à nos oreilles parce qu'elles correspondent aux rapports auxquels nous sommes exposés sans arrêt dans nos idiomes, bien que nous soyons tout à fait ignorants de la chose."
Peu de musique, excepté certains morceaux expérimentaux modernes, emploie chacun des 12 tons. La plupart des musiques emploient une gamme diatonique de 7 tons - ou gamme diatonique - pour diviser les octaves, et beaucoup de musique folklorique n'emploient que cinq tons, la gamme pentatonique.
Ces caractériellement correspondent aux ratios des formants les plus répandus dans la parole. Purves et ses collaborateurs travaillent maintenant afin de savoir si dans une culture donnée ou il y a une particularité de ces tons ou formants, ceci est lié aux rapports de formants particulièrement répandus dans la langue maternelle d'un groupe donné.
Purves et ses collaborateurs pensent également que ces résultats peuvent aider à éclairer un débat séculaire ; à savoir quel type d'accordages fonctionne le mieux pour les instruments. Dix des 12 intervalles harmoniques identifiés dans les discours anglais et mandarin ont "la bonne intonation" qui sonne plus juste pour la plupart des musiciens qualifiés. Ils ont trouvé beaucoup moins de correspondances avec d'autres systèmes d'accordages, y compris l'accordage à tempérament égal généralement utilisé aujourd'hui.
L'accordage a tempérament égal, dans lequel chacun des 12 intervalles de la gamme chromatique est exactement le même et un schéma qui permet à un groupe tel qu'un orchestre de jouer ensemble dans différentes clefs et au travers de beaucoup d'octaves. Bien qu'un accordage à tempérament égal sonne bien, c'est juste un compromis par rapport a quelque chose d'origine plus naturelle, vocalement dérivé d'intonation juste, dit Purves.
La prochaine étude de son groupe concernera notre compréhension intuitive comme quoi un morceau musical tend à paraître joyeux s'il est dans une tonalité majeure ou relativement triste dans une tonalité mineure. Ce qui pourrait aussi provenir de la voix humaine, suggère Purves.

Auteur: Fortean Times

Info: From Duke University

[ langage ] [ sciences ]

 

Commentaires: 0

illusionnisme

Le monde de la psychologie appliquée est un univers particulier qui se compose d’une multitude de techniques partagées avec le monde du mentalisme et ne forme avec lui en fait, qu’une seule et même entité. Un mentaliste est donc quelqu'un qui a exploré la psychologie assez profondément pour en extraire les techniques utiles, stratégies d’interaction choisies et appliquées avec soin et dans un but précis.

Nous vous déclinons ici 4 techniques de mentalisme très utiles dans un contexte conversationnel.

1) Le Yes set (théorie de l’engagement)

C'est un des piliers de l’influence, issu de la vue systémique de la persuasion développée par  Robert B. Cialdini dans les années 1980. Il est facilement vérifiable et très intuitive, stipule que le fait d’habituer les gens à effectuer une série d’actions les rend beaucoup plus susceptibles d’en effectuer par la suite. Cette idée "d’habituer" les gens prend ses sources directement dans le principe du conditionnement, que nous verrons plus en détail dans un prochain point. Cialdini explique calmement que l’engagement va de pair avec le principe de la cohérence psychologique, qui dit (en gros) que "puisque j’ai fait ceci, je devrais faire cela". Le cerveau cherchant constamment à rationaliser le monde pour mieux le comprendre, il a horreur de l’incohérence. D’où son classement en tant que technique de mentalisme de haut niveau.

2) L’Ancrage émotionnel

Un des effets stupéfiant du monde de la psychologie après l’effet miroir. Cette technique de mentalisme exploitée instinctivement par l’homme depuis des siècles. Mais il aura fallu attendre Ivan Pavlov, précurseur du comportementalisme, pour modéliser le processus de conditionnement au grand jour. En gros : Vous donnez des bonnes croquettes à votre chien, vous agitez une clochette, le chien mange les croquettes. Vous faites ça pendant une semaine, plusieurs fois par jour. A chaque fois que le chien mange, il entend le son des clochettes. Au bout d’une semaine, vous agitez les clochettes mais ne servez plus à manger… Et le chien salive. Vous recommencez des jours plus tard, le chien salive toujours. Que s’est-il passé ? Le chien a associé le son des clochettes à la nourriture et au démarrage de sa digestion. Il a été conditionné à saliver et à penser à sa nourriture au son des clochettes. Et bien sûr ça marche aussi pour les humains. 

Le processus d’ancrage a été largement amélioré et repris dans des domaines aussi divers que la publicité, l’humour, le storytelling, la thérapie, et est à la base du fonctionnement de l’hypnose. Parce que oui, l’ancrage fonctionne AUSSI avec les émotion et est bien sûr très exploité comme technique de mentalisme. 

En combinant  les domaines ci-dessus on "fabrique" la technique en piochant un peu partout et en l’adaptant à la situation. Il faut donc créer une atmosphère agréable et renforcer un lien émotionnel en utilisant la technique de l’ancrage émotionnel ?

3) Hypnose conversationnelle et suggestion d’idées

Nous sommes ici dans l’antichambre de la magie : cette technique de mentalisme, consiste ni plus ni moins en une maîtrise millimétrée du langage et des mots. Et ce contrôle, cette absolue suprématie sur l’histoire que votre cerveau articule, peut donner naissance à des résultats tout-à-fait remarquables. Les objectifs de l’hypnose conversationnelle sont principalement les deux suivants : 

- Éveiller des émotions chez votre interlocuteur en adoptant une forme colorée et percutante de discours

- Communiquer des suggestions d’idées en utilisant les mécanismes des sous-entendus.

Si ces buts conversationnels sont les mêmes que ceux définis dans l’hypnose thérapeutique, leur articulation est différente. On préférera une communication plus fine, car dans l’hypnose conversationnelle, l’environnement est rarement dévoilé (difficile d’être persuasif si on annonce d’emblée qu’on va être persuasif).

Au sein même de l’hypnose conversationnelle, deux techniques de mentalisme sont très souvent exploitées :

- La métaphore sous toutes ses formes (il y a plusieurs niveaux de complexité), qui permet de se projeter dans un cadre extérieur pour être libre de jouer avec les idées souhaitées (on appellera ce travail une communication "indirecte")

- La suggestion directe camouflée, qui permet d'instiguer des évocations agissantes dans le discours avec une dextérité très complexe à maîtriser. L’intonation des mots, la maîtrise des ancrages émotionnels et l’imagination y sont pour beaucoup.

4) La Synchronisation (ou l’effet miroir)

Le mystère et les incroyables résultats associés à l’effet miroir font partie des causes de la nécessité absolue de communiquer les techniques de mentalisme publiquement. L’effet miroir est le sujet d’innombrables recherches de psychologie sociale depuis au moins un demi-siècle. Comment ça marche ? C’est simple. En effet : si vous ressentez une connexion émotionnelle forte avec les gens qui vous ressemblent et qui s’impliquent aussi dans votre relation, c’est parce que vous fonctionnez souvent en "synchronisation" :

Vous pensez souvent aux mêmes choses et aux mêmes moments. Vous utilisez le même langage pour communiquer, les mêmes expressions, parfois le même ton, et les mêmes gestuelles. Vous prenez ou partagez choix et opinions similaires. Vous riez souvent de concert, il vous est plus facile de partager les émotions de l’autre (empathie affective). Etc.

Voilà donc l’effet "miroir", en référence à l’activation des fameux neurones éponymes de nos cerveaux. Essayez de remarquer les mécanismes de synchronisation/désynchronisation entre deux (ou plusieurs, mais c’est plus avancé) personnes autour de vous. Qui se synchronise sur qui ? Essayez de remarquer les conséquences de ces synchros/désynchros sur la qualité de la conversation et sur l’influence des participants… Gare aux surprises. 

Où cela mène-t-il de connaitre ou apprendre plus de techniques de mentalisme ?

Comprendre et développer l’univers de la psychologie appliquée, composée d’une multitude de techniques de mentalisme, vous permettra de les repérer et vous en protéger si elles sont utilisées avec de mauvaises intentions. Cela vous permettra aussi de savoir les utiliser et les améliorer, ce qui peut arriver si vous souhaitez renforcer un lien émotionnel, dynamiser un groupe, ou tout autre objectif.

Auteur: Internet

Info: https://humanize-project.com/atmosphere/4-techniques-mentalisme/

[ manipulation ] [ comédie ] [ rapports humains ] [ pnl ] [ programmation neurolinguistique ] [ effet Barnum ]

 
Commentaires: 8
Ajouté à la BD par miguel