Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 14
Temps de recherche: 0.0393s

sciences

L'enseignement a besoin d'un écosystème qui soutient une pratique basée sur des preuves. Il y'a besoin de meilleurs systèmes afin de mieux diffuser les résultats de la recherche, mais aussi d'une meilleure compréhension de la recherche, afin que les enseignants puissent être des observateurs critiques de ses preuves.

Auteur: Goldacre Ben

Info: "Les enseignants doivent diriger le programme de recherche" , www.theguardian.com. 18 mars 2013

[ pragmatiques ] [ éducation ] [ vérification ]

 

Commentaires: 0

Ajouté à la BD par miguel

nuées animales

Il y a quelque chose de fascinant dans la façon dont bouge une colonie d'oiseaux dans le ciel ou un banc de poissons dans l'océan, dit Cillian. Il existe une telle harmonie, un tel synchronisme lorsqu'ils se déplacent au gré des vents et des courants que l'on dirait que tous, ils ne font qu'un. J'ai lu un jour que le plus fascinant dans tout ça, c'est qu'il n'y a pas besoin pour l'individu d'avoir une vue d'ensemble du tout pour savoir comment réagir, échapper à tel prédateur ou attraper tel courant porteur. Il suffit à l'individu de n'être conscient que des mouvements de ses proches voisins pour coordonner les siens propres. C'est ainsi que naît le parfait accord dans le déplacement et qu'apparaissent ces soudains changements de direction, ces ruptures instantanées de cap, comme si tous ils étaient aiguillés par le même esprit. Imagines-tu ce que l'Homme serait capable de faire s'il s'efforçait de prêter attention à ses prochains et de se comporter en harmonie avec eux ? Imagines-tu les grandes choses dont serait capable l'humanité ? Au lieu de ça, chaque individu, chaque nation, recherche son propre intérêt sans se soucier de ceux et celles qui les entourent. C'est pour ça que tous ils se heurtent et se cognent, s'assomment en plein vol, perdent des plumes et finissent tous un jour par tomber en chute libre, et par s'écraser au sol.

Auteur: Vall David

Info: De chair et de marbre

[ auto-organisation ] [ systèmes critiques ] [ inharmonie terrestre ] [ groupes autonomes coordonnés ] [ essaims ] [ murmurations mathématiques ] [ formes modulaires ]

 

Commentaires: 0

Ajouté à la BD par miguel

penseurs

Question : Gómez Dávila entretenait une méfiance vis-à-vis de la philosophie qu’il réduisait volontiers à une simple rhétorique. Pourquoi cette critique de la philosophie chez lui sachant que son œuvre n’est pas seulement un exercice littéraire mais bien la défense de vues proprement philosophiques ?

Réponse : En paphrasant Pascal, je dirai que se méfier de la philosophie, c’est vraiment philosopher. Cette méfiance, en dehors de son aspect proprement méthodologique, tient certainement à la fois à son scepticisme et à son fidéisme. Méfiant par tempérament des nouveautés philosophiques et des systèmes totalisants de la modernité ou post-modernité. Il s’agit là de la même défiance que l’on trouvait chez certains, dont il est l’héritier, à l’égard de ceux que l’on appelait les "Philosophes" au XVIIIe.

L’ "anti-philosophie", ou la critique des "philosophes" est une caractéristique des penseurs contre-révolutionnaires et réactionnaires – à commencer par Joseph de Maistre – mais aussi des penseurs non-systématiques, existentiaux pour ne pas dire "existentialistes" (Pascal encore une fois, Kierkegaard, Nietzsche, Wittgenstein, etc.). Sa méfiance dans les pouvoirs de la raison, ou du rationalisme, de parvenir, seuls, à une quelconque vérité également. Ici, c’est l’héritier du romantisme, allemand mais pas seulement si l’on se souvient des critiques de Rousseau contre le culte de la science et de la raison de ses contemporains, autre facette des anti-Lumières. À l’instar d’un Pascal et d’un Rousseau ou Novalis, Gómez Dávila place la foi d’une part, puis le sentiment, la sensibilité ou l’intuition d’autre part, au-dessus de la raison et surtout de la ratiocination. Mais par ailleurs et paradoxalement, c’est également un héritier des Lumières et surtout de Voltaire par la dimension critique et même sarcastique de son œuvre, la liberté de sa pensée et le "grand style" de son écriture.

Pour finir, justement à propos de style, ce n’est pas tant la rhétorique qu’il méprise chez certains philosophes que le "jargon" c’est-à-dire, "l’impureté", voire l’absence, de style propre à l’expression technique du spécialiste (je renvoie sur ce sujet au paragraphe 101 du Gai savoir de Nietzsche dédié à Voltaire). Or selon Gómez Dávila, ainsi qu’il l’exprime à plusieurs reprises, la philosophie a besoin, pour sortir de sa routine académique et se revivifier, d’amateurs, de non-spécialistes ou "aficionados" tels que Socrate, Descartes, Hume, Kierkegaard, Nietzsche, etc. Pour lui, ainsi que j’ai essayé de le démontrer dans l’ouvrage en suivant l’interprétation de Pierre Hadot, la philosophie est plus une manière de vivre qu’une profession ; ou, si elle était un métier, ce serait un "métier de vivre" pour reprendre la belle formule de Pavese. Il y a incontestablement une dimension existentielle de la philosophie qui échappe, par définition, aux universitaires.

Auteur: Rabier Michaël

Info: https://philitt.fr/2021/03/05/

[ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

moyen âge

Chez les historiens médiévistes, qui en restent les principaux utilisateurs, la notion de féodalité renvoie schématiquement à trois usages différents. Un usage traditionnel (François-Louis Ganshof, Robert Boutruche), politique et juridique, désigne par féodalité les liens féodo-vassaliques, c'est-à-dire les relations hiérarchisées internes à l’aristocratie, fondées sur la fidélité (manifestée par le serment, auquel s'ajoute parfois le rituel de l'hommage), l'échange de services (la protection, l'aide et le conseil) et la possession partagée d'un fief (à la fois bien foncier et ensemble de droits seigneuriaux), entre seigneurs et vassaux. Cette organisation de la classe dominante constituerait la caractéristique majeure de la société européenne médiévale, pour certains dès l'époque carolingienne, pour d'autres plus tard, à l'âge justement désigné comme féodal. C'est cet usage traditionnel de la notion qui a fait l'objet du plus grand nombre de critiques, d'abord de la part d'historiens plus sensibles à la primauté du rapport de domination seigneurial sur les paysans (Rodney Hilton, Georges Duby, Robert Fossier), ensuite de la part d'historiens influencés par l'anthropologie et plus attentifs aux modalités non féodales de la régulation sociale à l'échelle des sociétés locales (Fredric Cheyette, Patrick Geary, Stephen White, Dominique Barthélemy) ou aux solidarités coutumières à l'échelle des royaumes (Susan Reynolds). Un deuxième usage, plus large et plus fréquent depuis les travaux de Marc Bloch et Georges Duby recourt au terme féodalité ou à l'expression société féodale pour définir une société où la domination sur la terre et les hommes est exercée à l'échelle locale au profit d'une aristocratie à la fois foncière et guerrière, laïque et ecclésiastique, à l'écart de toute souveraineté de type étatique. Dans ce cadre, la féodalité au sens traditionnel n'est plus que l'un des instruments de la reproduction de la domination aristocratique parmi d'autres, telles que la guerre vicinale, la culture de la faide (vendetta entre familles) ou l'élaboration de systèmes de représentations spécifiques comme "l'idéologie des trois ordres” clergé, noblesse et Tiers état . Un troisième usage (Guy Bois, Ludolf Kuchenbuch. Chris Wickham), souvent d'inspiration marxiste, emploie indifféremment féodalité ou féodalisme pour caractériser un régime social fondé sur l'appropriation du surproduit paysan par la classe aristocratique (laïque et ecclésiastique) à travers le grand domaine puis la seigneurie. Dans ce cadre aussi la féodalité au sens traditionnel est généralement considérée comme la principale modalité de redistribution de la "rente seigneuriale" au sein du groupe dominant (Pierre Bonnassie). Des considérations chronologiques variées sont associées à chacune de ces conceptions de la féodalité, les unes englobant l'ensemble de la période médiévale. de la chute de l'Empire romain à l'avènement des États modernes (tantôt situé aux XIVe- XVIe siècles, tantôt repoussé au XVIIIe siècle), les autres une période plus restreinte censée correspondre à la dissolution maximale de l'autorité publique entre l’effondrement de l’Empire carolingien et le renouveau monarchique capétien au XIIe siècle.

Auteur: Gauvard Claude

Info: Dictionnaire de l'historien

[ tour d'horizon ] [ sociologie ] [ pouvoirs ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Des chercheurs pourraient avoir découvert une nouvelle loi sur l'évolution de tout ce qui existe dans l'univers !

Comment les choses évoluent-elles ? C'est la question à laquelle les chercheurs tentent de répondre. Galaxies, étoiles et même la vie telle que nous la connaissons ont subi un processus d'évolution. La question est de comprendre comment ce processus se déroule et pourquoi il se produit.

(photo) Un exemple de systèmes complexes sont les galaxies et l'interaction entre elles lors d'une collision.

Lorsque nous regardons l'Univers, nous trouvons des structures complexes allant de la vie telle que nous la connaissons aux galaxies et aux étoiles. Dans différents domaines de la connaissance, le niveau de complexité semble être une question ouverte : comment les structures sont-elles parvenues à des niveaux aussi complexes ?

En biologie, une des questions est de comprendre comment la vie est arrivée à ce que nous connaissons aujourd’hui. En philosophie, la question de la conscience et de l'intelligence qui ont évolué vers des formes de plus en plus complexes. En astronomie, la question de savoir comment les galaxies ont évolué pour devenir ce que nous connaissons aujourd'hui reste jusqu'à présent un grand mystère.

Avec ces questions à l'esprit, un groupe de chercheurs de différents domaines se sont réunis pour proposer une nouvelle loi sur l'évolution des choses dans l'Univers. La loi est connue sous le nom de "loi de l'augmentation de l'information fonctionnelle" qui tente d'expliquer pourquoi les choses évoluent vers des structures plus complexes.

Systèmes Complexes

Des systèmes complexes peuvent être trouvés dans différents domaines allant de la sociologie à la physique. Le domaine se concentre sur la compréhension des unités d'un ensemble qui interagissent les unes avec les autres et ont une dynamique collective.

Un exemple de cela est le comportement d'un ensemble de personnes lors d'un concert de musique, chaque participant est une personne, mais il y a un comportement collectif.

La propre question de comment la vie est apparue est un problème qui a une intersection avec les systèmes complexes. Nous pouvons comprendre les êtres vivants comme une série d'interactions complexes entre les molécules qui à leur tour ont des interactions avec leurs atomes. Expliquer comment nous sommes arrivés à ce niveau de complexité est une grande question ouverte.

Complexité en Physique

En physique, le domaine des systèmes complexes est extrêmement riche pour expliquer différents types de problèmes. Les propres particules et interactions entre particules deviennent de véritables laboratoires. Mais peut-être que les grandes questions se trouvent à l'intérieur de l'astrophysique.

(photo) Les systèmes complexes peuvent être dans une variété de domaines allant de la sociologie à la physique.

Nous observons des galaxies de différents types avec des dynamiques compliquées. Notre propre Voie Lactée est un exemple de galaxie de type spirale, mais nous observons d'autres types tels que les elliptiques, les irrégulières et les lenticulaires. La dynamique complexe soulève des questions telles que : comment sont-elles apparues ?

L'une des missions principales du télescope spatial James Webb est de comprendre comment les galaxies se sont formées lorsque l'Univers était jeune. La réponse est si difficile qu'il y a un effort de la communauté scientifique pour analyser les détails des données pour commencer à tenter de répondre à la question.

Étude des Systèmes Complexes

Certains chercheurs de l'Université de Cornell se sont réunis pour répondre à la question : pourquoi les systèmes complexes, y compris la vie, évoluent-ils vers de plus grandes informations fonctionnelles au fil du temps ? L'étude a rassemblé des astronomes, des physiciens, des philosophes, un minéralogiste et un scientifique des données pour tenter de répondre.

Selon l'auteur de l'étude, c'était l'une des plus grandes réunions entre philosophes et scientifiques de la nature pour répondre à la question. Ensemble, ils ont introduit ce qu'ils ont appelé la "loi de l'augmentation de l'information fonctionnelle"Les lois aident à donner une direction pour comprendre la raison derrière ce que nous observons.

Loi de l'Augmentation de l'Information Fonctionnelle

Dans le travail publié par la revue PNAS, les chercheurs rapportent que la nouvelle loi stipule qu'un système évolue si différentes configurations du système sont utilisées pour une ou plusieurs fonctions. En d'autres termes, un système aura tendance à devenir de plus en plus complexe au fil du temps en fonction des fonctions.

La loi parle également de la sélection naturelle des systèmes et du fait que seuls certains survivront, c'est-à-dire que les plus complexes survivront. Cela est très similaire à la Théorie de l'Évolution de Darwin mais élargie à des systèmes qui ne sont pas vivants, comme l'arrangement des atomes ou même des galaxies.

Critiques

Le travail a été salué par différents chercheurs qui soutiennent que c'est un pas en avant dans la compréhension des systèmes complexes. Cependant, certains ont également examiné le travail avec critique, disant qu'il n'est pas nécessaire de trouver une loi analogue à la théorie de Darwin pour les systèmes non vivants.

Auteur: Internet

Info: https://www.tameteo.com, Roberta DuarteMeteored Brésil25/10/2023

[ réseaux bayésiens dynamiques ] [ macro ] [ micro ] [ nano ] [ giga ] [ astrophysique ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0

émergence du regard

Les yeux des mollusques révèlent à quel point l'évolution future dépend du passé

Les systèmes visuels d'un groupe obscur de mollusques fournissent un exemple naturel rare d'évolution dépendante du chemin, dans lequel une bifurcation critique dans le passé des créatures a déterminé leur avenir évolutif.

(photo : Les systèmes visuels des chitons, un type de mollusque marin, représentent un rare exemple réel d’évolution dépendante du chemin – où l’histoire d’une lignée façonne irrévocablement sa trajectoire future.)

Les biologistes se sont souvent demandé ce qui se passerait s'ils pouvaient rembobiner la bande de l'histoire de la vie et laisser l'évolution se dérouler à nouveau. Les lignées d’organismes évolueraient-elles de manière radicalement différente si on leur en donnait la possibilité ? Ou auraient-ils tendance à développer les mêmes types d’yeux, d’ailes et d’autres traits adaptatifs parce que leurs histoires évolutives précédentes les avaient déjà envoyés sur certaines voies de développement ?

Un nouvel article publié aujourd'hui dans Science décrit un cas test rare et important pour cette question, qui est fondamentale pour comprendre comment l'évolution et le développement interagissent. Une équipe de chercheurs de l'Université de Californie à Santa Barbara l'a découvert alors qu'elle étudiait l'évolution de la vision chez un groupe obscur de mollusques appelés chitons. Dans ce groupe d’animaux, les chercheurs ont découvert que deux types d’yeux – les ocelles et les yeux en coquille – ont chacun évolué deux fois indépendamment. Une lignée donnée peut évoluer vers un type d’œil ou vers l’autre, mais jamais les deux.

Curieusement, le type d’œil d’une lignée était déterminé par une caractéristique plus ancienne apparemment sans rapport : le nombre de fentes dans l’armure du chiton. Cela représente un exemple concret d' " évolution dépendante du chemin ", dans lequel l'histoire d'une lignée façonne irrévocablement sa trajectoire évolutive future. Les moments critiques dans une lignée agissent comme des portes à sens unique, ouvrant certaines possibilités tout en fermant définitivement d’autres options.

"C'est l'un des premiers cas où nous avons pu observer une évolution dépendante du cheminement", a déclaré Rebecca Varney , chercheuse postdoctorale au laboratoire de Todd Oakley à l'UCSB et auteur principal du nouvel article. Bien qu’une évolution dépendante du chemin ait été observée chez certaines bactéries cultivées en laboratoire, " montrer cela dans un système naturel était une chose vraiment excitante ".

"Il y a toujours un impact de l'histoire sur l'avenir d'un trait particulier", a déclaré Lauren Sumner-Rooney , qui étudie les systèmes visuels des invertébrés à l'Institut Leibniz pour les sciences de l'évolution et de la biodiversité et n'a pas participé à la nouvelle étude. "Ce qui est particulièrement intéressant et passionnant dans cet exemple, c'est que les auteurs semblent avoir identifié le moment où se produit cette division."

Pour cette raison, les chitons "sont susceptibles d'entrer dans les futurs manuels sur l'évolution" comme exemple d'évolution dépendante du chemin, a déclaré Dan-Eric Nilsson, un écologiste visuel à l'Université de Lund en Suède qui n'a pas participé à la recherche.

Les chitons, petits mollusques qui vivent sur les roches intertidales et dans les profondeurs marines, ressemblent à de petits réservoirs protégés par huit plaques de coquille – un plan corporel resté relativement stable pendant environ 300 millions d'années. Loin d'être des armures inertes, ces genres de plaques d'obus sont fortement décorées d'organes sensoriels qui permettent aux chitons de détecter d'éventuelles menaces.

(photo : Chiton tuberculatus , qui vit sur les côtes rocheuses des Caraïbes, utilise de nombreux ocelles pour obtenir une vision spatiale. Les chitons ont développé des ocelles à deux reprises au cours de leur histoire évolutive.)

Les organes sensoriels sont de trois types. Tous les chitons ont des esthètes (aesthetes : récepteur tout-en-un extrêmement synesthésique qui permet de détecter la lumière ainsi que les signaux chimiques et mécaniques de l'environnement.)

Certains chitons possèdent également un système visuel approprié : soit des milliers d'ocelles sensibles à la lumière, soit des centaines d'yeux en forme de coquille plus complexes, dotés d'un cristallin et d'une rétine permettant de capturer des images grossières. Les animaux dotés d'yeux en forme de coquille peuvent détecter les prédateurs imminents, en réponse à quoi ils se cramponnent fermement au rocher.

Pour comprendre comment cette variété d’yeux de chiton a évolué, une équipe de chercheurs dirigée par Varney a examiné les relations entre des centaines d’espèces de chiton. Ils ont utilisé une technique appelée capture d'exome pour séquencer des sections stratégiques d'ADN provenant d'anciens spécimens de la collection de Doug Eernisse , spécialiste du chiton à la California State University, Fullerton. Au total, ils ont séquencé l’ADN de plus de 100 espèces soigneusement sélectionnées pour représenter toute l’étendue de la diversité des chitons, assemblant ainsi la phylogénie (ou l’arbre des relations évolutives) la plus complète à ce jour pour les chitons.

Ensuite, les chercheurs ont cartographié les différents types d’yeux sur la phylogénie. Les chercheurs ont observé que la première étape avant l’évolution des yeux en coquille ou des ocelles était une augmentation de la densité des esthètes sur la coquille. Ce n’est qu’alors que des yeux plus complexes pourraient apparaître. Les taches oculaires et les yeux en coquille ont chacun évolué à deux reprises au cours de la phylogénie, ce qui représente deux instances distinctes d'évolution convergente.

Indépendamment, les chitons ont fait évoluer les yeux - et, à travers eux, ce que nous pensons être probablement quelque chose comme la vision spatiale - à quatre reprises, ce qui est vraiment impressionnant", a déclaré M. Varney. 

" Cette évolution s'est faite incroyablement rapidement ". Les chercheurs ont estimé que chez le genre néotropical Chiton, par exemple, les yeux ont évolué en l'espace de 7 millions d'années seulement, soit un clin d'œil à l'échelle de l'évolution.

Les résultats ont surpris les chercheurs. "Je pensais qu'il s'agissait d'une évolution progressive de la complexité, passant des esthètes à un système d'ocelles et à des yeux en forme de coquille - une progression très satisfaisante", a déclaré Dan Speiser , écologiste visuel à l'Université de Caroline du Sud et co-auteur d'un article. auteur. " Au lieu de cela, il existe plusieurs chemins vers la vision."

Mais pourquoi certaines lignées ont-elles développé des yeux en coquille plutôt que des ocelles ? Au cours d'un trajet de six heures en voiture depuis une conférence à Phoenix jusqu'à Santa Barbara, Varney et Oakley ont commencé à développer l'hypothèse selon laquelle le nombre de fentes dans la coquille d'un chiton pourrait être la clé de l'évolution de la vision du chiton.

Toutes les structures sensibles à la lumière sur la coquille du chiton, a expliqué Varney, sont attachées à des nerfs qui passent à travers les fentes de la coquille pour se connecter aux nerfs principaux du corps. Les fentes fonctionnent comme des organisateurs de câbles, regroupant les neurones sensoriels. Plus il y a de fentes plus il y les ouvertures par lesquelles les nerfs peuvent passer.

Il se trouve que le nombre de fentes est une information standard qui est enregistrée chaque fois que quelqu'un décrit une nouvelle espèce de chiton. " L'information était disponible, mais sans le contexte d'une phylogénie sur laquelle la cartographier, elle n'avait aucune signification ", a déclaré Varney. " Alors je suis allé voir ça et j'ai commencé à voir ce modèle."

Varney a constaté qu'à deux reprises, indépendamment, des lignées comportant 14 fentes ou plus dans la plaque céphalique ont développé des ocelles. Et deux fois, indépendamment, des lignées comportant 10 fentes ou moins ont développé des yeux en coquille. On se rend ainsi compte que le nombre de fentes verrouillées et le type d'yeux pouvaient évoluer : un chiton avec des milliers d'ocelles a besoin de plus de fentes, tandis qu'un chiton avec des centaines d'yeux en coquille en a besoin de moins. En bref, le nombre de fentes dans la  coquille déterminait l’évolution du système visuel des créatures.

Les résultats conduisent vers une nouvelle série de questions. Les chercheurs étudient activement pourquoi le nombre de fentes limite le type d'œil dans son évolution. Pour répondre à cette question, il faudra travailler à élucider les circuits des nerfs optiques et la manière dont ils traitent les signaux provenant de centaines ou de milliers d’yeux.

Alternativement, la relation entre le type d’œil et le nombre de fentes pourrait être déterminée non pas par les besoins de vision mais par la manière dont les plaques se développent et se développent dans différentes lignées, a suggéré Sumner-Rooney. Les plaques de coquille se développent du centre vers l'extérieur par accrétion, et des yeux sont ajoutés tout au long de la vie du chiton à mesure que le bord se développe. " Les yeux les plus anciens sont ceux au centre de l'animal, et les plus récents sont ajoutés sur les bords. ", a déclaré Sumner-Rooney. En tant que chiton, " vous pourriez commencer votre vie avec 10 yeux et finir votre vie avec 200 ".

Par conséquent, le bord de croissance d'une plaque de carapace doit laisser des trous pour les yeux nouceaux – de nombreux petits trous pour les ocelles, ou moins de trous plus grands pour les yeux de la coquille. Des trous trop nombreux ou trop grands pourraient affaiblir une coque jusqu'à son point de rupture, de sorte que des facteurs structurels pourraient limiter les possibilités pour cest yeux.

Il reste beaucoup à découvrir sur la façon dont les chitons voient le monde, mais en attendant, leurs yeux sont prêts à devenir le nouvel exemple préféré des biologistes d'évolution dépendante du chemin, a déclaré Nilsson. "Les exemples de dépendance au chemin qui peuvent être vraiment bien démontrés, comme dans ce cas, sont rares - même si le phénomène n'est pas seulement courant, c'est la manière standard dont les choses se produisent."



 



Auteur: Internet

Info: Résumé par Gemini

[ évolution qui dépend du chemin ] [ biologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel