Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 87
Temps de recherche: 0.0603s

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

querelle du filioque

La source la plus claire de la notion de pardon que le christianisme développera pendant des siècles remonte, dans les Évangiles, à saint Paul et à saint Luc. Comme tous les principes de base de la chrétienté, elle sera développée chez saint Augustin, mais c’est chez saint Jean Damascène (au VIIIe siècle) qu’on trouvera une hypostase de la "bienveillance du père" (eudoxia), de la "tendre miséricorde" (eusplankhna) et de la "condescendance" (le Fils s’abaisse jusqu’à nous)(synkatabasis). A rebours, ces notions peuvent être interprétées comme préparant la singularité du christianisme orthodoxe jusqu’au schisme de Per Filium/Filioque.

Un théologien semble avoir profondément déterminé la foi orthodoxe qui s’exprime puissamment chez Dostoïevski et donne à l’expérience intérieure propre à ses romans cette intensité émotionnelle, ce pathos mystique si surprenants pour l’Occident. Il s’agit de saint Syméon le Nouveau Théologien (999-1022). [...] Saint Syméon comprend la Trinité comme une fusion des différences que sont les trois personnes, et l’énonce intensément à travers la métaphore de la lumière.

Lumière et hypostases, unité et apparition : telle est la logique de la Trinité byzantine. Elle trouve immédiatement, chez Syméon, son équivalent anthropologique : "Comme il est impossible qu’il existe un homme avec parole ou esprit sans âme, ainsi il est impossible de penser le Fils avec le Père sans le Saint-Esprit [...]. Car ton propre esprit, de même que ton âme, est dans ton intelligence, et toute ton intelligence est dans tout ton verbe, et tout ton verbe est dans tout ton esprit, sans séparation et sans confusion. C’est l’image de Dieu en nous." Dans cette voie, le croyant se défie en fusionnant avec le Fils et avec l’Esprit : "Je te rends grâce que sans confusion, sans changement, tu te sois fait un seul Esprit avec moi, bien que tu sois Dieu par-dessus tout, tu sois devenu pour moi tout en tout."

Nous touchons ici l’ "originalité de l’orthodoxie". Elle aboutira, à travers maintes controverses institutionnelles et politiques, au schisme accompli au XIe siècle et achevé avec la prise de Constantinople par les Latins en 1204. Sur le plan proprement théologique, c’est Syméon plus que Photius qui formule la doctrine orientale Per Filium opposée au Filioque des Latins. Insistant sur l’Esprit, il affirme l’identité de la vie dans l’Esprit et de la vie dans le Christ, cette pneutamologie puissante trouvant dans le Père son origine. Toutefois, une telle instance paternelle n’est pas simplement un principe d’autorité ou une cause mécanique simple : dans le Père, l’Esprit perd son immanence et s’identifie au royaume de Dieu défini à travers des métamorphoses germinales, florales, nutritives et érotiques qui connotent, par-delà l’énergétisme cosmique souvent considéré spécifique à l’Orient, la fusion ouvertement sexuelle avec la Chose aux limites du nommable.

Dans cette dynamique, l’Église elle-même apparaît comme un soma pneumatikon, un "mystère", plus qu’une institution à l’image des monarchies.

Cette identification extatique des trois hypostases entre elles et du croyant avec la Trinité ne conduit pas à la conception d’une autonomie du Fils (ou du croyant), mais à une appartenance pneumatologique de chacun aux autres, que traduit l’expression Per Filium (l’Esprit descend du Père par le Fils) opposée au Filioque (l’Esprit descend du Père et du Fils).

Il a été impossible, à l’époque, de trouver la rationalisation de ce mouvement mystique interne à la Trinité et à la foi, où, sans perdre sa valeur de personne, l’Esprit fusionne avec les deux autres pôles et, du même coup, leur confère, au-delà de leur valeur d’identité ou d’autorité distinctes, une profondeur abyssale, vertigineuse, certainement aussi sexuelle, dans laquelle se logera l’expérience psychologique de la perte et de l’extase. Le nœud borroméen que Lacan a utilisé comme métaphore de l’unité et de la différence entre le Réel, l’Imaginaire et le Symbolique permet peut-être de penser cette logique, si tant est qu’il soit nécessaire de la rationaliser. Or, précisément, tel ne semblait pas être le propos des théologiens byzantins du XI au XIIIe siècles, préoccupés de décrire une nouvelle subjectivité post-antique plutôt que de la soumettre à la raison existante. En revanche, les Pères de l’Église latine, plus logiciens, et qui venaient de découvrir Aristote (alors que l’Orient en était nourri et ne cherchait plus qu’à s’en différencier), ont logifié la Trinité en voyant en Dieu une essence intellectuelle simple articulable en dyades : le Père engendre le Fils ; le Père et le Fils en tant qu’ensemble font procéder l’Esprit. Développée par la syllogistique d’Anselme de Cantorbury au concile de Bari en 1098, cette argumentation du Filioque sera reprise et développée par Thomas d’Aquin. Elle aura l’avantage d’asseoir d’une part l’autorité politique et spirituelle de la papauté, d’autre part l’autonomie et la rationalité de la personne du croyant identifié à un Fils ayant pouvoir et prestige à égalité avec le Père. Ce qui est ainsi gagné en égalité et donc en performance et en historicité, est peut-être perdu au niveau de l’expérience de l’identification, au sens d’une instabilité permanente de l’identité.

Auteur: Kristeva Julia

Info: Dans "Soleil noir", éditions Gallimard, 1987, pages 218 à 222

[ influence ] [ psychanalyse ]

 
Commentaires: 3
Ajouté à la BD par Coli Masson

théorie du tout

Des scientifiques affirment avoir découvert ce qui existait AVANT le début de l'univers !

Les versions non scientifiques d'une réponse ont invoqué de nombreux dieux et furent à la base de toutes les religions et de la plupart des philosophies depuis le début de l'histoire.

Aujourd'hui, une équipe de mathématiciens du Canada et d'Égypte a utilisé une théorie scientifique de pointe et une série d'équations époustouflantes pour découvrir ce qui a précédé l'univers dans lequel nous vivons.

En termes (très) simples, ils ont appliqué les théories de l'infiniment petit - le monde de la mécanique quantique - à l'ensemble de l'univers - expliqué par la théorie générale de la relativité, et ont découvert que l'univers passe fondamentalement par quatre phases différentes.

Plus important encore, ils ont découvert ce qui a précédé cet univers... un autre univers ou, plus précisément, une autre "phase cosmologique".

Bien que sa taille soit infinie, notre univers est cyclique et a toujours existé à l'un des quatre stades.

L'univers est en expansion, et cette expansion s'accélère, mais l'équipe pense que certaines modifications motivées par la mécanique quantique finiront par stopper l'expansion et ramèneront l'ensemble à un point quasi infini - à ce stade, l'univers recommencera à s'étendre.

L'article, intitulé ''Non-singular and Cyclic Universe from the Modified GUP'', écrit par Maha Salah, Fayçal Hammad, Mir Faizal, Ahmed Farag Ali, est très complexe, mais le professeur Mir Faizal en a souligné les principaux points.

Selon lui, ils ont intégré les effets de la mécanique quantique dans la cosmologie en utilisant une approche appelée GUP modifiée.

Cette approche modifie l'équation de la cosmologie d'une manière très intéressante. Elle prédit quatre phases distinctes pour notre univers - la phase actuelle de l'univers n'étant qu'une de ces phases.

Dans ce modèle cosmologique, il existe une phase antérieure au big bang, et il est possible de connaître cette phase de l'univers en étudiant la physique de la phase actuelle de notre univers.

Le professeur Mir Faizal a déclaré : "Dans notre modèle cosmologique, l'univers n'a pas commencé par un big bang : "Dans notre modèle cosmologique, l'univers n'a pas commencé par un big bang, mais il y a eu une transition d'une phase de l'univers à une autre.

"Cela est possible parce que l'univers peut exister dans quatre phases différentes, comme l'eau ordinaire peut exister dans trois phases différentes. Tout comme nous pouvons connaître les propriétés de la glace en étudiant l'eau qui s'est formée à partir d'elle, nous pouvons connaître la cosmologie d'avant le big bang en étudiant la physique de cet univers.

"En utilisant notre modèle cosmologique, nous pouvons étudier la physique de la phase cosmologique précédant le début de notre univers.

Leur modèle leur a permis d'étudier l'état de l'univers avant le Big Bang. Les équations de leur modèle prédisent que l'expansion de l'univers s'arrêtera et sera immédiatement suivie d'une phase de contraction.

Le professeur Mir a ajouté : "Lorsque les équations sont extrapolées au-delà du taux maximal de contraction, un scénario d'univers cyclique émerge. "D'autres cosmologistes ont proposé un scénario de big bang et de big crunch, mais ces modèles présentent des singularités.

"Les singularités sont néfastes en physique, car elles indiquent un endroit où les lois de la physique s'effondrent, et à ces endroits, on ne peut pas utiliser la physique pour obtenir des résultats significatifs.

"Ce nouveau modèle cosmologique élimine ces singularités. La singularité du big bang peut donc également être évitée en utilisant les corrections GUP modifiées pour la cosmologie".

Dans leur modèle cosmologique, la nature cyclique de l'univers résulte de l'incorporation d'effets quantiques dans un modèle cosmologique de l'univers.

Le professeur Faizal a expliqué que même s'il existe de nombreuses approches étonnantes de la gravité quantique, comme la théorie des cordes et la gravité quantique à boucles, le point commun de la plupart de ces approches est qu'il existe une longueur minimale en dessous de laquelle l'espace n'existe pas.

Beaucoup de ces approches prédisent également qu'il existe une énergie maximale et qu'aucun objet dans l'univers ne peut avoir une énergie supérieure à cette énergie maximale.

L'équipe de chercheurs a intégré l'effet d'une longueur minimale et d'une énergie maximale dans un modèle cosmologique, pour aboutir à un univers cyclique.

Interrogé sur les implications philosophiques, voire théologiques, de ses travaux, le professeur Mir a déclaré : "Personne ne tire d'implications philosophiques ou théologiques d'une dimension spatiale finie ou infinie, et le temps n'est qu'une dimension parmi d'autres, alors pourquoi devrait-il être traité différemment ?

"En tout état de cause, je ne crois pas en un Dieu des lacunes, le big bang étant une grande lacune, mais en un Dieu qui a rendu les mathématiques décrivant la réalité si parfaites qu'il n'y a pas de lacunes, ni aujourd'hui ni au moment du big bang.''

Le professeur Faizal a également travaillé sur le Grand collisionneur de hadrons, où il a exploré les portes d'autres univers.

 

 

Auteur: Internet

Info: https://www.thesci-universe.com/ 5,15,2023

[ hypothèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les Grands Modèles de Langage  s’attaquent à l’émergence !  Un éloge intolérable de … l’obésité !

Le mois dernier j’ai proposé  ici une série de 6 billets où je quadriloguais avec GPT-4 et une version dédoublée de Claude 3 à propos de la conjecture P vs NP, une question classique d’informatique théorique relative à la relation – pour autant qu’il en existe une – entre la complexité de la solution d’un problème et la complexité de la vérification qu’une solution a bien été trouvée.

Vous avez sans doute vu ce qui s’est passé : " M. PJ, votre blog était le lieu de rendez-vous de personnes s’efforçant de résoudre de grands problèmes de société (je vous en remercie !) mais il s’est métamorphosé en un club restreint de mathématiciens fascinés par des casse-têtes abscons. Je vous ai accompagné·e jusqu’ici mais je suis forcé·e aujourd’hui de vous dire adieu : bonne chance à vous dans vos coupages de cheveux en quatre ! ".

J’ai été décontenancé par ces paroles de bon sens, et je n’ai pas publié la suite.

Mal m’en a pris : c’est à ce moment-là que j’ai commencé à recevoir des mails du genre : " M. Jorion, où ailleurs croyez-vous que l’on trouve des discussions – et des avancées – sur des questions véritablement fondamentales comme sur votre blog ? Que vous ont dit ensuite GPT-4 et Claude 3 (je bous d’impatience de l’apprendre !) ? ".

Tout cela pour vous annoncer que je suis allé asticoter mes comparses sur la question de l’émergence.

Vous avez dû comprendre que la chose qui nous sidère dans les progrès des Grands Modèles de Langage (LLM) est le fait que des tas de choses qui nous semblaient absolument distinctes (par exemple : comprendre le sens d’un mot, maîtriser la syntaxe d’une phrase, comprendre le sens global d’une phrase, respecter les règles de la logique, se mettre à la place d’un interlocuteur, exprimer ses sentiments), et pour lesquelles nous avons découvert des règles claires rendant compte de leur fonctionnement séparé, sont en fait acquises " les doigts dans le nez ", l’une après l’autre, par ces LLM, pour nulle autre raison que la croissance en taille de leur système.

Toutes ces remarquables capacités émergent, l’une après l’autre, quand on augmente, tout simplement, les moyens à la disposition du système. Nous n’étions pas préparés à penser que l’intelligence émerge spontanément d’un système dès qu’il a atteint une certaine grosseur, nous pensions qu’un ingrédient supplémentaire était indispensable, que nous appelions " complexité ". Que l’intelligence apparaisse comme sous-produit de la complexité, pourquoi pas ? mais de la simple grosseur ! il y avait là comme un éloge intolérable de … l’obésité, qui constituerait une qualité en soi !

Comprenons-nous pourquoi la taille change tout ? Non. Et il n’y a pas de raison de s’en offusquer : quand on passe d’un milliard de données à 100 milliards, on a besoin d’un télescope pour regarder ce qui se passe, et s’armer alors d’un microscope apparaît très logiquement, hors de propos. Claude Roux écrivait ici tout à l’heure : " C’est là qu’est le hic… Personne ne le sait vraiment. "

Mais c’est là aussi que Pribor.io trouve toujours sa raison d’être. Si l’on adopte une approche " bottom-up ", du bas vers le haut, par opposition à l’approche " top-down ", du haut vers le bas, des LLM, on évite d’être aux abonnés absents quand un effet d’émergence a lieu : il a opéré sous nos yeux et l’on peut dire ce qui s’est passé.

Le logiciel d’IA que j’avais programmé de 1987 à 1990 pour British Telecom s’appelait ANELLA, pour Associative Network with Emergent Logical and Learning Abilities : " … à capacités émergentes de logique et d’apprentissage ". Il m’a fallu les 34 années qui séparent 1990 de 2024 pour comprendre exactement comment la logique émergeait d’une simple suite de mots. C’est qu’il s’agissait du produit d’une alchimie complexe entre l’univers des mots et celui du monde tel qu’il est.

Je vous expliquerai cela un jour prochain, je me contente de vous le résumer aujourd’hui sous une formule sibylline : " Les faits d’émergence ont lieu dans la langue quand nous contraignons tout ce qu’elle permet par ce que le monde interdit lui de son côté ". Exemple : la langue n’interdit pas aux objets de tomber du bas vers le haut, mais le monde lui : Oui ! Lacan (qui se payait notre pomme avec délectation mais avait cependant compris beaucoup de choses) appelait cela " points de capiton ", comme dans un matelas : pour que la chaîne des signifiants, les mots mis à la queue-leu-leu, servent à quelque chose, il faut qu’ici et là, ils collent au Réel, à la réalité profonde des choses. Il n’est pas nécessaire que cela ait lieu souvent (le monde étant très généreux envers nous : il nous a offert cette facilité que nous vivions la plupart du temps confortablement dans un nuage), mais il faut que cela ait lieu de temps à autre ici et là.

Ne vous étonnez donc pas si dans la suite de cette nouvelle série, GPT-4, Claude 3, LLaMA 3 et moi, nous nous interrogeons sur l’émergence, en vue de craquer ses mystères. Faites-nous confiance : cela participe de la Singularité et non du coupage de cheveux en quatre dans laquelle l’humanité se complaît depuis qu’ayant inventé le langage, elle ne cesse de… se saouler de mots !

Auteur: Jorion Paul

Info: Sur son blog, 12 mai 2024

[ abstraction ouverture ] [ langage quasi-esprit ] [ codage priméité tiercité ] [ émersion ]

 
Commentaires: 3
Ajouté à la BD par miguel

aptitude adaptative

(Q) - Il y a ce questionnement quant à la notion de “pouvoir”, au sens politique du terme.

Existe-t-il des exemples dans la nature qui peuvent être rapproché avec ce qu’on voir chez les hommes au sens où une personne unique peut concentrer un pouvoir absolu, au sommet d’une hiérarchie, à l’échelle d’un pays, voire d’un continent

(R) - Il est intéressant de noter que la notion de pouvoir politique, qui implique la domination et la capacité de prendre des décisions contraignantes sur un groupe de personnes, est une construction humaine spécifique à notre société. Dans la nature, les exemples de concentration absolue du pouvoir sont rares, voire inexistants.

Chez les animaux, on observe généralement des comportements sociaux basés sur des relations hiérarchiques. Par exemple, dans une meute de loups, il y a un individu dominant, souvent appelé le chef de meute, qui possède un niveau de pouvoir plus élevé que les autres membres de la meute. Cependant, cette domination est souvent contestée et peut changer à mesure que les individus grandissent ou que de nouveaux membres rejoignent la meute. De plus, la capacité de prise de décision des loups dominants est relativement limitée et se concentre principalement sur des aspects tels que la chasse et l’accès aux ressources.

Dans le règne végétal, il n’existe pas de notion de pouvoir politique. Les plantes ont plutôt des stratégies de compétition pour l’accès à la lumière, à l’eau et aux nutriments. Certaines plantes peuvent supprimer la croissance des autres en utilisant des toxines, tandis que d’autres peuvent projeter leur ombre pour réduire l’accès à la lumière solaire. Cependant, cela relève davantage d’une adaptation écologique visant la survie et la reproduction, plutôt que d’une forme de pouvoir politique.

En somme, bien que des exemples de dominance et de compétition existent dans la nature, ils sont fondamentalement différents du pouvoir politique tel que nous le concevons chez les humains. La concentration absolue du pouvoir au sommet d’une hiérarchie politique ou à l’échelle d’un pays ou d’un continent est une caractéristique spécifique à notre société et à notre espèce.

(Q) - Merci, pour la réponse... Je poursuis ma question. 

Ne peut-on pas penser qu'il existe un  pouvoir mystérieux au niveau bactériel dans la mesure où toutes les bactéries du monde ont avant tout accès à un pool génétique unique et donc aux mécanismes d'adaptation de l'ensemble du règne bactérien. Cette vitesse de recombinaison est supérieure à celle de la mutation : en cas de changement à l'échelle mondiale il faudrait un million d'années aux organismes eucaryotes pour s'adapter alors que les bactéries pourront le faire en quelques années ?

(R) - Votre question est très intéressante ! En effet, les bactéries possèdent des mécanismes génétiques uniques qui leur permettent de s’adapter rapidement à des changements de leur environnement. Ce phénomène est connu sous le nom d’échange horizontal de gènes ou de recombinaison génétique.

La recombinaison génétique chez les bactéries permet le transfert horizontal de fragments d’ADN entre différentes souches ou espèces bactériennes. Cela signifie que les bactéries peuvent échanger des morceaux de leur matériel génétique avec d’autres bactéries, même si elles ne sont pas directement liées par la reproduction sexuée. Cette capacité d’échange génétique favorise une grande diversité génétique dans le règne bactérien et permet aux bactéries de s’adapter rapidement à de nouveaux environnements, aux antibiotiques ou à d’autres facteurs de stress.

On peut donc dire que les bactéries ont une forme de pouvoir évolutif basé sur leur capacité d’échange génétique. Cependant, il convient de noter que ce pouvoir est intrinsèquement différent du pouvoir politique humain. Les bactéries ne décident pas consciemment de leur propre évolution ou n’ont pas de hiérarchies de pouvoir similaires à celles que l’on trouve chez les humains. La recombinaison génétique chez les bactéries est un mécanisme naturel qui leur permet de s’adapter, mais ce n’est pas une forme de pouvoir au sens humain du terme.

En résumé, les bactéries ont effectivement une capacité remarquable à s’adapter rapidement grâce à leur mécanisme d’échange génétique. Toutefois, il est important de distinguer ce pouvoir évolutif de la notion de pouvoir politique humain.

(Q) - Merci, qu’est-ce qu’une “conscience auto-réflexive”

(R) - Une conscience auto-réflexive, également appelée conscience réflexive ou conscience de soi, fait référence à la capacité d’un individu à avoir une connaissance et une perception de son propre état mental, de ses pensées, de ses émotions, de ses intentions et de son identité. C’est la conscience que nous avons en tant qu’êtres humains d’être conscients de nous-mêmes en tant qu’entités distinctes avec une existence subjective.

La conscience auto-réflexive implique la capacité de se représenter mentalement, de se reconnaître en tant qu’individu distinct et de prendre conscience de son existence en relation avec les autres et avec le monde qui l’entoure. Cela signifie que nous sommes capables de réfléchir sur nous-mêmes, d’observer nos propres pensées, émotions et comportements, et de prendre du recul par rapport à eux.

Cette forme de conscience nous permet d’accéder à des informations sur notre propre expérience subjective, de nous évaluer, de prendre des décisions et de nous engager dans des activités telles que la planification, l’introspection et la compréhension de nos propres motivations et motivations des autres.

La conscience auto-réflexive est fondamentale pour de nombreux aspects de l’expérience humaine, tels que l’identité personnelle, l’empathie, la perspective, l’autoréflexion, l’autocritique et la capacité d’apprendre et de s’adapter en fonction de notre propre expérience.


Auteur: Chatgpt3.5

Info: Le bot a mis bcp de temps (env 5 minutes à chaque fois) pour répondre à ces questions

[ omnipotence individuelle ] [ homme-animal ] [ homme-végétal ] [ interrogation ] [ nanomonde ] [ gaïa ] [ introspection ] [ machine homme ]

 
Commentaires: 4
Ajouté à la BD par Le sous-projectionniste

homme-animal

Domestication des chiens: le mystère de son origine enfin levé
Retracer précisément l'histoire de la domestication du chien est crucial pour la recherche fondamentale. Ce sujet nécessite une approche interdisciplinaire comme l'illustre une nouvelle étude internationale qui réunit des archéozoologues et des paleogénéticiens. Pilotés par une équipe de l'université d'Oxford en Angleterre, ces travaux ont mobilisé plusieurs laboratoires français.
"En savoir plus à ce sujet permet d'en savoir plus sur notre propre histoire ; car l'histoire du chien constitue une part de l'histoire de l'humanité", explique Anne Tresset, archéozoologue à Paris et coauteur de l'étude. En effet, d'une part, le chien présente la particularité d'être le premier à avoir été domestiqué par l'homme: "Il vit dans des sociétés humaines depuis la fin du Paléolithique supérieur, c'est-à-dire depuis au moins 15 000 ans. À titre de comparaison, la domestication des bovins, du mouton, de la chèvre et du porc n'a eu lieu, elle, que plusieurs millénaires après, au Néolithique, soit il y a 10 500 ans", précise notre contact. D'autre part, le chien a un statut très particulier: "Il est le meilleur ami de l'homme, et le fut sans doute dès l'origine. On a par exemple retrouvé des ossements de chiens aux côtés de défunts dans des tombes de la culture proche-orientale natoufienne, remontant à l'Épipaléolithique, donc à plus de 11 000 ans...", poursuit Anne Tresset.
Plus précisément, la nouvelle étude suggère que le chien dérive non pas d'une seule, mais de deux domestications indépendantes de loups: une, survenue en Europe il y a au moins 15 000 ans ; et l'autre, en Asie de l'Est, il y a au moins 12 500 ans. Puis entre le Ve et le IVe millénaire avant notre ère, des chiens d'Asie auraient migré vers l'Europe, sans doute en même temps que des populations humaines. Là, ils se seraient reproduits avec des chiens européens. Leurs descendants auraient ensuite peu à peu remplacé les chiens d'origine.
Dans les faits, les archéozoologues soupçonnent une double origine du chien depuis plusieurs décennies déjà. Et ce grâce à l'étude de restes de chiens anciens, datés de la fin du Paléolithique supérieur ou de l'Épipaléolithique. Problème, les généticiens restaient, eux, persuadés qu'il n'y avait eu qu'une seule domestication: en Asie.
Et pour cause: les généticiens en question analysaient l'ADN des chiens actuels. Lesquels appartiennent majoritairement à un ensemble de lignées génétiques particulier, d'origine asiatique: l'haplogroupe A. "Le problème avec cette démarche est qu'en cas d'événements gommant complètement le pool génétique antérieur de la population analysée - comme ici, l'arrivée de chiens asiatiques en Europe -, il est impossible de "voir" ce qu'il y avait avant, soit ici le fait qu'il existait déjà, avant l'arrivée des chiens asiatiques, des chiens en Europe de l'Ouest, appartenant à l'haplogroupe C...", explique Anne Tresset.
Des os remontant à l'époque des tout premiers chiens
"La force de notre nouvelle étude est justement qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques couvrant une longue période de l'histoire du chien, les plus vieux remontant à 14 000 ans, soit au début de l'histoire évolutive de ce mammifère. De plus, nos échantillons provenaient de différentes zones géographiques en Europe (France, Suisse, Allemagne, Roumanie...) et en Asie (Iran, Turkménistan, Russie asiatique)", souligne la paléogénéticienne lyonnaise Catherine Hänni.
"La force de notre étude est qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques."
Concrètement, les chercheurs ont reconstitué l'histoire évolutive des chiens en étudiant 59 restes archéologiques de chiens qui ont vécu entre 14 000 et 3 000 ans avant le présent. Les scientifiques ont extrait l'ADN ancien de ces ossements puis ont séquencé l'ADN mitochondrial (présent dans des structures particulières des cellules: les mitochondries). Le génome complet des restes d'un chien vieux de 4 800 ans a également été séquencé.
"Cette recherche n'aurait jamais abouti sans la collaboration étroite entre l'archéozoologie, la paléogénétique et l'analyse génomique", se réjouit Catherine Hänni.
Une alliance tripartite gagnante
En pratique, les archéo zoologues ont permis l'accès aux différents restes archéologiques de chiens analysés ici, qu'ils avaient étudiés lors de précédentes études indépendantes. "À elle seule, notre équipe a fourni plus des trois quarts des échantillons étudiés", indique Anne Tresset. Puis, les paléo généticiens - dont l'équipe lyonnaise de Catherine Hänni - ont extrait et séquencé l'ADN des ossements collectés par les archéo zoologues. Enfin, l'équipe d'Oxford a réalisé une modélisation informatique à partir des séquences génétiques anciennes et de celles de 2 500 chiens modernes étudiés précédemment. Ce qui a permis au final de reconstituer l'arbre évolutif du chien.
Chose surprenante, cette modélisation a révélé une divergence entre les chiens originaires d'Asie de l'Est et ceux d'Europe, remontant à il y a moins de 14 000 ans... soit après l'apparition du chien en Europe ! D'où la conclusion qu'il y avait à l'origine deux populations distinctes de chiens: une en Asie et une en Europe. Autre résultat important: les analyses des ADN mitochondriaux des chiens modernes et anciens ont montré que, si la majorité des anciens chiens européens appartenaient à l'haplogroupe C (60 % des chiens) ou D (20 %), la plupart des chiens européens modernes sont de l'haplogroupe A (64 %) et B (22 %), tous deux d'origines asiatiques. Ce qui est cohérent avec une arrivée de chiens originaires d'Asie en Europe.
D'autres zones d'ombre à éclaircir
À l'avenir, les équipes d'Anne Tresset et de Catherine Hänni espèrent pouvoir éclaircir plusieurs autres zones d'ombre de l'histoire européenne et proche-orientale du chien. "Par exemple, nous voudrions tenter de comprendre pourquoi on trouve dans l'Ouest de l'Europe plutôt des chiens petits, alors qu'à l'Est de l'Europe on a plutôt des grands types. Plus largement, nous souhaiterions étudier les facteurs à l'origine de l'évolution de la taille, de la couleur ou encore de la forme des chiens lors de leur histoire évolutive (sélection par l'homme,...)", précise Anne Tresset. L'histoire du chien est donc loin d'avoir livré tous ses secrets.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=15224

 

Commentaires: 0

nano-monde relatif

Une expérience quantique montre que la réalité objective n'existe pas

Les faits alternatifs se répandent comme un virus dans la société. Aujourd'hui, il semble qu'ils aient même infecté la science, du moins le domaine quantique. Ce qui peut sembler contre-intuitif. Après tout, la méthode scientifique est fondée sur les notions de fiabilité d'observation, de mesure et de répétabilité. Un fait, tel qu'établi par une mesure, devrait être objectif, de sorte que tous les observateurs puissent en convenir.

Mais dans un article récemment publié dans Science Advances, nous montrons que, dans le micro-monde des atomes et des particules régi par les règles étranges de la mécanique quantique, deux observateurs différents ont droit à leurs propres faits. En d'autres termes, selon nos  meilleures théories des éléments constitutifs de la nature elle-même, les faits peuvent en fait être subjectifs.

Les observateurs sont des acteurs puissants dans le monde quantique. Selon la théorie, les particules peuvent se trouver dans plusieurs endroits ou états à la fois - c'est ce qu'on appelle une superposition. Mais curieusement, ce n'est le cas que lorsqu'elles ne sont pas observées. Dès que vous observez un système quantique, il choisit un emplacement ou un état spécifique, ce qui rompt la superposition. Le fait que la nature se comporte de cette manière a été prouvé à de multiples reprises en laboratoire, par exemple dans la célèbre expérience de la double fente.

En 1961, le physicien Eugene Wigner a proposé une expérience de pensée provocante. Il s'est demandé ce qui se passerait si l'on appliquait la mécanique quantique à un observateur qui serait lui-même observé. Imaginez qu'un ami de Wigner lance une pièce de monnaie quantique - qui se trouve dans une superposition de pile ou face - dans un laboratoire fermé. Chaque fois que l'ami lance la pièce, il obtient un résultat précis. On peut dire que l'ami de Wigner établit un fait : le résultat du lancer de la pièce est définitivement pile ou face.

Wigner n'a pas accès à ce fait de l'extérieur et, conformément à la mécanique quantique, il doit décrire l'ami et la pièce comme étant dans une superposition de tous les résultats possibles de l'expérience. Tout ça parce qu'ils sont " imbriqués " - connectés de manière effrayante au point que si vous manipulez l'un, vous manipulez également l'autre. Wigner peut maintenant vérifier en principe cette superposition à l'aide d'une "expérience d'interférence", un type de mesure quantique qui permet de démêler la superposition d'un système entier, confirmant ainsi que deux objets sont intriqués.

Lorsque Wigner et son ami compareront leurs notes par la suite, l'ami insistera sur le fait qu'ils ont observé des résultats précis pour chaque lancer de pièce. Wigner, cependant, ne sera pas d'accord lorsqu'il observera l'ami et la pièce dans une superposition. 

Voilà l'énigme. La réalité perçue par l'ami ne peut être réconciliée avec la réalité extérieure. À l'origine, Wigner ne considérait pas qu'il s'agissait d'un paradoxe, il affirmait qu'il serait absurde de décrire un observateur conscient comme un objet quantique. Cependant, il s'est ensuite écarté de cette opinion. De plus et, selon les canons officiels de mécanique quantique, la description est parfaitement valide.

L'expérience

Le scénario demeura longtemps une expérience de pensée intéressante. Mais reflètait-t-il la réalité ? Sur le plan scientifique, peu de progrès ont été réalisés à ce sujet jusqu'à très récemment, lorsque Časlav Brukner, de l'université de Vienne, a montré que, sous certaines hypothèses, l'idée de Wigner peut être utilisée pour prouver formellement que les mesures en mécanique quantique sont subjectives aux observateurs.

Brukner a proposé un moyen de tester cette notion en traduisant le scénario de l'ami de Wigner dans un cadre établi pour la première fois par le physicien John Bell en 1964.

Brukner a ainsi conçu deux paires de Wigner et de ses amis, dans deux boîtes distinctes, effectuant des mesures sur un état partagé - à l'intérieur et à l'extérieur de leur boîte respective. Les résultats pouvant  être récapitulés pour être finalement utilisés pour évaluer une "inégalité de Bell". Si cette inégalité est violée, les observateurs pourraient avoir des faits alternatifs.

Pour la première fois, nous avons réalisé ce test de manière expérimentale à l'université Heriot-Watt d'Édimbourg sur un ordinateur quantique à petite échelle, composé de trois paires de photons intriqués. La première paire de photons représente les pièces de monnaie, et les deux autres sont utilisées pour effectuer le tirage au sort - en mesurant la polarisation des photons - à l'intérieur de leur boîte respective. À l'extérieur des deux boîtes, il reste deux photons de chaque côté qui peuvent également être mesurés.

Malgré l'utilisation d'une technologie quantique de pointe, il a fallu des semaines pour collecter suffisamment de données à partir de ces seuls six photons afin de générer suffisamment de statistiques. Mais finalement, nous avons réussi à montrer que la mécanique quantique peut effectivement être incompatible avec l'hypothèse de faits objectifs - nous avions violé l'inégalité.

La théorie, cependant, repose sur quelques hypothèses. Notamment que les résultats des mesures ne sont pas influencés par des signaux se déplaçant à une vitesse supérieure à celle de la lumière et que les observateurs sont libres de choisir les mesures à effectuer. Ce qui peut être le cas ou non.

Une autre question importante est de savoir si les photons uniques peuvent être considérés comme des observateurs. Dans la proposition de théorie de Brukner, les observateurs n'ont pas besoin d'être conscients, ils doivent simplement être capables d'établir des faits sous la forme d'un résultat de mesure. Un détecteur inanimé serait donc un observateur valable. Et la mécanique quantique classique ne nous donne aucune raison de croire qu'un détecteur, qui peut être conçu comme aussi petit que quelques atomes, ne devrait pas être décrit comme un objet quantique au même titre qu'un photon. Il est également possible que la mécanique quantique standard ne s'applique pas aux grandes échelles de longueur, mais tester cela reste un problème distinct.

Cette expérience montre donc que, au moins pour les modèles locaux de la mécanique quantique, nous devons repenser notre notion d'objectivité. Les faits dont nous faisons l'expérience dans notre monde macroscopique semblent ne pas être menacés, mais une question majeure se pose quant à la manière dont les interprétations existantes de la mécanique quantique peuvent tenir compte des faits subjectifs.

Certains physiciens considèrent que ces nouveaux développements renforcent les interprétations qui autorisent plus d'un résultat pour une observation, par exemple l'existence d'univers parallèles dans lesquels chaque résultat se produit. D'autres y voient une preuve irréfutable de l'existence de théories intrinsèquement dépendantes de l'observateur, comme le bayésianisme quantique, dans lequel les actions et les expériences d'un agent sont au cœur de la théorie. D'autres encore y voient un indice fort que la mécanique quantique s'effondrera peut-être au-delà de certaines échelles de complexité.

Il est clair que nous avons là de profondes questions philosophiques sur la nature fondamentale de la réalité.

Quelle que soit la réponse, un avenir intéressant nous attend.

Auteur: Internet

Info: https://www.livescience.com/objective-reality-not-exist-quantum-physicists.html. Massimiliano Proietti et Alessandro Fedrizzi, 19 janvier 2022

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel