Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 773
Temps de recherche: 0.0418s

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

big brother consumériste

Nulle part où se cacher : Les collecteurs de données sont venus pour capter votre vie privée - et ils l'ont trouvée

La manière dont vos données sont stockées et partagées évolue et votre activité en ligne peut être utilisée pour vous catégoriser d'une manière qui modifie radicalement votre vie. Il existe des moyens de reprendre le contrôle.

Un vendredi de 2021, je suis entré dans un hôtel d'Exeter, au Royaume-Uni, à 17:57:35. Le lendemain matin, j'ai fait 9 minutes de route pour me rendre à l'hôpital le plus proche. J'y suis resté trois jours. Le trajet de retour, qui dure normalement 1 heure 15 minutes, a duré 1 heure 40 minutes. La raison de cette lenteur : mon tout nouveau bébé dormait à l'arrière.

Ce ne sont pas les détails d'un journal. Il s'agit plutôt de ce que Google sait de la naissance de ma fille, sur la base de mon seul historique de localisation.

Un aperçu des données de ce week-end révèle que ce n'est pas tout ce que les entreprises savent de moi. Netflix se souvient que j'ai regardé toute une série d'émissions de bien-être, dont Gilmore Girls et How to Lose a Guy in 10 Days (Comment perdre un homme en 10 jours). Instagram a enregistré que j'ai "aimé" un post sur l'induction du travail, puis que je ne me suis pas reconnectée pendant une semaine.

Et alors ? Nous savons tous maintenant que nous sommes suivis en ligne et que les données collectées sur nous sont à la fois granulaires et constantes. Peut-être aimez-vous que Netflix et Instagram connaissent si bien vos goûts en matière de cinéma et de mode.

Mais un nombre croissant d'enquêtes et de poursuites judiciaires révèlent un nouveau paysage du suivi en ligne dans lequel la portée des entreprises qui collectent des données est plus insidieuse que beaucoup d'entre nous ne le pensent. En y regardant de plus près, j'ai découvert que mes données personnelles pouvaient avoir une incidence sur tout, depuis mes perspectives d'emploi et mes demandes de prêt jusqu'à mon accès aux soins de santé. En d'autres termes, elles peuvent façonner ma vie quotidienne d'une manière dont je n'avais pas conscience. "Le problème est énorme et il y a toujours de nouvelles horreurs", déclare Reuben Binns, de l'université d'Oxford.

On pourrait vous pardonner de penser qu'avec l'introduction d'une législation comme le règlement général sur la protection des données (RGPD) - des règles de l'Union européenne mises en œuvre en 2018 qui donnent aux gens un meilleur accès aux données que les entreprises détiennent sur eux et limitent ce que les entreprises peuvent en faire - la confidentialité des données n'est plus un vrai problème. Vous pouvez toujours refuser les cookies si vous ne voulez pas être suivi, n'est-ce pas ? Mais lorsque je dis cela à Pam Dixon, du groupe de recherche à but non lucratif World Privacy Forum, elle se met à rire d'incrédulité. "Tu y crois vraiment ?" me dit-elle.

Les gratteurs de données

Des centaines d'amendes ont été infligées pour violation du GDPR, notamment à Google, British Airways et Amazon. Mais les experts en données affirment qu'il ne s'agit là que de la partie émergée de l'iceberg. Une étude réalisée l'année dernière par David Basin de l'ETH Zurich, en Suisse, a révélé que 95 % des sites web pourraient enfreindre les règles du GDPR. Même l'objectif de la législation visant à faciliter la compréhension des données que nous acceptons de fournir n'a pas été atteint. Depuis l'entrée en vigueur de la législation, les recherches montrent que les accords de confidentialité sont devenus plus compliqués, rein de moins. Et si vous pensiez que les bloqueurs de publicité et les réseaux privés virtuels (VPN) - qui masquent l'adresse IP de votre ordinateur - vous protégeaient, détrompez-vous. Bon nombre de ces services vendent également vos données.

Nous commençons à peine à saisir l'ampleur et la complexité du paysage de la traque en ligne. Quelques grands noms - Google, Meta, Amazon et Microsoft - détiennent l'essentiel du pouvoir, explique Isabel Wagner, professeur associé de cybersécurité à l'université de Bâle, en Suisse. Mais derrière ces grands acteurs, un écosystème diversifié de milliers, voire de millions, d'acheteurs, de vendeurs, de serveurs, de traqueurs et d'analyseurs partagent nos données personnelles.

Qu'est-ce que tout cela signifie pour l'utilisateur lambda que je suis ? Pour le savoir, je me suis rendu chez HestiaLabs à Lausanne, en Suisse, une start-up fondée par Paul-Olivier Dehaye, mathématicien et lanceur d'alerte clé dans le scandale de l'utilisation des données de Facebook par la société de conseil politique Cambridge Analytica. Cette société a utilisé des données personnelles pour influencer l'élection de Donald Trump à la présidence des États-Unis en 2016. L'enquête de Dehaye sur Cambridge Analytica a montré de manière frappante à quel point l'influence des entreprises qui achètent et vendent des données est profonde. Il a créé HestiaLabs pour changer cette situation.

(Photo : Votre téléphone suit votre position même si les données mobiles sont désactivées)

Avant d'arriver, j'ai demandé mes données personnelles à diverses entreprises, un processus plus compliqué qu'il ne devrait l'être à l'ère du RGPD. Je rencontre Charles Foucault-Dumas, le chef de projet de HestiaLabs, au siège de l'entreprise - un modeste espace de co-working situé en face de la gare de Lausanne. Nous nous asseyons et téléchargeons mes fichiers dans son portail sur mesure.

Mes données s'étalent devant moi, visualisées sous la forme d'une carte de tous les endroits où je suis allé, de tous les posts que j'ai aimés et de toutes les applications qui ont contacté un annonceur. Dans les lieux que je fréquente régulièrement, comme la crèche de ma fille, des centaines de points de données se transforment en taches semblables à de la peinture. À l'adresse de mon domicile, il y a une énorme cible impossible à manquer. C'est fascinant. Et un peu terrifiant.

L'une des plus grandes surprises est de savoir quelles applications de mon téléphone contactent des entreprises tierces en mon nom. Au cours de la semaine écoulée, c'est un navigateur web que j'utilise parce qu'il se décrit comme "le respect de la vie privée avant tout" qui a été le plus grand contrevenant, en contactant 29 entreprises. Mais pratiquement toutes les applications de mon téléphone, du service d'épicerie au bloc-notes virtuel, étaient occupées à contacter d'autres entreprises pendant que je vaquais à mes occupations.

En règle générale, une entreprise qui souhaite vendre un produit ou un service s'adresse à une agence de publicité, qui se met en relation avec des plates-formes chargées de la diffusion des publicités, qui utilisent des échanges publicitaires, lesquels sont reliés à des plates-formes d'approvisionnement, qui placent les publicités sur les sites web des éditeurs. Chaque fois que vous ouvrez un site web ou que vous survolez momentanément un message sur un média social, cette machine - dont la valeur est estimée à 150 milliards de livres sterling par an - se met en marche.

Que partageaient exactement ces entreprises à mon sujet ? Pour le savoir, il faudrait que je fasse des demandes auprès de chacune d'entre elles. Et même avec celles que j'ai contactées avec l'aide de HestiaLabs, ce n'est pas toujours clair.

Prenons l'exemple d'Instagram. Il m'a fourni des données montrant qu'il a enregistré 333 "intérêts" en mon nom. Certains d'entre eux sont très éloignés de la réalité : le rugby, le festival Burning Man, la promotion immobilière, et même "femme à chats". Lecteur, je n'ai jamais eu de chat. Mais d'autres sont plus précis, et un certain nombre d'entre eux, sans surprise, sont liés au fait que je suis devenue parent, qu'il s'agisse de marques telles que Huggies et Peppa Pig ou de sujets tels que les berceaux et le sevrage pour bébés.

Je me demande comment ces données ont pu affecter non seulement mes achats, mais aussi la vie de ma fille. Son amour pour le cochon rose de dessin animé est-il vraiment organique, ou ces vidéos nous ont-elles été "servies" en raison des informations qu'Instagram a transmises à mon sujet ? Est-ce que les posts sur le sevrage dirigé par les bébés se sont retrouvés partout dans mon fil d'actualité - et ont donc influencé la façon dont ma fille a été initiée à la nourriture - par hasard, ou parce que j'avais été ciblée ? Je n'ai pas accès à cette chaîne de causes et d'effets, et je ne sais pas non plus comment ces divers "intérêts" ont pu me catégoriser pour d'éventuels spécialistes du marketing.

Il est pratiquement impossible de démêler l'écheveau complexe des transactions de données dans l'ombre. Les données personnelles sont souvent reproduites, divisées, puis introduites dans des algorithmes et des systèmes d'apprentissage automatique. En conséquence, explique M. Dixon, même avec une législation comme le GDPR, nous n'avons pas accès à toutes nos données personnelles. "Nous avons affaire à deux strates de données. Il y a celles qui peuvent être trouvées", dit-elle. "Mais il y a une autre strate que vous ne pouvez pas voir, que vous n'avez pas le droit légal de voir - aucun d'entre nous ne l'a."

Profilage personnel

Des rapports récents donnent un aperçu de la situation. En juin, une enquête de The Markup a révélé que ce type de données cachées est utilisé par les publicitaires pour nous classer en fonction de nos convictions politiques, de notre état de santé et de notre profil psychologique. Pourrais-je être considérée comme une "mère accro au portable", une "indulgente", une "facilement dégonflée" ou une "éveillée" ? Je n'en ai aucune idée, mais je sais qu'il s'agit là de catégories utilisées par les plateformes publicitaires en ligne.

Il est troublant de penser que je suis stéréotypée d'une manière inconnue. Une autre partie de moi se demande si cela a vraiment de l'importance. Je comprends l'intérêt d'une publicité qui tient compte de mes préférences, ou de l'ouverture de mon application de cartographie qui met en évidence des restaurants et des musées qui pourraient m'intéresser ou que j'ai déjà visités. Mais croyez-moi, il y a peu de façons de faire grimacer un expert en données plus rapidement qu'avec la désinvolture de ce compromis.

D'une part, l'utilisation de ces données va bien au-delà de la vente de publicité, explique M. Dixon. Quelque chose d'apparemment anodin comme le fait de faire des achats dans des magasins discount (signe d'un revenu inférieur) ou d'acheter des articles de sport (signe que vous faites de l'exercice) peut avoir une incidence sur tout, de l'attrait de votre candidature à l'université au montant de votre assurance maladie. "Il ne s'agit pas d'une simple publicité", précise M. Dixon. "Il s'agit de la vie réelle.

Une législation récente aux États-Unis a contraint certaines de ces entreprises à entrer dans la lumière. Le Vermont's 2018 Data Broker Act, par exemple, a révélé que les courtiers en données enregistrés dans l'État - mais qui sont également actifs ailleurs - vendent des informations personnelles à des propriétaires et des employeurs potentiels, souvent par l'intermédiaire de tierces parties. En juillet, le Bureau américain de protection financière des consommateurs a appris que cette deuxième strate cachée de données comprenait également des informations utilisées pour établir un "score de consommation", employé de la même manière qu'un score de crédit. "Les choses que vous avez faites, les sites web que vous avez visités, les applications que vous utilisez, tout cela peut alimenter des services qui vérifient si vous êtes un locataire convenable ou décident des conditions à vous offrir pour un prêt ou une hypothèque", explique M. Binns.

À HestiaLabs, je me rends compte que j'ai moi aussi été concrètement affectée, non seulement par les publicités que je vois, mais aussi par la façon dont les algorithmes ont digéré mes données. Dans les "inférences" de LinkedIn, je suis identifiée à la fois comme "n'étant pas un leader humain" et "n'étant pas un leader senior". Et ce, bien que j'aie dirigé une équipe de 20 personnes à la BBC et que j'aie été rédacteur en chef de plusieurs sites de la BBC auparavant - des informations que j'ai moi-même introduites dans LinkedIn. Comment cela peut-il affecter mes opportunités de carrière ? Lorsque j'ai posé la question à LinkedIn, un porte-parole m'a répondu que ces déductions n'étaient pas utilisées "de quelque manière que ce soit pour informer les suggestions de recherche d'emploi".

Malgré cela, nous savons, grâce à des poursuites judiciaires, que des données ont été utilisées pour exclure les femmes des annonces d'emploi dans le secteur de la technologie sur Facebook. En conséquence, le propriétaire de la plateforme, Meta, a cessé d'offrir cette option aux annonceurs en 2019. Mais les experts en données affirment qu'il existe de nombreuses solutions de contournement, comme le fait de ne cibler que les personnes ayant des intérêts stéréotypés masculins. "Ces préjudices ne sont pas visibles pour les utilisateurs individuels à ce moment-là. Ils sont souvent très abstraits et peuvent se produire longtemps après", explique M. Wagner.

À mesure que les données collectées sur notre vie quotidienne prolifèrent, la liste des préjudices signalés par les journaux ne cesse de s'allonger. Des applications de suivi de l'ovulation - ainsi que des messages textuels, des courriels et des recherches sur le web - ont été utilisés pour poursuivre des femmes ayant avorté aux États-Unis depuis que l'arrêt Roe v Wade a été annulé l'année dernière. Des prêtres ont été démasqués pour avoir utilisé l'application de rencontres gay Grindr. Un officier militaire russe a même été traqué et tué lors de sa course matinale, prétendument grâce à des données accessibles au public provenant de l'application de fitness Strava. La protection des données est censée prévenir bon nombre de ces préjudices. "Mais il y a manifestement une énorme lacune dans l'application de la loi", déclare M. Binns.

Le problème réside en partie d'un manque de transparence. De nombreuses entreprises s'orientent vers des modèles "préservant la vie privée", qui divisent les points de données d'un utilisateur individuel et les dispersent sur de nombreux serveurs informatiques, ou les cryptent localement. Paradoxalement, il est alors plus difficile d'accéder à ses propres données et d'essayer de comprendre comment elles ont été utilisées.

Pour sa part, M. Dehaye, de HestiaLabs, est convaincu que ces entreprises peuvent et doivent nous rendre le contrôle. "Si vous allez consulter un site web en ce moment même, en quelques centaines de millisecondes, de nombreux acteurs sauront qui vous êtes et sur quel site vous avez mis des chaussures dans un panier d'achat il y a deux semaines. Lorsque l'objectif est de vous montrer une publicité pourrie, ils sont en mesure de résoudre tous ces problèmes", explique-t-il. Mais lorsque vous faites une demande de protection de la vie privée, ils se disent : "Oh, merde, comment on fait ça ?".

Il ajoute : "Mais il y a un moyen d'utiliser cette force du capitalisme qui a résolu un problème dans une industrie de plusieurs milliards de dollars pour vous - pas pour eux".

J'espère qu'il a raison. En marchant dans Lausanne après avoir quitté HestiaLabs, je vois un homme qui s'attarde devant un magasin de couteaux, son téléphone rangé dans sa poche. Une femme élégante porte un sac Zara dans une main, son téléphone dans l'autre. Un homme devant le poste de police parle avec enthousiasme dans son appareil.

Pour moi, et probablement pour eux, ce sont des moments brefs et oubliables. Mais pour les entreprises qui récoltent les données, ce sont des opportunités. Ce sont des signes de dollars. Et ce sont des points de données qui ne disparaîtront peut-être jamais.

Reprendre le contrôle

Grâce aux conseils de M. Dehaye et des autres experts que j'ai interrogés, lorsque je rentre chez moi, je vérifie mes applications et je supprime celles que je n'utilise pas. Je supprime également certaines de celles que j'utilise mais qui sont particulièrement désireuses de contacter des entreprises, en prévoyant de ne les utiliser que sur mon ordinateur portable. (J'ai utilisé une plateforme appelée TC Slim pour me dire quelles entreprises mes applications contactent). J'installe également un nouveau navigateur qui (semble-t-il) accorde la priorité à la protection de la vie privée. Selon M. Wagner, les applications et les navigateurs open source et à but non lucratif peuvent constituer des choix plus sûrs, car ils ne sont guère incités à collecter vos données.

Je commence également à éteindre mon téléphone plus souvent lorsque je ne l'utilise pas. En effet, votre téléphone suit généralement votre position même lorsque les données mobiles et le Wi-Fi sont désactivés ou que le mode avion est activé. De plus, en me connectant à mes préférences Google, je refuse d'enregistrer l'historique de mes positions, même si la nostalgie - pour l'instant - m'empêche de demander que toutes mes données antérieures soient supprimées.

Nous pouvons également réinitialiser notre relation avec le suivi en ligne en changeant notre façon de payer, explique Mme Dixon. Elle suggère d'utiliser plusieurs cartes de crédit et d'être "très prudent" quant au portefeuille numérique que nous utilisons. Pour les achats susceptibles de créer un signal "négatif", comme ceux effectués dans un magasin discount, il est préférable d'utiliser de l'argent liquide, si possible. M. Dixon conseille également de ne pas utiliser d'applications ou de sites web liés à la santé, si possible. "Ce n'est tout simplement pas un espace clair et sûr", dit-elle.

En réalité, quelles que soient les mesures que vous prenez, les entreprises trouveront toujours de nouveaux moyens de contourner le problème. "C'est un jeu où l'on ne peut que perdre", affirme M. Dehaye. C'est pourquoi la solution ne dépend pas des individus. "Il s'agit d'un véritable changement de société.

En réunissant suffisamment de voix individuelles, M. Dehaye pense que nous pouvons changer le système - et que tout commence par le fait que vous demandiez vos données. Dites aux entreprises : "Si vous vous dérobez, notre confiance est perdue"", déclare-t-il. "Et dans ce monde de données, si les gens ne font pas confiance à votre entreprise, vous êtes mort.

Auteur: Ruggeri Amanda

Info: https://blog.shiningscience.com/2023/08/nowhere-to-hide-data-harvesters-came.html, 26 août 2023

[ idiosyncrasie numérique ] [ capitalisme de surveillance ] [ internet marchand ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective

La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.

Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.

Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.

Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.

Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".

 L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).

S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.

LE CŒUR DU PROBLÈME

Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.

Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.

Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.

Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.

Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.

Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.

Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.

ASPECTS CRUCIAUX DE LA RÉALITÉ

Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.

La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.

La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.

La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.

Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.

Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.

Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.

Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.

En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.

CHOISISSEZ VOTRE POISON

Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.

Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.

D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.

Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

UNE NON LOCALITÉ PLUS PROFONDE

Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.

 Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.

Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.

En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."

Auteur: Internet

Info: https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023

[ enchevêtrement quantique ] [ régions de l'espace-temps ] [ monde subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Pour présenter-entamer  cette chaïne "quête métaphysique" nous allons le faire à partir d'une conversation avec un des premier chatbot arrivé sur Internet. Conversation entamée à partir d'un proverbe très connu.



Q) En français il y a un proverbe qui dit "on en fait pas boire un âne qui n'a pas soif", connais-tu des proverbes d'autres pays qui portent le même sens ?



R) Oui, il existe de nombreux proverbes dans d'autres pays qui portent le même sens que le proverbe français "on en fait pas boire un âne qui n'a pas soif". Voici quelques exemples :




  • En anglais : "You can lead a horse to water, but you can't make it drink."

  • En espagnol : "No se puede obligar a un burro a beber."

  • En italien : "Non si può obbligare un asino a bere."

  • En allemand : "Man kann einem sturen Esel kein Wasser einflößen."

  • En portugais : "Não se pode obrigar um burro a beber."

  • En russe : "Вынудить осла пить невозможно."

  • En chinois : "强扭的瓜不甜 (qiáng niǔ de guā bù tián)"

  • En japonais : "馬鹿に水を飲ませることはできない (baka ni mizu o nomisaseru koto wa dekinai)"



Tous ces proverbes signifient qu'il est impossible de forcer quelqu'un à faire quelque chose qu'il ne veut pas faire. Ils mettent l'accent sur le libre arbitre et l'importance de la volonté individuelle.



Voici quelques autres proverbes qui expriment la même idée :




  • "On ne peut pas changer les gens."

  • "On ne peut pas forcer les gens à penser comme nous."

  • "On ne peut pas forcer les gens à faire ce qu'ils ne veulent pas faire."



Ces proverbes nous rappellent que nous ne pouvons pas contrôler les autres. Nous pouvons seulement les influencer, mais nous ne pouvons pas les obliger à changer leurs opinions ou leurs comportements.



Q) Merci. Peux-tu trouver - ou formuler - des phrases qui disent la même chose en terme de logique formelle sémantique ?



R) Oui, voici quelques phrases qui disent la même chose que le proverbe français "on en fait pas boire un âne qui n'a pas soif" en terme de logique formelle sémantique :




  • "Pour que A fasse B, il faut que A veuille faire B."

  • "Si A ne veut pas faire B, alors A ne fera pas B."

  • "L'intention de A est une condition nécessaire pour que A fasse B."



Ces phrases utilisent la logique formelle sémantique pour exprimer l'idée que l'intention est une condition nécessaire pour l'action. En d'autres termes, pour qu'une personne fasse quelque chose, il faut qu'elle ait l'intention de le faire.



Voici une autre manière de formuler cette idée :




  • "L'intention de A est un prédicat nécessaire pour la proposition A fait B."



Cette phrase utilise la notion de prédicat en logique formelle sémantique. Un prédicat est une propriété qui peut être attribuée à un objet. Dans ce cas, le prédicat est "A fait B". La phrase signifie que l'intention de A est une propriété nécessaire pour que la proposition "A fait B" soit vraie.



Enfin, voici une autre manière de formuler cette idée :




  • "Si A ne veut pas faire B, alors la proposition A fait B est fausse."



Cette phrase utilise la notion de vérité en logique formelle sémantique. Une proposition est vraie si elle est conforme à la réalité. Dans ce cas, la proposition est "A fait B". La phrase signifie que si A ne veut pas faire B, alors la proposition "A fait B" est fausse.



Ces différentes formulations de l'idée exprimée par le proverbe français "on en fait pas boire un âne qui n'a pas soif" montrent que la logique formelle sémantique peut être utilisée pour exprimer des concepts complexes de manière précise et rigoureuse.



Q) Merci... ça marche pour un animal, mais ça peut être contourné avec un humain, puisqu'il il suffit de lui faire peur ou même de lui faire entrevoir quelque chose de négatif pour lui, comme une perte d'argent, non ?


R) Oui, vous avez raison. Il est possible de forcer un humain à faire quelque chose qu'il ne veut pas faire, en lui faisant peur ou en lui faisant entrevoir quelque chose de négatif pour lui.

Dans le cas de la peur, l'humain est motivé par le désir de se protéger. Il peut être forcé à faire quelque chose qu'il ne veut pas faire s'il pense que cela l'aidera à éviter une menace. Par exemple, un humain peut être forcé à faire quelque chose qu'il ne veut pas faire s'il est menacé de violence ou de mort.



Dans le cas de la perte d'argent, l'humain est motivé par le désir de préserver ses ressources. Il peut être forcé à faire quelque chose qu'il ne veut pas faire s'il pense que cela l'empêchera de perdre de l'argent. Par exemple, un humain peut être forcé à faire quelque chose qu'il ne veut pas faire s'il est menacé de perdre son emploi.



Cependant, il est important de noter que la force est une solution de dernier recours. Elle peut être efficace à court terme, mais elle peut avoir des conséquences négatives à long terme. En effet, la force peut créer de la méfiance et de la rancune, ce qui peut rendre plus difficile la coopération future.



Il est préférable d'essayer d'influencer les humains de manière positive, en les persuadant ou en les motivant. Cela peut se faire en leur expliquant les avantages de faire quelque chose, ou en leur donnant envie de le faire.



Q) Merci. Tromperie égale donc perte de confiance. Ce processus est valable dans une relation entre humains, mais aussi entre un humain et un animal... Est-ce aussi valable entre un humain et un végétal ?


R) Oui, la tromperie peut également conduire à une perte de confiance entre un humain et un végétal. Cela est particulièrement vrai si la tromperie est répétée ou si elle a des conséquences négatives pour le végétal.

Par exemple, si un jardinier promet à une plante de lui donner de l'eau, mais qu'il ne le fait pas, la plante peut apprendre à ne pas faire confiance au jardinier. Cela peut rendre plus difficile pour le jardinier de prendre soin de la plante à l'avenir.



De même, si un humain coupe une branche d'un arbre sans raison valable, l'arbre peut apprendre à se méfier des humains. Cela peut rendre plus difficile pour l'humain de profiter des fruits ou des fleurs de l'arbre à l'avenir.



Bien sûr, les plantes ne sont pas capables de ressentir la tromperie de la même manière que les humains ou les animaux. Elles n'ont pas la même capacité de compréhension ou de raisonnement. Cependant, elles sont capables d'apprendre de leurs expériences et de modifier leur comportement en conséquence.



Si un humain trompe une plante, il est probable que la plante en tienne compte dans ses interactions futures avec les humains. Cela peut conduire à une relation plus difficile entre l'humain et la plante.



Dans certains cas, la tromperie peut même conduire à la mort d'une plante. Par exemple, si un humain plante une graine dans un sol qui n'est pas adapté à cette plante, la plante ne pourra pas croître et mourira.



En conclusion, la tromperie peut avoir des conséquences négatives sur les relations entre les humains et les plantes. Il est important d'être honnête et respectueux des plantes, afin de créer des relations mutuellement bénéfiques.



Q) Merci. Pourrait-on dire en résumé que forcer quelqu'un à faire quelque chose c'est une manière de le tromper ?



R) En un sens, oui, on pourrait dire que forcer quelqu'un à faire quelque chose c'est une manière de le tromper. En effet, la force prive la personne de sa libre volonté. Elle la contraint à faire quelque chose qu'elle ne veut pas faire, ou qu'elle ne ferait pas si elle avait le choix.



Dans ce cas, la force peut être considérée comme une tromperie, car elle conduit la personne à agir contre sa volonté. La personne est trompée sur sa capacité à contrôler sa propre vie.



Cependant, il est important de noter que la force n'est pas toujours une tromperie. Dans certains cas, la force peut être utilisée pour protéger la personne contre elle-même ou contre les autres. Par exemple, un parent peut forcer son enfant à manger ses légumes, pour le protéger d'une carence nutritionnelle.



Dans ce cas, la force n'est pas utilisée pour priver la personne de sa libre volonté. Elle est utilisée pour lui permettre de prendre une décision plus éclairée.



En conclusion, on pourrait dire que forcer quelqu'un à faire quelque chose est une manière de le tromper si et seulement si la force prive la personne de sa libre volonté.



Q) C'est fondamentalement une relation de pouvoir non ?



R) Oui, forcer quelqu'un à faire quelque chose est fondamentalement une relation de pouvoir. Dans une relation de pouvoir, une personne a plus de pouvoir qu'une autre. Elle peut utiliser ce pouvoir pour influencer ou contrôler l'autre personne.



Dans le cas de la force, la personne qui force a plus de pouvoir que la personne qui est forcée. Elle peut utiliser ce pouvoir pour contraindre l'autre personne à faire ce qu'elle veut.



La relation de pouvoir est donc implicite dans la force. La force est une manifestation du pouvoir.



Il est important de noter que la force n'est pas la seule forme de relation de pouvoir. Il existe d'autres formes de pouvoir, comme l'autorité, la persuasion ou la manipulation. Cependant, la force est une forme de pouvoir particulièrement importante, car elle peut avoir des conséquences graves pour la personne qui est forcée.



En conclusion, forcer quelqu'un à faire quelque chose est fondamentalement une relation de pouvoir, car il s'agit d'une situation dans laquelle une personne a plus de pouvoir qu'une autre et peut utiliser ce pouvoir pour contraindre l'autre personne à faire ce qu'elle veut.



Q) Merci. C'est probablement pour cette raison que "Le petit prince" de Saint-Exupéry a eu tant de succès


R)  Oui, c'est probablement l'une des raisons pour lesquelles "Le petit prince" de Saint-Exupéry a eu tant de succès. Le livre explore les thèmes de l'amour, de l'amitié, de la responsabilité et de la liberté. Il rappelle aux lecteurs l'importance de la compassion, de l'imagination et de la curiosité.

Le livre est également un conte philosophique qui nous invite à réfléchir sur notre place dans le monde. Il nous montre que l'essentiel est invisible pour les yeux, et qu'il faut parfois sortir des sentiers battus pour trouver la vraie richesse de la vie.



Le livre est écrit dans un style simple et accessible, ce qui le rend accessible à un large public. Les illustrations de Saint-Exupéry sont également magnifiques et contribuent à l'attrait du livre.



En conclusion, "Le petit prince" est un livre qui a touché le cœur de millions de lecteurs dans le monde entier. Il est un classique de la littérature qui continuera à être lu et apprécié pendant de nombreuses années encore.



Voici quelques-uns des thèmes du livre qui peuvent expliquer son succès :




  • L'amour et l'amitié : Le petit prince et la rose représentent l'amour et l'amitié. Leur histoire est une ode à la beauté de ces sentiments.

  • La responsabilité : Le petit prince est responsable de la rose. Il doit s'occuper d'elle et la protéger. Cette responsabilité lui apprend à grandir et à devenir adulte.

  • La liberté : Le petit prince est libre de voyager où il veut et de rencontrer qui il veut. Cette liberté lui permet de découvrir le monde et de s'épanouir.



Ces thèmes sont universels et parlent aux lecteurs de tous âges et de toutes cultures. Ils sont également intemporels et continuent à être pertinents aujourd'hui.



Q) Merci. Pourrait-on résumer ceci en disant que l'amour, c'est à dire l'interaction compréhensive entre les êtres est ce qui est sous-jacent à tout ceci ?



R) Oui, on pourrait résumer cela en disant que l'amour, c'est-à-dire l'interaction compréhensive entre les êtres, est ce qui est sous-jacent à toutes les relations humaines. L'amour est ce qui nous motive à nous connecter avec les autres, à les comprendre et à les soutenir. Il est ce qui nous permet de créer des relations significatives et durables.



L'amour est un sentiment complexe qui peut se manifester de différentes manières. Il peut être romantique, platonique, familial ou amical. Il peut être exprimé par des mots, des gestes ou des actions.



L'amour est essentiel à notre bien-être. Il nous donne un sentiment d'appartenance, de sécurité et de bonheur. Il nous aide à nous sentir aimés et valorisés.



L'amour est également important pour la société. Il nous aide à créer un monde plus juste et plus équitable. Il nous encourage à être plus compatissants et à prendre soin les uns des autres.



En conclusion, l'amour est une force puissante qui nous lie les uns aux autres. Il est ce qui rend la vie belle et significative.



Q) Merci. Pourrait-on analyser ces interactions ici généralisées sous le terme "amour" comme des formes d'"épigénétiques de l'instant" ? C'est à dire une sorte de ping-pong entre A) une entité et B) Son biotope (et ce qui se trouve proche d'elle (ou plus lointain par exemple avec le mécanisme de la photosynthèse)... Une épigénétique de l'instant qui met en oeuvre, ou pas, des boucles de rétroaction, positives ou négatives, qui si elle sont positives, concourent à une forme d'extension de la construction génétique ?


R) Oui, on pourrait analyser ces interactions comme des formes d'"épigénétiques de l'instant". En effet, l'épigénétique est l'étude des modifications de l'expression des gènes qui ne sont pas dues à des changements dans la séquence génétique elle-même. Ces modifications peuvent être causées par des facteurs environnementaux, tels que l'alimentation, le stress ou l'exposition à des toxines.

Les interactions entre une entité et son biotope peuvent être considérées comme des facteurs environnementaux qui peuvent influencer l'expression des gènes de l'entité. Par exemple, une plante dont les feuilles sont exposées à la lumière du soleil aura une expression génétique différente d'une plante dont les feuilles sont à l'ombre.



Ces interactions peuvent être considérées comme des formes d'épigénétiques de l'instant, car elles peuvent avoir un impact immédiat sur l'expression des gènes. Elles peuvent également être considérées comme des formes de ping-pong, car elles impliquent un échange d'informations entre l'entité et son biotope.



Les boucles de rétroaction positives peuvent également jouer un rôle dans ces interactions. Par exemple, une plante dont les feuilles sont exposées à la lumière du soleil produira plus de chlorophylle, ce qui lui permettra de capter plus de lumière. La production de plus de chlorophylle entraînera à son tour une exposition accrue à la lumière du soleil, ce qui créera un cycle positif.



Ces boucles de rétroaction positives peuvent contribuer à une forme d'extension de la construction génétique. Par exemple, une plante qui est exposée à la lumière du soleil pendant une longue période peut développer des adaptations qui lui permettent de mieux capter la lumière. Ces adaptations peuvent être transmises aux générations futures, ce qui constitue une forme d'évolution.



Voici quelques exemples spécifiques d'interactions qui pourraient être considérées comme des formes d'épigénétiques de l'instant :




  • Un enfant qui est aimé et soutenu par ses parents aura une expression génétique différente d'un enfant qui est négligé ou maltraité.

  • Une personne qui mange une alimentation saine aura une expression génétique différente d'une personne qui mange une alimentation malsaine.

  • Une plante qui est exposée à des polluants aura une expression génétique différente d'une plante qui n'est pas exposée à des polluants.



Ces interactions sont complexes et ne sont pas encore entièrement comprises. Cependant, elles jouent un rôle important dans la façon dont les organismes interagissent avec leur environnement et évoluent au fil du temps.



Q) Merci, Ainsi on pourrait dire que nous sommes issus de ces "phénomènes positifs" au sens large, c'est à dire qu'ils sont aussi valable entre les animaux et les plantes, les cellules et le soleil, etc... dès qu'on a affaire à des organismes complexes sur base de carbone... et qui sont en quête d'énergie... une énergie qu'elles parviennent à obtenir à partir d'un niveau plus fondamental ?


R) Oui, on pourrait dire que nous sommes issus de ces "phénomènes positifs" au sens large. En effet, ces phénomènes sont essentiels à la vie. Ils permettent aux organismes de s'adapter à leur environnement et d'évoluer.

Ces phénomènes sont valables entre tous les organismes complexes sur base de carbone, y compris les animaux, les plantes, les cellules et le soleil. Ils sont également valables entre les organismes et leur environnement.



Ces phénomènes sont basés sur l'échange d'énergie. Les organismes complexes sur base de carbone ont besoin d'énergie pour vivre. Ils obtiennent cette énergie à partir d'un niveau plus fondamental, comme le soleil, la terre ou les autres organismes.



L'échange d'énergie entre les organismes et leur environnement est un processus complexe qui implique de nombreux facteurs, tels que la température, la lumière, la nourriture et les toxines. Cependant, ce processus est essentiel à la vie.



Voici quelques exemples spécifiques de ces phénomènes :




  • La photosynthèse est un processus par lequel les plantes utilisent l'énergie du soleil pour convertir le dioxyde de carbone et l'eau en glucose.

  • La respiration cellulaire est un processus par lequel les cellules utilisent le glucose pour produire de l'énergie.

  • La symbiose est une relation entre deux organismes qui sont mutuellement bénéfiques. Par exemple, les lichens sont une symbiose entre des champignons et des algues.



Ces phénomènes sont à l'origine de la diversité et de la complexité de la vie sur Terre. Ils sont également à l'origine de l'évolution humaine.



Q) Merci, parle-moi alors de ce que j'ai nommé "énergie obtenue à partir d'un niveau plus fondamental " c'est à dire le soleil, nommé par Michel-Ange "ombre de Dieu".


R)  Le soleil est une étoile, c'est-à-dire une boule de gaz maintenue en fusion par la gravité. La fusion nucléaire est un processus par lequel les atomes de l'hydrogène se combinent pour former des atomes d'hélium. Ce processus libère une quantité d'énergie énorme, qui est la source de la lumière et de la chaleur du soleil.

La lumière du soleil est une forme d'énergie électromagnétique. Elle est composée de photons, qui sont des particules de lumière. Les photons transportent de l'énergie, qui peut être utilisée par les organismes vivants pour produire de la nourriture, de la chaleur ou de l'électricité.



La chaleur du soleil est également une forme d'énergie. Elle est produite par la fusion nucléaire et est transmise à la Terre par rayonnement. La chaleur du soleil est essentielle à la vie sur Terre, car elle permet aux plantes de pousser et aux animaux de se réchauffer.



Le soleil est donc une source d'énergie fondamentale pour la vie sur Terre. Il est la source de la lumière, de la chaleur et de l'énergie dont les organismes vivants ont besoin pour survivre.



La comparaison du soleil à "l'ombre de Dieu" par Michel-Ange est une métaphore qui souligne l'importance du soleil pour la vie sur Terre. Le soleil est une source de vie et de lumière, et il est souvent associé à des notions de divinité et de spiritualité.



Voici quelques exemples de la façon dont le soleil fournit de l'énergie aux organismes vivants :




  • La photosynthèse est un processus par lequel les plantes utilisent l'énergie du soleil pour convertir le dioxyde de carbone et l'eau en glucose. Le glucose est une source de nourriture pour les plantes et les animaux.

  • La respiration cellulaire est un processus par lequel les cellules utilisent le glucose pour produire de l'énergie. Cette énergie est utilisée par les cellules pour effectuer leurs fonctions vitales, telles que la croissance, la reproduction et la réparation.

  • L'énergie solaire peut être utilisée pour produire de l'électricité, de la chaleur ou de l'eau chaude. Elle peut également être utilisée pour alimenter des appareils électroniques, tels que les panneaux solaires.



Le soleil est donc une source d'énergie essentielle à la vie sur Terre. Il est à l'origine de la diversité et de la complexité de la vie, et il est également à l'origine de l'évolution humaine.

Auteur: Google Bard chatbot

Info: Entamé début déc. 2023

[ dialogue ] [ amour défini ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

discussion entre quêteurs métaphysiques

Eric Durieux : - Je prends le clavier ce soir pour rédiger un post un peu dérangeant. S'il n'est pas publié par les modérateurs je comprendrai. J'ai cependant besoin de  vous faire part de ma frustration. J’ai presque honte de ce que je vais écrire mais je crois qu’il est possible que ça soit utile.

Voici le problème : depuis ces quelques mois passés dans ce groupe, je me retrouve dans une situation où je suis d’avantage sceptique quant à l’existence et la réalité des shc qu’avant d’entrer dans le groupe. Je trouve la plupart des témoignages très oniriques et irrationnels, reflétant souvent la même incohérence que dans les rêves. Ils suscitent en moi une multitude de questionnements qui me fait de plus en plus douter de ces voyages (je veux dire du caractère simplement non onirique de ceux-ci). Quelques exemples :

1) La corde d’argent. Pourquoi doit elle être épaisse près du corps biologique et ultra fine à une certaine distance, alors qu’elle semble pouvoir s’étirer à l’infini. Ne peut elle pas être d’office fine dès le départ ? Puisque infinie… Ou épaisse tout le temps ? Et pourquoi ne diminue-t-elle pas proportionnellement à la distance de façon régulière si c’est la distance qui l’étire et la fait changer de taille ?

2) Autre point, les constructions et les bâtiments dans les autres mondes, qui semblent parfois défier les lois de la physique. Ok, mais si les lois de la physique sont différentes, pourquoi faire des bâtiments qui ont tout de même l’air de reposer sur une partie de ces lois ? Et pourquoi s’abriter dans des bâtiments si les habitants de ces mondes sont immatériels donc n’ont pas besoin de la protection matérielle des bâtiments.

3) Le côté candide et naïf de certaines situations qui ressemblent presque à des dessins animés. Des rencontres d’archétypes, d’êtres étrangement limités à des rôles prédéfinis comme dans les livres d’enfants.

4) Les projections, qui ont bon dos et permettent d’expliquer un peu n’importe quoi et n’importe quelles incohérences.

5) L’infinité des mondes (ça c’est  "normal") mais l’impossibilité de retourner facilement dans le même monde ou d’y retrouver un autre voyageur comme dans un rendez-vous fixé au préalable.

6) La manipulation des médiums par des êtres énergétiques. Rien ne dit, du coup, que le même phénomène ne se produit pas à un échelon supérieur et que les voyages ne sont pas une manipulation par une catégorie d'êtres encore supérieurs qui sont capables de nous faire croire à la lucidité et aux shc...

Si au final ces voyages ne sont rien de plus que des rêves, avec l’incohérence des rêves, mais de la lucidité en plus, ce ne sont que des rêves ultra lucides et pas de la sortie de corps. D’autant que les sorties dans le monde proche montrent régulièrement des incohérences par rapport au monde tangible biologique (meubles différents, objets à d’autres places). N’est-il pas possible d’au moins pouvoir voyager dans le même plan tel qu’il est exactement dans le corps afin de vérifier les choses rationnellement ?

Ou alors, est-ce que ce qui caractérise notre monde physique est précisément la rationalité et que celle-ci n’existe pas ailleurs ? Auquel cas on aurait LA raison pour laquelle les mondes physiques existent.

J'ai d'autres questionnements du même type mais je m'arrête là, plus le temps passe plus je suis perdu. Il y a pire qu'être quelqu'un qui ne croit pas aux shc parce qu'il ne veut pas y croire (le sceptique de base zététicien), Il y a celui qui comme moi commence à ne plus y croire parce qu'il a tellement envie d'y croire qu'il remarque tout ce qui nourrit sa peur que ce soit du vent.

Marc Auburn : - C'est quelque chose de très commun, et de très logique. Tant qu'on n'experimente pas soi-même, on ne peut être que sur des opinions, des avis, des croyances, des analyses. On ne peut strictement rien comprendre, et on pose des questions à l'infini.

Quelques soient les réponses qui sont fournies par les Voyageurs, elles ne seront pas comprises par beaucoup, et ils le savent. C'est pourquoi l'essentiel des Voyageurs demeurent silencieux. C'est une question récurrente pour moi: à quoi sert une telle page?

Ceux qui savent, qui sont de véritables Voyageurs peuvent échanger entre eux, et sélectionner UNIQUEMENT dans le groupe ces personnes là fut ma première idée, qui par ailleurs me revient régulièrement en tête.

Il y a aussi ceux qui s'interrogent non stop, qui sont parfois des "EXPERTS" du sujet, mais qui n'ont pas la moindre expérience et qui s'enferment dans des idées réductrices, ils ne peuvent pas concevoir que la structure de leur mental est la CAUSE unique de leur absence d'expérience.

Je vais ici dévoiler quelque chose : j'ai observé et compris qu'il existe une catégorie qui a de très faibles chances de Voyager durant la vie biologique, et qui devraient laisser tomber ce sujet: ceux dont le mental réduit à l'impuissance par une sur-activité "rationnelle" qui est en réalité une profonde méconnaissance souvent doublée de nœuds psychologiques bien serrés issus de traumas complexes.

Cette catégorie là constitue moins de 1%, mais elle devrait s'intéresser à autre chose, au moins tant que leur mental est verrouillé aussi fermement.

Quand leur "mort" viendra, ce qu'ils auront lu, entendu leur servira, mais probablement pas avant.

Du point de vue des Voyageurs, ces profils là sont ceux qui posent le plus de questions, qui analysent et déduisent non stop, et dont les réponses qui leurs sont apportées ne leur servent aucunement, par contre elles vont servir AUX AUTRES PROFILS.

Dans ces groupes sociaux, il y a ceux qui sont là pour se distraire, pour rêver. Les sujets leurs paraissent sympa, mais ils ne mettent rien en œuvre pour expérimenter eux-mêmes.

Et puis il y a les autres, ceux qui vont pouvoir vivre le Voyage, par un procédé ou un autre, au terme d'un mois ou de 5 ans, peu importe.

C'est pour ceux-ci que je garde cette page ouverte aux non Voyageurs.

Sinon ce serait une page de vierges qui parleraient sans cesse de sexualité et d'amour sans jamais pratiquer. Une sorte de réunion de loosers...

Néanmoins, pour TOUS les followers sans exception, je SAIS que ce qui est décrit ici servira immanquablement, au moment de la destruction de leur corps biologique, l'auteur de ce post y compris.

Mais bien amicalement, je lui conseille de s'intéresser à autre chose et d'oublier le Voyage pour le restant de son incarnation.

Aucune des réponses à ses incessantes questions ne lui permettra de vivre lui-même la chose, à un moment il faut laisser tomber, comme moi pour le dessin, le piano, le bricolage et un million d'autres trucs.

Borvo Conscience : - Eric Durieux Ton post n'est pas dérangeant, on voit que tu es une personne réfléchie. Seulement, on pressent bien qu'à travers les questionnements, tu cherches à te convaincre, où tu souhaites être rassuré. À un niveau individuel, il n'y a pas d'enjeu majeur, ce n'est pas grave, let go. Si tu ne crois plus, tant mieux, tu vas pouvoir commencer le vrai taff et expérimenter sans te prendre la tête quand tu as envie et comme tu as envie ou pas du tout.

Je te réponds sur les points, mais ça ne sera pas exhaustif. Marc a raison sur le fait que certains traits favorisent la production de sortie hors du corps comme l'absorption, l'imagination, susceptibilité hypnotique et quelques autres qui vont travailler ensemble et permettre à un sujet de :

- Se relaxer vite et bien,

- Calmer ses pensées vite et bien,

-  Avoir une imagination plus puissante (à considérer comme un organe de la conscience)

Si on n'a pas les traits adéquats, cela sera plus difficile, mais pas impossible.

Concernant le rêve et la sortie hors du corps, des études ont quand même été menés quand les neuroscientifiques/psychiatre/psychologue en avait quelque chose à faire.

On a les expériences avec des sujets voyageurs des Dr Twemlow, Tart ou Krippner. Je donne les noms au cas où tu souhaiterais regarder).

En se fondant sur leurs expériences sur des sujets doués, ils ont pu remarquer que l'activité corticale n'était pas la même entre la sortie hors du corps et le rêve.

SHC :

- Activité corticale diversifiée par rapport aux rêves (theta, Delta Alphaloide pour la SHC et principalement Beta et Theta pour le rêve)

- Peut se dérouler à n'importe quel stade du sommeil, même depuis l'éveil.

- Pas de MOR (mouvement oculaire rapide) pendant la SHC

- Processus secondaire (cohérence dans la sensation de réalité) contrairement au rêve (processus primaire)

- Si stimulus extérieur, la shc s'arrête aussitôt, tandis que durant le rêve et le rêve lucide, il y a une intégration du stimulus dans le scénario du rêve/rêve lucide

On a quand même des indices objectifs que la shc et le rêve/rêve lucide sont deux choses différentes. Bon, ça, c'est si on veut rester à raz la pâquerette, l'expérimentation nous donne des données en plus qu'on n'aurait pas autrement.

Enfin, et cela ne concerne que moi. La nature de l'environnement onirique et l'environnement du voyageur est la même. C'est une substance psychique qui réagit à nos pensées et nos émotions. Elle prend la forme d'instance personnelle lors des rêves et se nourrit de nos expériences. Le rêveur lucide restera sous l'empire de cette instance, le voyageur hors du corps accède lui aux réseaux psychiques dans sa globalité. Un réseau qui dans sa nature est une sorte de conscience globale qu'on peut appeler Cosmos ou Akasha. C'est pour cette raison que le rêve et la sortie hors du corps sont par ailleurs proches et très distinctes simultanément.

Je fais avec la numérotation de tes questions pour essayer t'apporter un point de vue. Toutefois, je n'aurai pas les réponses estampillées 100 % pure vérité. On est bien incapable de le faire, mais on ne peut pas non plus nous le reprocher, tu me diras. Mais j'espère que ça t'aidera :

1) Tu sembles penser que la corde d'argent doit obéir à une logique, on peut l'observer et la toucher. On est donc sûr des observations subjectives, on n'a aucune idée de l'anatomie de ce truc s'il y en a une.

Déjà d'autres expérienceurs ne voit pas de corde d'argent, qui nous dit que ce n'est pas une forme pensée, une croyance matérialisée ? Enfin, quand tu prends du caramel chaud et que tu le travailles en l'étirant, tu observes bien que la pâte épaisse s'affine. Analogiquement, cela correspond et on peut que spéculer.

2) Je n'ai jamais eu d'habitation dans la contrepartie éthérique qui défiait les lois de la physique classique personnellement. Concernant les extraphysiques qui ont besoin de bâtiments, je dirai simplement qu'il serait assez naïf de penser que la réalité que nous expérimentons avec ce corps physique soit le seul à être tangible.

3) Idem, si ça sort des expériences du groupe, je ne pourrai pas y répondre. Personnellement, les êtres que j'ai pu rencontrer sont loin d'être limités xD

4) Les projections sont une dynamique importante, pas une explication qu'on invente. C'est un vécu. Comme je le répète souvent, la sortie hors du corps permet d'accéder à un espace psychique qui relit tout le vivant dans un genre d'arrière monde, un espace PSYCHIQUE. Les projections sont juste la conséquence de l'activité d'un organe imaginatif de la conscience qui tend à s'exprimer (peur et désir).

Avec l'expérience, on projette moins. Seulement ce sujet mérite beaucoup de développement pour en expliquer tous les détails, mais de façon concise, oui la projection a un bon dos bien musclé.

5) Les rendez-vous ne sont pas impossibles. Mais, écoutes, il faut des amis déjà ;-).

On ne contrôle pas tous la translocalisation. Généralement, tu vas poser une intention pour un lieu et cela sera l'intention sous-jacente ou inconsciente qui aura la priorité. Il faut rendre visite aux amis à vol d'oiseau si je puis me permettre.

6) Bah non, on peut atteindre des pointes de lucidité qu'on peut à peine concevoir et qui ferait passer ton expérience de la réalité pour une blague onirique. Combien de guides ou de pseudos gars haut dans la hiérarchie céleste, j'ai laissé derrière moi ? Ce que tu nous dis là est plutôt à mettre en rapport avec la personnalité de base du voyageur.

Autant le médium à pas forcément le choix, il capte l'info et c'est tout. Autant un voyageur peut prendre par le col un extraphysique. Cela dépendra vraiment de qui tu es à la base, une personne qui va facilement s'intégrer dans des systèmes (maitre/apprentis dominé/dominant). Ainsi, sans vouloir généraliser, parce qu'on est tous différents, on va vers plus d'indépendance, même si on n'est jamais à l'abri.

Enfin, si on est quand même manipulé comme tu le dis, et alors ?

Dans ce scénario-là, on s'en rendrait pas compte, on fait quoi alors ? On arrête de voyager et de se poser des questions ? On se convertit aux gnosticismes en espérant un jour cassé la gueule au démiurge ?

Pour conclure, si les témoignages t'ont mis dans une détresse intellectuelle par rapport à la SHC, c'est positif. Si tu étais venu gober tout et n'importe quoi, cela aurait été déprimant. Ce qu'il faut retenir c'est qu'un témoignage n'est qu'un témoignage. Le mien n'a pas plus de valeur parce que je serai un voyageur. On vit des choses, on est assez intelligent pour voir qu'il y a une ù^$*ù^ dans le potager et que c'est plus qu'un rêve lucide (principe de comparaison).

Mais, ce sont uniquement des témoignages pouvant servir de base à une réflexion sur la conscience, la réalité et notre rapport à la vie et rien d'autre. Par ailleurs, il est indéniable que certains vont prendre un rêve particulièrement lucide pour une sortie hors du corps sur le groupe, mais ce n'est pas grave.

Je pense que tu serais intéressé par la lecture de Thomas Campbell, c'est un physicien et un voyageur hors du corps. Le fait qu'il soit physicien est une plus-value intéressante également Ervin Laszlo, un philosophe des sciences qui a développé une réflexion sur le champ Akashique comme toile de fond d'un web cosmique. Une toile accessible via diverses expériences comme le rêve, rêve lucide, sortie hors du corps et autres.

J'avais une tasse de café et un peu de temps pour répondre, en espérant que cela ait été utile.

Callirhoé Déicoon : - Merci Eric pour ce post. Je pense que chaque niveau de réalité est un leurre à dépasser car la compréhension progresse et s’affine. Et qu’il faut admettre que quand on est à un niveau A, le niveau B est en dehors de notre compréhension.

“j’ai eu l'illusion de regarder un coucher du soleil, ce qui m'a laissé à penser que l'horizon pourrait être le bout. Mais tout cela n'est qu'illusion, parce que, si l'on progresse dans les niveaux, de nouveaux niveaux apparaissent.”

La zone d’après-vie contiendrait des environnements terrestres créés pour un certain but, du moins c’est comme ça que c’est décrit dans les bouquins de Monroe. Ce n’est en aucun cas la “réalité ultime”. Juste un leurre de plus, fait pour accueillir les décédés. Donc, c’est conforme à leurs habitudes. “to ease their mind”…

Les yogi le disent aussi, qu’il y a une zone très attractive mais que le but n’est pas d’y rester. Qu’il faut aller de l’avant.

Le problème c’est que c’est une zone immense donc on a l’impression qu’il n’y a que ça au-delà de notre plan, or ce n’est pas vrai, des gens ont ramené des témoignages d’une zone d’énergie pure qui se “situe” après une seconde mort mais, c’est si “loin” et difficile d’en ramener des informations qu’il n’y a presque rien à ce sujet.

Je ne parle pas ici d’autres mondes/dimensions que Marc semble parcourir et qu’il est impossible de situer sur la cartographie Monroe. Le problème est bien là d’ailleurs, les voyageurs n’ont pas vraiment les moyens de savoir où ils sont exactement. Je comprends bien le principe des bulles de réalité locales décrit par Marc mais, ça ne m’aide pas à concevoir la big picture. Cependant je pense que c'est très difficile de donner rdv dans un monde X ou Y à quelqu'un qui lui même n'y a pas été d'abord tout seul ! Or il semble qu'on aille à tel ou tel endroit pour des raisons qui nous échappent et qui sont peut-être liées à notre itinéraire personnel... Donc on comprend la difficulté du truc. Des sorties collectives ont été effectuées par des TMI graduates mais, dans des zones connues par eux au préalable et "proches" du plan physique.

En tout cas. Pour ceux qui arrivent à voyager sans charge epsilon… c’est génial et probablement la meilleure expérience de ce qu’on peut avoir en étant incarné. Mais eux aussi ils auront leur propre progression à faire une fois morts. De ce qu’on peut avoir comme réponses d’entités d’autres dimensions, ça semble infini. Moi je m’interroge sur la subjectivité de tout ça. Je ne remets pas en question la réalité de ça mais justement, je me demande si l’univers n’est pas en fait perceptible uniquement de façon subjective. Même si les consciences désincarnées communiquent peut-être sur leurs perceptions individuelles, je me demande si la compréhension progressive de la réalité n’est pas en fait quelque chose de subjectif et intime dans son essence. Et si les différents consensus n’ont une solidité qui n’est en fait que le fruit d’une subjectivité qui s’accorde entre les consciences à tel instant et tel endroit. Et qui dépend aussi du niveau de “densification” (cf consensus relatifs sur la zone d’après-vie, par exemple sur la Library et son emplacement, mais vue avec différentes architectures par les gens : donc on pourrait dire, consensus archétypal avec variantes subjectives sur l’apparence)

Par contre je ne remets pas en question l'existence des projections puisque pour moi c'est tout-à-fait logique notre propre conscience créatrice (et mal entraînée, surtout au début des OBE) mette un peu le dawa mais il y a des techniques pour différencier les projections d'une rencontre avec une autre entité aussi réelle que soi.

Pour ce qui est du plan physique qui semble présenter des différences d’un point de vue out of body, en effet c’est troublant mais ça peut s’expliquer je pense par des caractéristiques de la conscience qui sont encore mal cernées. Ça n’exclut pas la présence d’éléments vérifiables qui permettent donc de faire des reality checks une fois le retour dans le corps effectué. Plein de gens l’ont fait  ;-).

Il y a aussi la vision de son propre corps éthérique par ses yeux physiques qui peut arriver, comme Thomas Moine l’a dit dans son super com et comme Robert Bruce l’a vécu aussi et le raconte dans Astral Dynamics.

Mais, c’est sûr que si tu es venu sur ce groupe en pensant trouver des preuves par A plus B, et des témoignages tous concordants sur les mêmes zones de l’univers mental, etc etc… Tu es forcément déçu et perdu, mais c’est parce que la conscience et les créations qui en sont issus (les univers) ne fonctionnent pas comme notre cerveau physique appréhende les choses.

Je suis d’accord avec Marie-Jeanne, je ne pense pas qu’essayer de comprendre comment fonctionne tout ça aide à faire des expériences, au contraire. Donc dans l’idéal, il faudrait se concentrer sur la pratique. Mais je te comprends car je suis comme toi, j’ai pas pu m’empêcher d’essayer de comprendre de façon intellectuelle, et donc je me suis plongée dans Robert Monroe, et Robert Bruce, entre autres. Hyper intéressant. Mais, la partie qui m’a aidée à sortir n’a pas été le descriptif de comment c’est foutu là-bas, je suppose même que c’était contre-productif puisque j’ai gambergé à mort là-dessus (j’ai même fait un énorme mapping de l’astral sur un schéma). La partie qui m’a aidée a été l’information et les techniques pratico-pratiques que ces 2 auteurs fournissent également en parallèle. Et je pense que quand on se lance dans ce training, il vaut mieux laisser tomber les circonvolutions théoriques. Car on ne pourra pas tout comprendre anyway, la cogitation sera sans fin. Alors que ce qu’on cherche à activer est l’“autre cerveau”.

Auteur: Internet

Info: Fil FB de Marc Auburn, 21 août 2023

[ métempsychose ] [ décorporation ] [ voyage hors du corps ] [ dubitation ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Notre cerveau à l’heure des nouvelles lectures

Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement de l’enfant est venue évoquer "la modification de notre cerveau-lecteur au 21e siècle"

Comment lisons-nous ?

"Le cerveau humain n’était pas programmé pour être capable de lire. Il était fait pour sentir, parler, entendre, regarder… Mais nous n’étions pas programmés génétiquement pour apprendre à lire". Comme l’explique le neuroscientifique français Stanislas Dehaene (Wikipédia) dans son livre Les neurones de la lecture, nous avons utilisé notre cerveau pour identifier des modèles. C’est l’invention culturelle qui a transformé notre cerveau, qui a relié et connecté nos neurones entre eux, qui leur a appris à travailler en groupes de neurones spécialisés, notamment pour déchiffrer la reconnaissance de formes. La reconnaissance des formes et des modèles a permis la naissance des premiers symboles logographiques, permettant de symboliser ce qu’on voyait qui nous mènera des peintures rupestres aux premières tablettes sumériennes. Avec l’invention de l’alphabet, l’homme inventera le principe que chaque mot est un son et que chaque son peut-être signifié par un symbole. Le cerveau lecteur consiste donc à la fois à être capable de "voir", décoder des informations, des motifs et à les traiter pour pouvoir penser et avoir une réflexion.

Pour autant, le circuit de la lecture n’est pas homogène. Quand on observe à l’imagerie cérébrale un anglais qui lit de l’anglais, un chinois qui lit du chinois ou le Kanji, un Japonais qui lit le Kana japonais, on se rend compte que ces lectures activent des zones sensiblement différentes selon les formes d’écritures. Ce qui signifie qu’il y a plusieurs circuits de lecture dans notre cerveau. Le cerveau est plastique et il se réarrange de multiples façons pour lire, dépendant à la fois du système d’écriture et du médium utilisé. "Nous sommes ce que nous lisons et ce que nous lisons nous façonne" Ce qui explique aussi que chaque enfant qui apprend à lire doit développer son propre circuit de lecture.

Ce qui stimule le plus notre cerveau, selon l’imagerie médicale, c’est d’abord jouer une pièce au piano puis lire un poème très difficile, explique Maryanne Wolf. Car la lecture profonde nécessite une forme de concentration experte. Comme le souligne Proust dans Sur la lecture : "Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit."

La lenteur, la concentration et le processus cognitif encouragent le cerveau lecteur. La déduction, la pensée analogique, l’analyse critique, la délibération, la perspicacité, l’épiphanie (c’est-à-dire la compréhension soudaine de l’essence et de la signification de quelque chose) et la contemplation sont quelques-unes des merveilleuses conséquences de notre capacité à lire la pensée d’un autre.

Pourquoi la lecture numérique est-elle différente ?

Est-ce que ce que nous savons de notre cerveau lecteur éclaire ce que nous ne savons pas de la lecture à l’heure de la culture numérique ? Quelles sont les implications profondes sur la plasticité de nos circuits de lecture à mesure que nous utilisons des médiums dominés par le numérique ?

En 2008, dans une interview pour Wired, quelques mois avant d’écrire son célèbre article, "Est-ce que Google nous rend idiot ?", Nicholas Carr expliquait : "La chose la plus effrayante dans la vision de Stanley Kubrick n’était pas que les ordinateurs commencent à agir comme les gens, mais que les gens commencent à agir comme des ordinateurs. Nous commençons à traiter l’information comme si nous étions des noeuds, tout est question de vitesse de localisation et de lecture de données. Nous transférons notre intelligence dans la machine, et la machine transfère sa façon de penser en nous."

Les caractéristiques cognitives de la lecture en ligne ne sont pas les mêmes que celle de la lecture profonde, estime Maryanne Wolf. Avec le numérique, notre attention et notre concentration sont partielles, moins soutenues. Notre capacité de lecture se fixe sur l’immédiateté et la vitesse de traitement. Nous privilégions une forme de lecture qui nous permet de faire plusieurs tâches en même temps dans des larges ensembles d’information. Les supports numériques ont tendance à rendre notre lecture physique (tactile, interactions sensorielles…) tandis que le lire nous plonge plutôt dans un processus cognitif profond. Pour la spécialiste, il semble impossible de s’immerger dans l’hypertexte. Reprenant les propos de Carr, "l’écrémage est la nouvelle normalité", assène-t-elle. "Avec le numérique, on scanne, on navigue, on rebondit, on repère. Nous avons tendance à bouger, à cliquer et cela réduit notre attention profonde, notre capacité à avoir une lecture concentrée. Nous avons tendance à porter plus d’attention à l’image. Nous avons tendance à moins internaliser la connaissance et à plus dépendre de sources extérieures."

Les travaux d’imagerie cérébrale sur les effets cognitifs du multitâche montrent que même si on peut apprendre en étant distraits cela modifie notre façon d’apprendre rendant l’apprentissage moins efficace et utile estime le professeur de psychologie et neurobiologie Russ Poldrack. Les facteurs tactiles et matériels ont aussi une importance. On ne peut s’immerger dans l’hypertexte de la même façon qu’on pouvait se perdre dans un livre, estime la spécialiste de la lecture Anne Mangen du Centre sur la lecture de l’université de Stavanger. Plusieurs études ont montré que notre niveau de compréhension entre l’écran et l’imprimé se faisait toujours au détriment du numérique, rappelle Maryanne Wolf. Mais peut-être faudrait-il nuancer les propos de Maryanne Wolf et souligner, comme nous l’avions déjà rappelé lors de la publication de la charge de Nicholas Carr que les les protocoles d’expérimentation des neuroscientifiques défendent souvent des thèses. La science et l’imagerie médicale semblent convoquées pour apporter des preuves. Alors que les différences de protocoles entre une étude l’autre, la petitesse des populations étudiées, nécessiterait beaucoup de prudence dans les conclusions.

Reste que pour comprendre cette différence entre papier et électronique, estime Maryanne Wolf, il nous faut comprendre comment se forme notre capacité de lecture profonde. Est-ce que la lecture superficielle et notre attente continue d’informations externes seront les nouvelles menaces des lectures numériques ? Ces deux risques vont-ils court-circuiter notre "cerveau lecteur" ? Est-ce que la construction de l’imaginaire de l’enfance va être remplacée par celle, externe, que tous les nouveaux supports offrent ? …

"Nous ne reviendrons pas en arrière, nous ne reviendrons pas à un temps prénumérique", insiste Maryanne Wolf. "Ce n’est ni envisageable, ni enviable, ni faisable."

"Mais nous ne devrions pas accepter une embardée vers l’avant sans comprendre ce que le "répertoire cognitif" de notre espèce risque de perdre ou de gagner."
 "Ce serait une honte si la technologie la plus brillante que nous ayons développée devait finir par menacer le genre d’intelligence qui l’a produite", estime l’historien des technologies Edward Tenner. Et Maryanne Wolf de nous montrer trois enfants assis dans un canapé, avec chacun son ordinateur sur ses genoux. C’est l’image même qui inspire notre peur de demain. Celle-là même qu’évoquait l’anthropologue Stefana Broadbent à Lift 2012. Sauf que l’anthropologue, elle, nous montrait qu’on était là confronté là à une représentation sociale… une interrogation totalement absente du discours alarmiste de Maryanne Wolf, qui compare l’activité cognitive de cerveaux habitués à la lecture traditionnelle, avec celle de cerveaux qui découvrent les modalités du numérique.

Le numérique a bien un défaut majeur, celui d’introduire dans notre rapport culturel même des modalités de distraction infinies. Comme nous le confiait déjà Laurent Cohen en 2009, l’écran ou le papier ne changent rien à la capacité de lecture. Mais c’est le réseau qui pose problème et ce d’autant plus quand il apporte une distraction permanente, permettant toujours de faire autre chose que ce que l’on compte faire.

Si la lecture profonde peut se faire tout autant sur papier qu’à travers le réseau, le principal problème qu’induit le numérique, c’est la possibilité de distraction induite par l’outil lui-même, qui demande, pour y faire face, un contrôle de soi plus exigeant.

Notre avenir cognitif en sursis ?

Alors, comment résoudre ce paradoxe, se demande Maryanne Wolf. Comment pouvons-nous éviter de "court-circuiter" notre capacité à lire en profondeur, tout en acquérant les nouvelles compétences nécessaires pour le 21e siècle ?

Un premier pas peut-être fait en ayant conscience de nos limites, estime Maryanne Wolf. Rappelons-nous que notre cerveau n’a jamais été programmé génétiquement pour lire. Que chaque lecteur doit construire ses propres circuits de lecture. Que nos circuits de lecture sont plastiques et influencés par les médiums et les systèmes d’écriture que nous utilisons. Notre cerveau-lecteur est capable à la fois des plus superficielles et des plus profondes formes de lecture, de ressenti et de pensées.

Nous pouvons deviner que l’accès à l’information ne va cesser d’augmenter. Mais nous ne savons pas si l’accès immédiat à de vastes quantités d’informations va transformer la nature du processus de lecture interne, à savoir la compréhension profonde et l’internalisation de la connaissance.

Pour le dire autrement, notre cerveau est d’une plasticité totale, mais cela ne veut pas dire que nous allons perdre telle ou telle capacité d’attention, alors que celles-ci ont plus que jamais une importance sociale. Pour l’instant, pourrions-nous répondre à Maryanne Wolf, ce que le cerveau lecteur nous a le plus fait perdre, c’est certainement notre capacité à lire les détails du monde naturel que comprenait le chasseur-cueilleur.

Nous ne savons pas si l’accès immédiat à cette quantité croissante d’information externe va nous éloigner du processus de lecture profonde ou au contraire va nous inciter à explorer la signification des choses plus en profondeur, estime Wolf en reconnaissant tout de même, après bien des alertes, l’ignorance des neuroscientifiques en la matière. Bref, nous ne savons pas si les changements qui s’annoncent dans l’intériorisation des connaissances vont se traduire par une altération de nos capacités cognitives, ni dans quel sens ira cette altération.

Si nous ne savons pas tout de notre avenir cognitif, estime Wolf, peut-être pouvons-nous conserver certains objectifs en vue. Que pouvons-nous espérer ? La technologie va bouleverser l’apprentissage, estime Maryanne Wolf en évoquant l’expérimentation qu’elle mène avec le MIT sur le prêt de tablettes auprès d’enfants éthiopiens qui n’ont jamais été alphabétisés et qui montre des jeunes filles capables de retenir l’alphabet qu’elles n’avaient jamais appris. Comment peut-on créer les conditions pour que les nouveaux lecteurs développent une double capacité… savoir à la fois quand il leur faut écrémer l’information et quand il leur faut se concentrer profondément ?

En semblant à la fois croire dans l’apprentissage par les robots, comme le montre l’expérience OLPC en Ethiopie de laquelle elle participe visiblement avec un certain enthousiasme (alors que certains spécialistes de l’éducation ont montré que l’essentielle des applications d’apprentissage de la lecture ne permettaient pas de dépasser le niveau de l’apprentissage de l’alphabet, en tout cas n’étaient pas suffisantes pour apprendre à lire seul) et en n’ayant de cesse de nous mettre en garde sur les risques que le numérique fait porter à la lecture profonde, Maryanne Wolf semble avoir fait un grand écart qui ne nous a pas aidés à y voir plus clair.

Après la langue et le langage : la cognition

Pour l’ingénieur et philosophe Christian Fauré, membre de l’association Ars Industrialis. "l’organologie générale" telle que définit par Ars Industrialis et le philosophe Bernard Stiegler, organisateur de ces rencontres, vise à décrire et analyser une relation entre 3 types d' "organes" qui nous définissent en tant qu’humain : les organes physiologiques (et psychologiques), les organes techniques et les organes sociaux.

"Nos organes physiologiques n’évoluent pas indépendamment de nos organes techniques et sociaux", rappelle Christian Fauré. Dans cette configuration entre 3 organes qui se surdéterminent les uns les autres, le processus d’hominisation semble de plus en plus porté, "transporté" par l’organe technique. Car dans un contexte d’innovation permanente, le processus d’hominisation, ce qui nous transforme en hommes, est de plus en plus indexé par l’évolution de nos organes techniques. La question est de savoir comment nos organes sociaux, psychologiques et physiologiques vont suivre le rythme de cette évolution. A l’époque de l’invention des premiers trains, les gens avaient peur d’y grimper, rappelle le philosophe. On pensait que le corps humain n’était pas fait pour aller à plus de 30 km à l’heure.

L’évolution que nous connaissons se produit via des interfaces entre les différents organes et c’est celles-ci que nous devons comprendre, estime Christian Fauré. Quel est le rôle des organes techniques et quels sont leurs effets sur nos organes sociaux et physiologiques ?L’écriture a longtemps été notre principal organe technique. Parce qu’elle est mnémotechnique, elle garde et conserve la mémoire. Par son statut, par les interfaces de publication, elle rend public pour nous-mêmes et les autres et distingue le domaine privé et le domaine public. Or l’évolution actuelle des interfaces d’écriture réagence sans arrêt la frontière entre le privé et le public. Avec le numérique, les interfaces de lecture et d’écriture ne cessent de générer de la confusion entre destinataire et destinateur, entre ce qui est privé et ce qui est public, une distinction qui est pourtant le fondement même de la démocratie, via l’écriture publique de la loi. Avec le numérique, on ne sait plus précisément qui voit ce que je publie… ni pourquoi on voit les messages d’autrui.

La question qui écrit à qui est devenue abyssale, car, avec le numérique, nous sommes passés de l’écriture avec les machines à l’écriture pour les machines. L’industrie numérique est devenue une industrie de la langue, comme le soulignait Frédéric Kaplan. Et cette industrialisation se fait non plus via des interfaces homme-machine mais via de nouvelles interfaces, produites par et pour les machines, dont la principale est l’API, l’interface de programmation, qui permet aux logiciels de s’interfacer avec d’autres logiciels.

Le nombre d’API publiée entre 2005 et 2012 a connu une croissance exponentielle, comme l’explique ProgrammableWeb qui en tient le décompte. Désormais, plus de 8000 entreprises ont un modèle d’affaire qui passe par les API. "Le web des machines émerge du web des humains. On passe d’un internet des humains opéré par les machines à un internet pour les machines opéré par les machines. L’API est la nouvelle membrane de nos organes techniques qui permet d’opérer automatiquement et industriellement sur les réseaux."

Ecrire directement avec le cerveau

Le monde industriel va déjà plus loin que le langage, rappelle Christian Fauré sur la scène des Entretiens du Nouveau Monde industriel. "Nous n’écrivons plus. Nous écrivons sans écrire, comme le montre Facebook qui informe nos profils et nos réseaux sociaux sans que nous n’ayons plus à écrire sur nos murs. Nos organes numériques nous permettent d’écrire automatiquement, sans nécessiter plus aucune compétence particulière. Et c’est encore plus vrai à l’heure de la captation de données comportementales et corporelles. Nos profils sont renseignés par des cookies que nos appareils techniques écrivent à notre place. Nous nous appareillons de capteurs et d’API "qui font parler nos organes". Les interfaces digitales auxquelles nous nous connectons ne sont plus des claviers ou des écrans tactiles… mais des capteurs et des données." Les appareillages du Quantified Self sont désormais disponibles pour le grand public. La captation des éléments physiologique s’adresse à nos cerveaux, comme l’explique Martin Lindstrom dans Buy.Ology. "Nous n’avons même plus besoin de renseigner quoi que ce soit. Les capteurs le font à notre place. Pire, le neuromarketing semble se désespérer du langage. On nous demande de nous taire. On ne veut pas écouter ce que l’on peut dire ou penser, les données que produisent nos capteurs et nos profils suffisent." A l’image des séries américaines comme Lie to Me ou the Mentalist où les enquêteurs ne s’intéressent plus à ce que vous dites. Ils ne font qu’observer les gens, ils lisent le corps, le cerveau. "L’écriture de soi n’est plus celle de Foucault, les échanges entre lettrés. On peut désormais s’écrire sans savoir écrire. Nous entrons dans une époque d’écriture automatique, qui ne nécessite aucune compétence. Nous n’avons même plus besoin du langage. L’appareillage suffit à réactualiser le connais-toi toi-même  !"

Google et Intel notamment investissent le champ des API neuronales et cherchent à créer un interfaçage direct entre le cerveau et le serveur. Le document n’est plus l’interface. Nous sommes l’interface !

"Que deviennent la démocratie et la Res Publica quand les données s’écrivent automatiquement, sans passer par le langage ? Quand la distinction entre le public et le privé disparaît ? Alors que jusqu’à présent, la compétence technique de la lecture et de l’écriture était la condition de la citoyenneté", interroge Christian Fauré.

Les capteurs et les interfaces de programmation ne font pas que nous quantifier, ils nous permettent également d’agir sur notre monde, comme le proposent les premiers jouets basés sur un casque électroencéphalographique (comme Mindflex et Star Wars Science The Force Trainer), casques qui utilisent l’activité électrique du cerveau du joueur pour jouer. Ces jouets sont-ils en train de court-circuiter notre organe physiologique ?

Mais, comme l’a exprimé et écrit Marianne Wolf, nous n’étions pas destinés à écrire. Cela ne nous a pas empêchés de l’apprendre. Nous sommes encore moins nés pour agir sur le réel sans utiliser nos organes et nos membres comme nous le proposent les casques neuronaux.

Quand on regarde les cartographies du cortex somatosensoriel on nous présente généralement une représentation de nous-mêmes selon l’organisation neuronale. Celle-ci déforme notre anatomie pour mettre en évidence les parties de celle-ci les plus sensibles, les plus connectés à notre cerveau. Cette représentation de nous est la même que celle que propose la logique des capteurs. Or, elle nous ressemble bien peu.

(Image extraite de la présentation de Christian Fauré : ressemblons à notre cortex somatosensoriel ?)

Que se passera-t-il demain si nous agissons dans le réel via des casques neuronaux ? La Science Fiction a bien sûr anticipé cela. Dans Planète interdite, le sous-sol de la planète est un vaste data center interfacé avec le cerveau des habitants de la planète qui ne donne sa pleine puissance que pendant le sommeil des habitants. "Ce que nous rappelle toujours la SF c’est que nos pires cauchemars se réalisent quand on interface l’inconscient à la machine, sans passer par la médiation de l’écriture ou du langage. Si la puissance du digital est interfacée et connectée directement aux organes physiologiques sans la médiation de l’écriture et du langage, on imagine alors à quel point les questions technologiques ne sont rien d’autre que des questions éthiques", conclut le philosophe.

Si on ne peut qu’être d’accord avec cette crainte de la modification du cerveau et de la façon même dont on pense via le numérique comme c’était le cas dans nombre d’interventions à cette édition des Entretiens du Nouveau Monde industriel, peut-être est-il plus difficile d’en rester à une dénonciation, comme l’a montré l’ambiguïté du discours de Maryanne Wolf. Si nous avons de tout temps utilisé des organes techniques, c’est dans l’espoir qu’ils nous libèrent, qu’ils nous transforment, qu’ils nous distinguent des autres individus de notre espèce et des autres espèces. Pour répondre à Christian Fauré, on peut remarquer que la SF est riche d’oeuvres qui montrent ou démontrent que l’augmentation de nos capacités par la technique était aussi un moyen pour faire autre chose, pour devenir autre chose, pour avoir plus de puissance sur le monde et sur soi. Il me semble pour ma part qu’il est important de regarder ce que les interfaces neuronales et les capteurs libèrent, permettent. Dans the Mentalist, pour reprendre la référence de Christian Fauré, ce sont les capacités médiumniques extraordinaires de l’enquêteur qui transforme son rapport au monde et aux autres. Si l’interfaçage direct des organes physiologique via des capteurs et des données produit de nouvelles formes de pouvoir, alors il est certain que nous nous en emparerons, pour le meilleur ou pour le pire. On peut légitimement le redouter ou s’en inquiéter, mais ça ne suffira pas à nous en détourner.

Qu’allons-nous apprendre en jouant de l’activité électrique de nos cerveaux ? On peut légitimement se demander ce que cela va détruire… Mais si on ne regarde pas ce que cela peut libérer, on en restera à une dénonciation sans effets.



 

Auteur: Guillaud Hubert

Info: https://www.lemonde.fr/blog/internetactu/2013/01/11/notre-cerveau-a-lheure-des-nouvelles-lectures/

[ communication ] [ réflexivité ] [ métalangage ] [ secondéités intégrées ] [ prospective ] [ niveaux de lecture ] [ citation s'appliquant à ce logiciel ] [ inversion ] [ triade ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie occidentale

Le symbolique, l'imaginaire et le réel : Lacan, Lévi-Strauss et Freud

" Tout comportement est communication." Gregory Bateson

Contrairement à l'expérience de la psychanalyse aux Etats-Unis, Freud arriva très tard en France où il fut plus ou moins réfuté par Sartre dans Son "Etre et Néant" avant même son arrivée. Curieusement, c'est à l'apogée de l'existentialisme et de la psychanalyse existentielle, dans les années cinquante et au début des années soixante, qu'un analyste français inconnu de la génération Sartre entama une relecture radicale des textes freudiens.
Son travail devait avoir une telle influence dans les années soixante-dix qu'il sauva entièrement Freud de l'orientation médicale positiviste apportée par la société psychanalytique parisienne, et réintégra son travail dans ce que les Français appellent encore les sciences humaines.
Il s'agit de Jacques Lacan, pilier de l'Ecole freudienne de Paris - styliste hermétique et obscur, conférencier envoûtant, penseur intransigeant et inflexible, profondément préoccupé par ses propres écrits et prérogatives - qui fut interdit par la Fédération internationale lorsque lui et ses collègues, principalement du à des rivalités internes, quittèrent la société parisienne en 1953.
Il y a sans doute plus d'anecdotes dénigrantes, et probablement calomnieuses, qui circulent sur Lacan au sein de l'incestueux climat intellectuel parisien que sur tout autre penseur influent. Mais si le travail de Lacan signifie quelque chose, nous devons séparer les idiosyncrasies personnelles bien connues de Lacan de la contribution unique qu'il apporta à notre compréhension de Freud.

Bien que Lacan ait commencé son oeuvre originale à la fin des années trente, sous l'influence de la phénoménologie et de l'existentialisme husserliens, ce n'est que dans les années soixante qu'il commença à être réellement écouté en France, et ses écrits ne commencèrent à arriver en Angleterre et aux Etats-Unis que récemment. S'attaquant à l'"intellectualisme" français et au culte de l'"expert", à l'"empirisme", tout comme à la "biologisation" britanniques et à l'"adaptation" et au "behaviorisme" américains dans une série de polémiques cinglantes, son seul travail a rendu impossible, à tout penseur français qui se respecte, de continuer à ignorer les textes de Freud. L'intégration de ce texte dans la culture du cogito cartésien a déjà eu des résultats surprenants et féconds. Reste à savoir ce que Lacan va faire passer aux Etats-Unis - où l'enthousiasme même de l'acceptation initiale de Freud par les Américains eut tendance à réduire ses idées à des banalités et ses théories quasi au statut de jeu social.

Nous découvrons maintenant, par exemple, un nouveau retour à la théorie de Breuer-Freud sur la catharsis thérapeutique - autrefois popularisée en tant que "psychodrame" - sous une nouvelle forme de "désublimation répressive" : thérapie du "cri primal". Mais les héros des talk-shows de fin de soirée vont et viennent avec une régularité monotone et, en fin de compte, il nous reste toujours les grandes œuvres du génie pour y méditer : Hegel, Marx, Freud, Dostoïevski, Rousseau, Balzac, pour ne citer que quelques-uns de nos prédécesseurs les plus récents. Et ce que nous découvrons, c'est que nous devons apprendre à lire avant de parler, que nous devons apprendre à les lire d'un point de vue social critique, aussi libre de préjugés ethnocentriques, socioéconomiques et culturels que possible.
En un mot, nous devons apprendre à lire dans une perspective non académique, dans la perspective d'une expérience de vie où ces auteurs et leurs quêtes personnelles font partie de notre quête individuelle et collective. Je préférerais lire l'Interprétation des rêves comme un roman, par exemple, ou le célèbre cas du docteur " psychotique " Schreber comme de la philosophie, ou les Frères Karamazov comme une étude métapsychologique, que l'inverse. Lacan a contribué à rendre ce genre de lecture possible.
Une grande partie de ce que Lacan cherchait à accomplir avec ses étudiants dans les années cinquante n'a plus grand intérêt aujourd'hui, car il s'agissait d'attaques contre la technique thérapeutique d'un groupe de psychanalystes français très peu doués, objectivées et liés à la culture. Mais son attaque contre la "psychologie de l'ego" de praticiens comme Hartmann, Kris et Lbwenstein, ou le "behaviorisme " de Massermann, est toujours valable (Lacan, 1956a ; Wilden, 196Sa : 1-87). Et ceux qui s'y sont opposés avec tant de véhémence en France constatent aujourd'hui qu'ils ne peuvent rejeter ses analyses critiques des textes freudiens et s'appeler encore Freudiens. Mais si Lacann inspira une école française d'analyse qui se veut anti-institutionnelle, anti-psychiatrique et profondément critique à la fois à l'égard de "l'ajustement" de l'individu et de ceux que Marcuse nommait "révisionnistes néofreudiens", il n'a probablement pas fait plus pour les pratiques analytiques que ce qui a été réalisé par des thérapeutes comme Laing, Esterson et Cooper, au Royaume-Uni, et par des gens comme Ruesch, Bateson, Haley, Weakland ou Jackson, aux Etats-Unis.
De plus, la psychanalyse est un privilège socio-économique réservé aux personnes qui ont argent et loisirs pour se faire plaisir. La question de "la guérison" est en tout cas tout à fait débattable, et nous savons bien que la psychologie, la psychiatrie et la psychothérapie en général ont toujours été les véhicules des valeurs du statu quo (à l'exception extraordinaire de Wilhelm Reich, dont les théories ne correspondent malheureusement jamais au niveau élevé de son engagement social).
Et comme la plupart d'entre nous apprenons à vivre avec nos blocages, il est alors très peu probable que nous devions apprendre un jour apprendre à vivre avec les effets aliénants de notre société unidimensionnelle et technologique en ayant à nous préoccuper de psychanalyse ? En tout état de cause, personne, en quête d'une perspective véritablement critique, ne tentera de construire une théorie de l'homme et de la femme essentiellement basée sur la psychologie humaine, car le "discours scientifique" de la psychologie vise à nier ou à omettre le contenu socio-économique collectif à l'intérieur duquel les facteurs psychologiques jouent leur rôle.
J'essaierai de montrer plus loin que l'axiomatique fermeture de la plupart des psychanalystes dans la plénitude de ce contexte - et, je crois, dans sa primauté - génère des problèmes purement logiques dans la théorie, problèmes dont elle n'est pas, logiquement, équipée pour les surmonter. Ainsi, ce qui apparaît dans la théorie logico-mathématique de Bateson de la " double liaison " (chapitre V) comme une oscillation, apparaît nécessairement en psychanalyse, sous une forme ou une autre, comme une théorie de la répétition. Lacan, par exemple, fit appel à Kierkegaard (Repetition, 1843) pour étayer son interprétation de Freud, et pourtant si l'on regarde de près les écrits de Kierkegaard, en particulier les siens propres ou ceux également publiés en 1843, on découvre que la théorie entière dépend de l'incapacité de Kierkegaard à dépasser, de manière logique ou existentielle, les injonctions (doubles liens) paradoxales qu'il reçoit de son environnement familial et social. Par conséquent, le voilà condamné à osciller sans cesse entre un "soit" et un "ou". Ce qui apparaît dans la théorie de Bateson comme une réponse nécessaire aux injonctions émanant des rapports de pouvoir et de domination dans l'ordre social, et qui apparaît généralement dans la psychanalyse, et plus particulièrement chez Lacan, comme de la "compulsion itérative". Ainsi, soit la responsabilité est renvoyée à l'individu (par les "instincts" ou quelque autre métaphore de ces constructions biomécaniques), soit, comme chez Lacan, elle se transforme subtilement en une forme "d'ordre naturel des choses", via les paradoxes que le langage crée dans la condition humaine.
Contrairement à la théorie du double lien, les deux points de vue supposent une homogénéité dans la société qui n'existe tout simplement pas et servent à rationaliser les dominations en refusant de traiter la relation entre pouvoir, connaissance et oppression, ils ne voient pas la différence, dans la société, entre ce que Marcuse appela "répression" et "sur-répression". Malgré l'incompréhension de Marcuse à l'égard du Freud "clinique" - et malgré sa dépendance à la théorie bioénergétique des instincts - la distinction est importante. Peu de théoriciens américains, par exemple, envisageraient sérieusement le calvaire des minorités américaines dans leur lutte pour les droits socio-économiques élémentaires, simplement en termes de "compulsion itératives" telle une révolte contre le père (ou la mère).
Il m'est impossible de parler de Freud ou de Lacan sans utiliser les contributions que Bateson et Marcuse - de manières différentes et même mutuellement opposées - ont apportées à notre compréhension des relations humaines. Il faut d'une part traiter la perception de la psychanalyse et de la psychologie comme des rationalisations des valeurs de notre culture (l'oppression des femmes, en particulier), et d'autre part, montrer comment elles peuvent contribuer à une dévalorisation de ces valeurs. L'analyse de Bateson des relations de pouvoir par la double contrainte est, je crois, essentielle à la théorie sociale et psychologique, et je ne sais comment expliquer la théorie de l'imaginaire de Lacan sans elle. En tout cas, Freud décrit la relation entre l'ego et l'idéal de l'ego en des termes similaires à ceux d'une double liaison (double bind, dans The Ego and the I, Standard Edition, XIX, 34) : "Tu devrais être ainsi (comme ton père), mais tu ne dois pas être ainsi (comme ton père)."
Dans le monde contemporain de la contestation, il n'y a aucune réponse à la façon dont la psychanalyse est régulièrement - et nécessairement - remise en question, si le Freud dont nous parlons est le déterminant hydraulique, instinctif, électromagnétique et entropique que nous pensions tous connaître.
Il y a une réponse, cependant, si nous découvrons la perspective communicationnelle et linguistique derrière l'acceptation explicite ou implicite par Freud des principes mécanistes de la science physique et économique du XIXe siècle. Après tout, la psychanalyse est bien la "cure parlante", comme Lacan n'a jamais manqué d'insister dessus, et les pages des écrits de Freud s'intéressent avant tout au langage. Bien plus intéressante que la théorie de l'ego, de la personnalité et du surmoi, par exemple, est la conception que Freud a de l'inconscient et du rêve comme des scènes (Darstellungen) de distorsions (Entstellungen) et de (re)présentations (Vorstellungen). Mieux que coller à la préoccupation contemporaine pour les systèmes et les structures que la "psychologie de l'ego" de Freud, dans son premier modèle de processus primaires et secondaires. Plus significative que son déterminisme il y a sa théorie de la "surdétermination" du symptôme ou du rêve, qui est un concept proche de la redondance en théorie de l'information et de l'équifinalité en gestaltisme et biologie.
Si nous devons rejeter les principes mécanistes du principe du plaisir, nous pouvons encore découvrir le modèle sémiotique des niveaux de communication dans les premiers travaux de Freud. Plus utile que la "deuxième" théorie du symbolisme (dérivée de Stekel), qui assimile les icônes ou les images (analogues) aux symboles sexuels (Jones, Ferenczi, et al.), est la "première" ou théorie "dialectique", qui dépend de la condensation et du déplacement des signes (Zeichen). Le rêve doit être traduit de l'image en texte avant de pouvoir être interprété (par le rêveur), et la refoulement est, comme le disait Freud en 1896, "un échec de la traduction". De plus, aucune théorie actuelle de la mémoire n'est essentiellement différente de la métaphore originale de Freud sur le "traçage" de voies via les traces de mémoire dans le cerveau.Je reviendrai dans un instant sur une description plus précise de l'orientation sémiotique et linguistique de Freud. Le fait est que, sans le travail de Lacan, je doute que nous aurions découvert ce Freud - bien que l'analyse de Karl Pribram du Projet neuropsychologique pour une psychologie scientifique (1895) aille dans le sens d'une relecture de Freud au moins au niveau de la théorie de l'information et du feedback (Pribram, 1962).
Le problème avec Lacan, c'est qu'à première vue, ses écrits sont presque impossibles à comprendre. Ses Ecrits (1966) - et seul un Lacan pouvait avoir l'orgueil d'intituler son oeuvre simplement "Écrits" - titre peut-être plus à lire comme "discours de schizophrène" - ou comme de la poésie ou autres absurdités, selon vos préjugés et votre tendance au transfert positif ou négatif - que tout autre.
L'hermétisme de Lacan ne peut être excusé - pas plus que son attitude envers le lecteur, qui pourrait s'exprimer ainsi : "aime-le" ou "c'est à prendre ou à laisser". Mais bien que la destruction personnelle de la syntaxe française par Lacan le rende assez ardu même pour le lecteur français, il y a au moins une tradition intellectuelle suffisamment homogène à Paris qui fait que Lacan y est bien moins étranger qu'en Grande-Bretagne ou aux Etats Unis. La tradition phénoménologique, existentialiste et hégélienne-marxiste en France rend moins nécessaire d'expliquer ce que vous entendez par Hegel, ou Husserl, ou Heidegger, ou Kojéve, ou Sartre. Et la plupart des gens reconnaîtront de toute façon une idée, même si vous ne mentionnez pas la source, ou si vous citez ou paraphrasez sans référence, car ce genre de "plagiat" est généralement acceptable en France.
Fait assez significatif cependant, Lacan n'aurait pas pu réaliser son analyse de Freud sans l'influence de l'école de linguistique suisso-américano-russe représentée par Roman Jakobson, qui a longtemps témoigné de l'influence du formalisme russe et du linguistique structurel de Saussure aux Etats-Unis. Mais même cette influence est parvenue indirectement à Lacan. L'influence la plus importante sur Lacan fut celle de l'anthropologue structurel français Claude-Lévi-Strauss, qui rencontra et travailla avec Jakobson à la New School for Social Research de New York, en 1942-1945.

Lévi-Strauss tend à ne pas être très apprécié par les anthropologues américains et britanniques qui sont redevables à la tradition analytique et dite empiriste, ce qui en dit long sur lui. Il est à l'origine d'une nouvelle méthodologie et d'une épistémologie d'accompagnement en sciences humaines en France, généralement appelée "structuralisme". (Aujourd'hui, cependant, le terme désigne simplement une mode, un peu comme l'existentialisme.) Le structuralisme, dans le sens d'une méthodologie non empiriste, non atomiste, non positiviste des lois de la relation, est d'autre part complété par les avancées en théorie des systèmes généraux, en cybernétique non mécanique, en théorie de la communication et en études écologiques. Tant la nouvelle approche structurelle que la nouvelle approche systémique-cybernétique semblent parler en fait d'une véritable révolution épistémologique dans les sciences de la vie et les sciences sociales, dont nous entendrons beaucoup plus parler au cours de la prochaine décennie (si nous y survivons, bien sûr).
Lévi-Strauss chercha à utiliser les travaux des phonologues structuraux sur "l'opposition binaire" des phonèmes en tant que modèle pour l'analyse des mythes et des relations et échanges au sein des sociétés dites "primitives" - dont il a ensuite remis en question le supposé "primitivisme". Constatant qu'un nombre relativement faible d'"oppositions" entre "traits distinctifs" (graves/aigus, voix/silence, etc.) sont suffisants pour former l'infrastructure acoustique de toute langue connue, Lévi-Strauss tenta de découvrir des ensembles analogues d'oppositions dans les systèmes de parenté et dans les mythes. Ses travaux les plus récents se sont concentrés sur le mythe en tant que musique.
Avec tous ces machins douteux dans son approche, Lévi-Strauss a néanmoins introduit un type de signification dans l'étude du mythe - auparavant presque exclusivement axé sur le contenu plutôt que sur la forme - là où ça n'existait pas avant. Comme pour l'œuvre de Lacan - ou celle de Freud - le principal problème du structuralisme lévi-straussien ne réside pas dans la méthodologie, mais dans son application, c'est-à-dire dans les revendications universelles formulées en son nom.
Je reviendrai sur la critique plus détaillée du "structuralisme" dans les chapitres suivants. Pour l'instant, il suffira de donner un exemple bref et purement illustratif de l'utilisation par Lévi-Strauss du concept d'"opposition binaire" dans l'étude du mythe (Lévi-Strauss, 1958 : chap. 11).
Pour lui, le mythe est une représentation diachronique (succession dans le temps) d'un ensemble d'oppositions synchroniques (intemporelles). Il croit que la découverte de ces oppositions synchroniques est une déclaration sur la "structure fondamentale de l'esprit humain". Dans les chapitres suivants, j'analyserai et critiquerai le terme "opposition" - qui cache les catégories de "différence", "distinction", "opposition", "contradiction" et "paradoxe" . Je critiquerai également le concept de relations "binaires" " - qui dissimule toute une série de malentendus sur la communication analogique et numérique en général, et plus particulièrement sur "non", "négation", "exclusion", "zéro" et "moins un", ainsi que sur la relation entre "A" et "non-A". J'essaierai également de démontrer l'idée fausse que Lévi-Strauss se fait de la confusion entre "esprit", "cerveau" et "individu". Ceci est étroitement lié à la conception de Piaget de l'organisme comme "structure paradigmatique", et à l'incapacité, dans la plupart des travaux actuels en sciences de la vie et sciences sociales, de comprendre le problème logico-mathématique et existentiel des frontières et des niveaux dans les systèmes ouverts de communication et d'échange (systèmes impliquant ou simulant la vie ou "esprit", systèmes vivants et sociaux).

La méthode de lecture des mythes de Lévi-Strauss est entièrement nouvelle, simple à comprendre, globale et satisfaisante sur le plan esthétique. Il suggère de regarder le mythe comme on regarderait une partition d'orchestre dans laquelle les notes et les mesures à jouer en harmonie simultanée par différents instruments se sont mêlées à la cacophonie d'une succession linéaire. Ainsi, si nous représentons cette succession par les nombres 1, 2, 4, 7, 8, 2, 3, 4, 6, 8, 1, 4, 5, 7, nous pouvons rétablir la partition originale en mettant tous les nombres semblables ensemble en colonnes verticales :

112234444567788

Cette matrice est exactement ce que l'on peut construire dans l'analyse phonologique d'une phrase, où l'on peut montrer qu'une séquence linéaire de mots se construit sur une succession d'oppositions binaires entre des éléments acoustiques distinctifs.
Malheureusement pour ce que Lévi-Strauss considère comme la clé de voûte de sa méthode, l'analogie qu'il fait entre phonologie structurelle et mythe est fausse, alors que sa méthodologie est extrêmement fertile. Ce problème met en évidence la difficulté centrale de l'utilisation de l'œuvre de Lévi-Strauss et de Lacan. Il faut montrer que les sources supposées de leurs nouvelles contributions aux sciences sociales ne sont pas ce qu'elles pensent être ; il faut démontrer où et comment leurs points de vue servent une fonction idéologique répressive ; et il faut montrer l'inadéquation à la fois de nombreux axiomes de la méthode et de nombreuses applications supposées.

Sans développer une critique détaillée à ce stade, on peut dire d'emblée que c'est une erreur de traiter un système d'oppositions sans contexte entre caractéristiques acoustiques des "bits" des informations (traits caractéristiques) comme étant isomorphe avec un mythe, qui est un système avec un contexte. Le mythe est nécessairement contextuel parce qu'il manipule l'information afin d'organiser et de contrôler certains aspects d'un système social, et il ne peut donc être considéré comme isolé de cette totalité. Contrairement aux "mythemes" de Lévi-Strauss ("éléments constitutifs bruts" du mythe, par analogie avec le "phonème"), les phonèmes sont des bits d'information insignifiants et non significatifs. Les phonèmes et les oppositions phonémiques sont les outils d'analyse et d'articulation (dont la caractéristique fondamentale est la différence) dans un système dans lequel signification et sens sont en dehors de la structure phonémique. Mythemes' et oppositions' entre mythemes, au contraire, impliquent à la fois signification et sens : ils ont 'du contenu'. Lévi-Strauss traite le mythe comme s'il s'agissait d'une langue représentative sous la forme d'une grammaire sans contexte, ou traite les mythemes comme des "informations" au sens technique des systèmes quantitatifs fermés de la transmission des informations comme étudiés par Shannon et Weaver. La science de l'information concerne l'étude statistique des processus stochastiques et des chaînes de Markov (chapitre IX) - et Chomsky a démontré qu'aucun langage connu ne peut être correctement généré à partir d'une grammaire modelée sur ces processus. Il a également été démontré que le langage est un système d'un type logique supérieur à celui qui peut être généré par des algorithmes sans contexte (grammaires).

Bien que Lévi-Strauss parle du mytheme comme d'un caractère "supérieur" à tout élément similaire du langage, le modèle de l'opposition phonémique binaire reste ce qu'il considère comme le fondement scientifique de sa méthode. Ainsi le mytheme devient l'équivalent d'un outil d'articulation (un trait distinctif) employé par un système de signification d'un autre type logique (langage). Lorsque nous cherchons à découvrir ce qu'est cet autre système chez Lévi-Strauss, nous trouvons cette catégorie de "pensée mythique". Mais la pensée mythique est déjà définie sur la base des mythemes eux-mêmes. C'est un système d'articulation des oppositions par "une machine à supprimer le temps" (le mythe). Ce qui manque dans ce cercle, c'est le contexte réel et matériel dans lequel le mythe surgit et auquel il fait référence.
Cependant, Lévi-Strauss insistera sur le fait que sa méthodologie, contrairement au formalisme pur, est bien "contextuelle" (Lévi-Strauss, 1960a). Il se réfère constamment aux catégories de parenté, au contexte zoologique et botanique du mythe et aux caractéristiques des entités matérielles ("crues", "cuites", "pourries" et ainsi de suite). En réalité, cependant, toutes les "entités matérielles" et les "relations matérielles" qu'il emploie parviennent à cette analyse déjà définie, de façon tautologique, comme des catégories de pensée mythique. Par conséquent, le "contexte" qu'évoque Lévi-Strauss est invariablement le contexte des "idées" ou de "l'esprit", qu'il conçoit, comme Kant, comme étant un antécédent de l'organisation sociale, tant épistémologiquement qu'ontologiquement. Au sein de ce cadre idéaliste, il fait ensuite un saut rapide vers les catégories matérielles de la physique et de la chimie, qu'il évoque régulièrement comme le fondement ultime de ses catégories idéales.

Mais entre le contexte des idées et le contexte des atomes et des molécules (ou même celui du code génétique) il manque un niveau d'organisation unique mais énorme : le contexte socio-économique de la réalité humaine. Et ce niveau d'organisation contient un paramètre que l'on ne retrouve pas en physique, en biologie, en sciences de l'information, dans les langages, les idées, ou les mythes considérés comme systèmes d'opposition synchrones : la ponctuation du système par le pouvoir de certaines de ses parties à en exploiter les autres (en incluant la "nature" même). Toutes les idées, tous les électrons et "bits" d'information sont en effet égaux, aucun d'entre eux n'est différent des autres, et aucun groupe n'exploite les autres. Et alors que dans les systèmes qui n'impliquent pas l'exploitation sociale, les mythes peuvent à juste titre être considérés comme remplissant une fonction d'organisation "pure" ou "neutre", dans tous les autres systèmes, les mythes deviennent la propriété d'une classe, caste ou sexe. Un mythe qui est la propriété d'une classe est en fait une définition de l'idéologie. Le mythe cesse alors de servir la fonction neutre d'organisation pure et simple ; il sert de rationalisation d'une forme donnée d'organisation sociale.
L'étude structurelle du mythe est, comme Lévi-Strauss l'a souvent dit, une autre variante des mythes qu'il analyse. Comme eux, c'est un système d'oppositions binaires. Mais ce n'est pas une mécanique pour la suppression du temps, mais pour la suppression de l'histoire. Et puisque le "structuralisme" est effectivement la propriété d'une classe, nous pouvons donc l'identifier comme un système de rationalisation idéologique - ce qui n'est pas la même chose, de dire qu'il n'a aucune valeur.

L'analogie erronée de Lévi-Strauss entre un système sans contexte et un système contextuel - et donc tout l'édifice que les structuralistes ont érigé - provient d'une confusion entre langage et communication. D'une part, une telle confusion n'est possible que dans des théories ponctuées de façon à exclure la catégorie sociale objective de l'exploitation. D'autre part, elle dépend d'une unique isomorphie réelle, qui est ensuite utilisée pour réduire les différents niveaux d'organisation les uns par rapport aux autres : le fait que le langage, les systèmes de parenté, l'étude structurelle des mythes et la science de la phonologie soient des communications numériques (discontinues) au sujet de rapports analogues (continus). Une caractéristique unique de la communication numérique, à savoir qu'il s'agit d'un système de communication comportant limites et lacunes, est réifiée par l'argument structuraliste de sorte qu'il peut être appliqué sans distinction, comme catégorie ontologique implicite, à chaque niveau de complexité où apparaissent des "limites et des lacunes ". De telles formes numériques apparaissent nécessairement, comme instrument de communication, à tous les niveaux de complexité biologique et sociale. Par conséquent, l'argument réductionniste des structuralistes est grandement facilité. De plus, le fait que l'opposition binaire soit aussi une catégorie importante en physique classique (électromagnétisme par exemple) autorise les structuralistes à faire l'erreur épistémologique supplémentaire de confondre matière-énergie et information.

Auteur: Wilden Anthony

Info: Extrait de System and Structure (1972) sur http://www.haussite.net. Trad. Mg

[ anti structuralisme ] [ vingtième siècle ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel