Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 937
Temps de recherche: 0.0539s

homme-animal

Le processus d’encéphalisation
Parmi l’ensemble des animaux non-humains, les dauphins sont dotés du quotient encéphalique le plus élevé au monde, soit à peu près celui de l’être humain.
A ce petit jeu, d’ailleurs, le cachalot nous dépasse tous largement !
Une telle augmentation du volume cérébral, bien au-delà des simples besoins de la motricité ou de la sensorialité, est qualifiée "d’encéphalisation structurelle".
Ce phénomène n’est pas rare. Il semble que dès le Jurassique, des dinosauriens bipèdes de taille moyenne aient commencé à augmenter de manière encore timide leurs capacités cérébrales.
Au Tertiaire, les ancêtres des éléphants et des cétacés se sont lancés à leur tour dans la course au gros cerveau mais ce n’est qu’au Quaternaire, il y a de cela de trois à six millions d’années, que certains primates hominoïdes développent une boîte crânienne de type néoténique à fontanelles non suturées durant les premiers temps de l’enfance, afin de permettre une croissance ultérieure de l’un des cerveaux les plus puissants du monde.
Ce processus d’encéphalisation apparaît également chez certains oiseaux – corvidés, psittacidés – à peu près vers la même époque. A chaque fois, bien sûr, des comportements très élaborés sont toujours associés à un accroissement spectaculaire du tissu cérébral.
Une si curieuse convergence de formes, la survenance simultanée ou successive de tous ces "grands fronts", pose bien évidemment question en termes darwiniens.
Le ptérodactyle, la mouche, le colibri, la chauve-souris ont des ailes pour voler, la truite, l’ichtyosaure, le marsouin ont un corps fait pour nager, le grillon fouisseur et la taupe ont des pattes en forme de pelles pour creuser, etc.
Mais à quoi rime dès lors un vaste crâne et à quelle fonction est-il dévolu ?
Essentiellement à comprendre le monde et ceux qui le composent, en ce compris les membres de sa propre espèce, avec lesquels il faut sans cesse gérer une relation équilibrée.
Même les gros cerveaux les plus solitaires vivent en fait en société : tigres, baleines bleues, panthères, orangs-outans gardent des liens étroits, bien que distants ou différés, avec leur fratrie et leurs partenaires.
L’intelligence est à coup sûr l’arme suprême contre les aléas du monde, ses mutations incessantes, puisqu’elle permet notamment de gérer un groupe comme un seul corps mais aussi de pénétrer les lois subtiles qui sont à la base du mouvement des choses.
En augmentant d’un degré supérieur ces facultés par le moyen du langage, lequel conserve le savoir des générations mortes, l’homme et le cétacé ont sans doute franchi un nouveau pas vers une plus grande adaptabilité.
Le problème de l’humain, mais nous n’y reviendrons pas davantage, c’est qu’il ne s’est servi jusqu’à ce jour que d’une partie de son intelligence et qu’il se laisse ensevelir vivants dans ses propres déchets, et avec lui les reste du monde, pour n’avoir pas su contrôler sa propre reproduction ni la saine gestion de son environnement.
Intelligents ou non ? (Le point de vue de Ken Levasseur)
Dans un courrier CFN posté en avril 2003 relatif à l’utilisation de dauphins militaires en Irak, Ken Levasseur, l’un des meilleurs spécialistes actuels de cette question, a tenu à faire le point à propos de l’intelligence réelle ou supposée de ces mammifères marins. Aux questions que lui avait adressées un étudiant sur ce thème, Ken répond ici de manière définitive, sur la base de de son expérience et de ses intimes convictions.
Eu égard aux remarquables recherches menées par Ken depuis des années et au fait qu’il a travaillé longtemps aux côtés du professeur Louis Hermann, son point de vue n’est évidemment pas négligeable ni ses opinions sans fondements. On lira d’ailleurs sur ce site même son article en anglais relatif au cerveau du dauphin
Inutile de dire que le gestionnaire de ce site partage totalement le point de vue de Ken Levasseur, dont les travaux l’inspirent depuis de nombreuses années, au même titre que ceux de Wade Doak ou de Jim Nollman : tous ont en commun d’affirmer que les dauphins ne sont pas des animaux au sens strict mais bien l’équivalent marin de l’humanité terrestre.
Q- A quel niveau d’intelligence réelle les dauphins se situent-ils ? A celui du chien ? Du grand singe ? D’un être humain ?
R- Mon meilleur pronostic est qu’un jour prochain, nous pourrons prouver que la plupart des espèces de cétacés disposent d’une intelligence équivalente ou supérieure à celle d’un humain adulte.
Q- Quelles sont les preuves nous permettant d’affirmer que les dauphins sont intelligents ?
R- Il a été démontré depuis longtemps que les dauphins peuvent développer des capacités cognitives qui équivalent ou excèdent les possibilités mentales de l’être humain. Aujourd’hui, nous sommes à même de définir exactement en quoi consiste l’intelligence humaine. Une fois que nous parviendrons à définir l’intelligence d’une manière strictement objective et valable pour toutes les autres espèces, on permettra enfin aux cétacés de faire la preuve de la leur.
Q- Quelles preuves avons-nous que les dauphins ne sont PAS intelligents ?
R- Il n’y a aucune preuve scientifique qui tendrait à prouver que l’intelligence du dauphin serait située entre celle du chien et celle du chimpanzé (comme l’affirment les delphinariums et la marine américaine) .
Q- Est-ce que les dauphins possèdent un langage propre ?
R- La définition d’une "langue", comme celle de l’intelligence, repose sur des bases subjectives définies pour et par les humains. Une fois que nous pourrons disposer d’une définition plus objective de ce qu’est un langage, et que les recherches sur la communication des dauphins ne seront plus "classifiée" par les américains, il est fort probable que les chercheurs puissent enfin conduire les recherches appropriées et qu’ils reconnaissent que les dauphins disposent de langages naturels.
Q- Est-ce leur capacité à apprendre et à exécuter des tours complexes qui les rend plus intelligents ou non ?
R- La capacité du dauphin à apprendre à exécuter des tours complexes est surtout une indication de l’existence d’un niveau élevé des capacités mentales, interprétées comme synonymes d’une intelligence élevée.
Q- Jusqu’à quel point ont été menées les recherches sur les dauphins et leur intelligence ? Que savent vraiment les scientifiques à leur propos ?
R- La US Navy a "classifié" ses recherches sur les dauphins en 1967, au moment où l’acousticien Wayne Batteau est parvenu à développer des moyens efficaces pour communiquer avec des dauphins dressés. La communication et l’intelligence des dauphins constituent donc désormais des données militaires secrètes, qui ne peuvent plus être divulguées au public.
Q- Est-ce que les dauphins disposent d’un langage propre ? Y a t-il des recherches qui le prouvent ?
R- Vladimir Markov et V. M. Ostrovskaya en ont fourni la preuve en 1990 en utilisant la "théorie des jeux" pour analyser la communication des dauphins dans un environnement contrôlé et à l’aide de moyens efficaces. Il est donc très probable que les dauphins aient une langue naturelle.
Q- Les capacités tout à fait spéciales des dauphins en matière d’écholocation ont-elles quelque chose à voir avec leurs modes de communication?
R- A mon sens, les recherches futures fourniront la preuve que le langage naturel des cétacés est fondé sur les propriétés physiques de l’écholocation, de la même manière que les langues humaines se basent sur des bruits et des représentations.
Q- Quelle est VOTRE opinion à propos de l’intelligence des dauphins ?
R- Pendant deux ans, j’ai vécu à quinze pieds (1 Pied : 30 cm 48) d’un dauphin et à trente-cinq pieds d’un autre. À mon avis, les dauphins possèdent une intelligence équivalente à celle d’un être humain. Ils devraient bénéficier dès lors de droits similaires aux Droits de l’Homme et se trouver protégé des incursions humaines dans son cadre de vie.
Q- La ressemblance entre les humains et les dauphins a-t-elle quelque chose à voir avec leur intelligence commune ?
R- Les dauphins sont très éloignés des humains à de nombreux niveaux mais les ressemblances que nous pouvons noter sont en effet fondées sur le fait que les dauphins possèdent des capacités mentales plus élevées (que la plupart des autres animaux) et sont à ce titre interprétés en tant qu’intelligence de type humain.
Q- La grande taille de leur cerveau, relativement à celle de leur corps, est-elle un indicateur de leur haute intelligence ?
R- Le volume absolu d’un cerveau ne constitue pas une preuve d’intelligence élevée. Le coefficient encéphalique (taille du cerveau par rapport à la taille de corps) n’en est pas une non plus. Néanmoins, on pourrait dire que la taille absolue du cerveau d’une espèce donnée par rapport au volume global du corps constitue un bon indicateur pour comparer les capacités mentales de différentes espèces. Souvenons-nous par ailleurs que les cétacés ne pèsent rien dans l’eau, puisqu’ils flottent et qu’une grande part de leur masse se compose simplement de la graisse. Cette masse de graisse ne devrait pas être incluse dans l’équation entre le poids du cerveau et le poids du corps car cette graisse n’est traversée par aucun nerf ni muscle et n’a donc aucune relation de cause à effet avec le volume du cerveau.
Q- Est-ce que la capacité des dauphins à traiter des clics écholocatoires à une vitesse inouïe nous laisse-t-elle à penser qu’ils sont extrêmement intelligents ?
R- On a pu montrer que les dauphins disposaient, et de loin, des cerveaux les plus rapides du monde. Lorsqu’ils les observent, les humains leur semblent se mouvoir avec une extrême lenteur en émettant des sons extrêmement bas. Un cerveau rapide ne peut forcément disposer que de capacités mentales très avancées.
Q- Pensez-vous des scientifiques comprendront un jour complètement les dauphins?
R- Est-ce que nos scientifiques comprennent bien les humains? Si tout va bien, à l’avenir, les dauphins devraient être compris comme les humains se comprennent entre eux.
Q- Le fait que les dauphins possèdent une signature sifflée est-elle une preuve de l’existence de leur langage ?
R- Non. Cette notion de signature sifflée est actuellement mal comprise et son existence même est sujette à caution.
Q- Les dauphins font plein de choses très intelligentes et nous ressemblent fort. Est-ce parce qu’ils sont vraiment intelligents ou simplement très attractifs ?
R- La réponse à votre question est une question d’expérience et d’opinion. Ce n’est une question qui appelle une réponse scientifique, chacun a son opinion personnelle sur ce point.
Q- Pouvons-nous vraiment émettre des conclusions au sujet de l’intelligence des dauphins, alors que nous savons si peu à leur propos et qu’ils vivent dans un environnement si différent du nôtre ?
R- Jusqu’à présent, ce genre de difficultés n’a jamais arrêté personne. Chacun tire ses propres conclusions. Les scientifiques ne se prononcent que sur la base de ce qu’ils savent vrai en fonction des données expérimentales qu’ils recueillent.
Q- Est-ce que nous pourrons-nous jamais communiquer avec les dauphins ou même converser avec eux ?
R- Oui, si tout va bien, et ce seront des conversations d’adulte à adulte, rien de moins.
II. DAUPHIN : CERVEAU ET MONDE MENTAL
"Parmi l’ensemble des animaux non-humains, les dauphins disposent d’un cerveau de grande taille très bien développé, dont le coefficient encéphalique, le volume du néocortex, les zones dites silencieuses (non motrices et non sensorielles) et d’autres indices d’intelligence sont extrêmement proches de ceux du cerveau humain" déclare d’emblée le chercheur russe Vladimir Markov.
Lorsque l’on compare le cerveau des cétacés avec celui des grands primates et de l’homme en particulier, on constate en effet de nombreux points communs mais également des différences importantes :
– Le poids moyen d’un cerveau de Tursiops est de 1587 grammes.
Son coefficient encéphalique est de l’ordre de 5.0, soit à peu près le double de celui de n’importe quel singe. Chez les cachalots et les orques, ce même coefficient est de cinq fois supérieur à celui de l’homme.
– Les circonvolutions du cortex cervical sont plus nombreuses que celles d’un être humain. L’indice de "pliure" (index of folding) est ainsi de 2.86 pour l’homme et de 4.47 pour un cerveau de dauphin de taille globalement similaire.
Selon Sam Ridgway, chercheur "réductionniste de la vieille école", l’épaisseur de ce même cortex est de 2.9 mm en moyenne chez l’homme et de 1.60 à 1.76 mm chez le dauphin. En conséquence, continue-t-il, on peut conclure que le volume moyen du cortex delphinien (560cc) se situe à peu près à 80 % du volume cortical humain. Ce calcul est évidemment contestable puisqu’il ne tient pas compte de l’organisation très particulière du cerveau delphinien, mieux intégré, plus homogène et moins segmenté en zones historiquement distinctes que le nôtre.
Le fait que les cétacés possèdent la plus large surface corticale et le plus haut indice de circonvolution cérébral au monde joue également, comme on s’en doute, un rôle majeur dans le développement de leurs capacités cérébrales.
D’autres scientifiques, décidément troublés par le coefficient cérébral du dauphin, tentent aujourd’hui de prouver qu’un tel développement n’aurait pas d’autre usage que d’assurer l’écholocation. Voici ce que leur répond le neurologue H. Jerison : "La chauve-souris dispose à peu de choses près des mêmes capacités que le dauphin en matière d’écholocation, mais son cerveau est gros comme une noisette. L’outillage écholocatoire en tant que tel ne pèse en effet pas lourd. En revanche, le TRAITEMENT de cette même information "sonar" par les zones associatives prolongeant les zones auditives, voilà qui pourrait expliquer le formidable développement de cette masse cérébrale. Les poissons et tous les autres êtres vivants qui vivent dans l’océan, cétacés mis à part, se passent très bien d’un gros cerveau pour survivre et même le plus gros d’entre eux, le requin-baleine, ne dépasse pas l’intelligence d’une souris…"
La croissance du cerveau d’un cétacé est plus rapide et la maturité est atteinte plus rapidement que chez l’homme.
Un delphineau de trois ans se comporte, toutes proportions gardées, comme un enfant humain de huit ans. Cette caractéristique apparemment "primitive" est paradoxalement contredite par une enfance extrêmement longue, toute dévolue à l’apprentissage. Trente années chez le cachalot, vingt chez l’homme, douze à quinze chez le dauphin et environ cinq ans chez le chimpanzé.
Les temps de vie sont du même ordre : 200 ans en moyenne chez la baleine franche, 100 ans chez le cachalot, 80 chez l’orque, 78 ans chez l’homme, 60 chez le dauphin, sous réserve bien sûr des variations favorables ou défavorables de l’environnement.
Pourquoi un gros cerveau ?
"Nous devons nous souvenir que le monde mental du dauphin est élaboré par l’un des systèmes de traitement de l’information parmi les plus vastes qui ait jamais existé parmi les mammifères" déclare H.Jerison, insistant sur le fait que "développer un gros cerveau est extrêmement coûteux en énergie et en oxygène. Cet investissement a donc une raison d’être en terme d’évolution darwinienne. Nous devons dès lors considérer la manière dont ces masses importantes de tissu cérébral ont été investies dans le contrôle du comportement et de l’expérimentation du monde, ceci en comparaison avec l’usage qu’en font les petites masses cérébrales".
Un cerveau est par essence un organe chargé de traiter l’information en provenance du monde extérieur.
Les grands cerveaux exécutent cette tâche en tant qu’ensemble élaborés de systèmes de traitement, alors que le cerveau de la grenouille ou de l’insecte, par exemple, se contente de modules moins nombreux, dont la finesse d’analyse est comparativement plus simple.
Cela ne nous empêche pas cependant de retrouver des structures neuronales étonnamment semblables d’un animal à l’autre : lorsqu’un promeneur tombe nez à nez avec un crotale, c’est le même plancher sub-thalamique dévolue à la peur qui s’allume chez l’une et l’autre des ces créatures. Quant un chien ou un humain se voient soulagés de leurs angoisses par le même produit tranquillisant, ce sont évidemment les mêmes neuromédiateurs qui agissent sur les mêmes récepteurs neuronaux qui sont la cause du phénomène.
A un très haut niveau de cette hiérarchie, le traitement en question prend la forme d’une représentation ou d’un modèle du monde (Craik, 1943, 1967, Jerison, 1973) et l’activité neuronale se concentre en "paquets d’informations" (chunks) à propos du temps et de l’espace et à propos d’objets, en ce compris les autres individus et soi-même.
" Puisque le modèle du monde qui est construit de la sorte" insiste H.Jerison, "se trouve fondé sur des variables physiquement définies issues directement du monde externe et puisque ces informations sont traitées par des cellules nerveuses et des réseaux neuronaux structurellement semblables chez tous les mammifères supérieurs, les modèles du monde construits par différents individus d’une même espèce ou même chez des individus d’espèces différentes, ont de bonnes chances d’être également similaires".
Et à tout le moins compréhensibles l’un pour l’autre.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

solipsismes confrontés

Bonsoir tout le monde,

Question, délicate ou ridiculement évidente, c'est selon, de ce qu'on peut qualifier d'interprétation subjective et personnelle versus ce qu'on pourrait identifier comme "objectif" dans les différents plans dans lesquels on voyage astralement.. 

Pour prendre un exemple enfonçons une porte ouverte liée à nos sens basiques, la synesthésie est un phénomène neurologique qui fait qu'un sens est associé - ou fusionné - systématiquement à un autre, pour faire court. J'en suis atteinte, et dans mon cas c'est les sons qui sont associés à des formes en couleur et en texture, avec une charge émotionnelle. Par exemple, le son du piano a pour moi une forme blanche laiteuse, opaque, concave, avec des bords plus ou moins colorés, alors que le violoncelle est rouge foncé mais lumineux, convexe, trace des lignes en s'approchant dans l'espace, etc.

Les études qui ont été faites là-dessus montrent que oh surprise, si c'est systématique et stable pour chacun (le piano se présente toujours blanc opaque pour moi)  c'est aussi complètement différent en fonction des personnes - pour quelqu'un d'autre qui présente ces caractéristiques neurologiques, le piano sera toujours vert+ autres attributs constants pour elle. Et bien sûr ce phénomène est présent à des degrés plus ou moins élevés, allant de l'inaperçu a l'handicap, finalement chez pas mal de gens.

Ca a déjà été dit et répété dans le groupe, mais j'ai aussi lu pas mal de posts/commentaires qui semblent difficilement prendre ce facteur en compte, en traitant des autres plans de conscience et des diverses expériences dont on parle ici.

J'ai aussi pu expérimenter et vérifié une ou deux fois que dans les autres plans de conscience, et au niveau énergétique, la même chose s'appliquait : sans en faire une généralité, on était 2 à percevoir un même phénomène, mais de façon très différente.

Et pourtant, il y a aussi des constantes qui semblent ressortir, le plan éthérique étant décrit comme bleu à la quasi unanimité par exemple... ou les "cavernes brunes du bas-astral ou tout est lent et pèse un tonne" (bon ça c'est peut-être moins consensuel, mais vu et vécu avec, à peu de choses près, la même description).

Du coup les amis... Comment mettez-vous des repères là-dedans ? En général, et dans les fils de discussion du groupe ? Est-ce important pour vous ? Ou à valeur nulle ? Je me suis bien fait ma petite idée, mais je suis assez curieuse d'autres perspectives... 

J'en profite aussi pour remercier chaleureusement Marc Auburn et les contributeurs de ce groupe, qui défrichent avec brio ces terra incognita...

Loïc Dubuckingham@ Auteur1. Moi je dirais que c'est simplement humain de vouloir que tout soit "repérable" et contrôler. Vous avez de la chance de pouvoir effectuer ces voyages là alors prenez la chance aussi de lâcher prise en m'étant un peu de côté l'obsession humaine de vouloir tout expliquer pour mieux comprendre. Ce n'est pas un reproche que je vous fait la mais une suggestion.

Auteur 1 @ Loïc Dubuckingham. Bonjour, je ne crois pas chercher à tout repérer et contrôler, et surtout pas dans ce genre de sujet... lâcher prise, bien sûr, mais de mon côté ça ne m’empêche pas de temps à autres d’essayer de comprendre ce que je vis. Jusqu’ici, ça ne m’a pas tellement joué de mauvais tours ??

Callirhoé Déicoon @ Loïc Dubuckingham. Je pense que la curiosité et l'envie de comprendre sont plutôt des moteurs sains. De + les divers témoignages et communications avec des entités laissent entendre que ce moteur est universel en tant que base de l'évolution des consciences, et non juste humain (désolée de déterrer ce fil 1 an après)

Marc Auburn@. Oui, la synesthésie est l'état naturel du corps de lumière. Toute perception suscite une correspondance avec toutes les autres perceptions, et pourtant en même temps on fait parfaitement le distinguo.

Auteur 1@ Marc Auburn. Oui, la distinction est claire. Ce que j’en retenais surtout, c’était le côté subjectif et propre à chacun, et j’avais tendance à partir du principe que si même un son est perçu différemment selon la personne, c’était logiquement pareil puissance X dans d’autres dimensions... mais, bon... je me prends peut être un peu la tête pas dans le bon sens ??

Callirhoé Déicoon @ Auteur 1. Au contraire, vous ne vous prenez pas la tête pour rien, c'est justement une question centrale… et éminemment complexe. Je ne sais pas mais on dirait que c'est comme s'il y avait une réalité archétypale dans l'astral, c'est-à-dire que les gens y voient la "même chose" (le même concept) mais avec des apparences qui varient…

Denis Cottard. Mon approche des réalités énergétiques est avant tout une approche par le sens, par l’intensité de signification, car curieusement, bien souvent, la sensation pure n’est pas centrale. Il y a des cas où elle l’est, quand il s’agit de situations fortement reliées au plan physique et où il faut des éléments qui puissent nous faire des repères, mais sinon je sais que c’est moi qui met le truc en image parce que c’est plus simple pour se souvenir et garder, et je reste d’ailleurs conscient de le faire. Donc, je conçois que chacun puisse "imager" à sa façon car chacun a sa sensibilité, certains sont plus visuels, d’autres tactiles, etc... et qu’il y a un symbolisme de représentation qui peut être très personnel. L’important étant que çà fasse sens pour celle ou celui qui fait l’expérience.

Donc je ne me fixe pas trop sur la forme des expériences (même si pour certains, c’est encore celle-ci qui est l’aspect le plus fascinant) car dès lors qu’on quitte la réalité matérielle, on évolue dans une réalité qui n’a aucune raison d’être particulièrement objective, et qu’à partir de certains plans d’existence, il n’y a tout simplement plus de forme ou alors, il y a quelque chose mais qui ne témoigne en rien de ce que nos sens pourrait témoigner. C’est en cela que j’affectionne particulièrement les sorties en tandem car au retour, la reconstruction s’effectue à deux et c’est très amusant : c’est un peu comme peindre un tableau à deux mains. C’est également ce que j’apprécie dans les témoignages des uns et des autres dans ce groupe, c’est que çà fait autant de point de vue différents sur des expériences qui sont souvent semblables. Là encore, je trouve que le sens s’enrichit.

Auteur 1 @ Denis Cottard. J’ai un peu la même façon d’aborder ça en principe. Mais j’ai été un peu secouée en lisant Dolores Cannon, de trouver des descriptions quand même très ressemblantes entre elles, et en particulier une description vraiment très similaire à une de mes expériences de sortie... et justement, jusque dans la forme... ça fout un peu une baffe à mon approche ?? - mais sinon, qu’est ce que c’est chouette de pouvoir lire tous ces points de vue, merci !  D'ailleurs Denis Cottard comment on fait des sorties en tandem ??

Denis Cottard @ Auteur 1. Alors, pour faire une sortie en tandem, il faut utiliser un protocole de sortie qui démarre comme une projection de conscience dans laquelle on s’investit progressivement. Il est bien de faire çà avec quelqu’un qu’on connaît bien, dont on a une signature énergétique, claire car tant qu’on ne sait pas se faire un véhicule à 2 places (qui peut se résumer à une bulle de taille adéquate), on peut se perdre et partir chacun dans son coin. D’autre part, au début, on est chacun bien calé dans un fauteuil mais on peut se parler si nécessaire et c’est très aidant pour savoir où est l’autre. Au fil de l’exploration, on se fait happé par la situation, et on ne se parle plus physiquement, mais on continue de se parler mentalement, car çà maintient le lien : c’est du genre : t’es là ? Oui et toi ? ?? on se fait nos commentaires, on se donne des indications de déplacement.

J’ai appris çà en cours de parapsychologie car c’était un exercice assez ludique qu’on faisait à chaque fin de cours. Il y avait une personne qui notait sur un papier, des lieux qu’elle allait visiter en esprit, et les autres n’avaient qu’à suivre son empreinte énergétique et dire à la fin, les sites dans lesquels ils avaient été, et on pouvait vérifier avec ce qui avait été inscrit. Surprenant ! Une de mes filles était excellente à ce jeu -là. Essayez, vous allez voir, déjà, c’est sympa comme tout, et puis, c’est la base pour effectuer une sortie à deux.

Dans ces sorties à deux, on peut décider de ce qu’on veut visiter, ou se laisser aller au hasard. Je sais que nombre d’entre vous vont penser : Bof, c’est que du remote viewing ! Mais faites-le et on en reparle : vous allez voir que c’est bien plus que çà, et que, un des intérêts de la chose, en dehors du fait qu’on peut confronter les deux expériences a posteriori, c’est que la conscience y est particulièrement vive et les perceptions très claires. ( à part peut-être qu’on peut y voir à l’envers - pas systématiquement mais çà peut arriver - c’est à dire comme l’image dans un miroir ce qui rend toute lecture particulièrement fastidieuse!!).

Avec l’habitude, on peut même le faire à distance de la personne. Il faut juste fixer un jour et une heure et on s’y met. On se donne RV là où on a "parqué" la bulle qui nous sert à voyager ensemble, et on se met dedans et quand l’autre y est aussi, on bouge.

Il y a une quinzaine d’année, avec une amie on était très désireux de savoir à quoi s’en tenir à propos de la 9 eme planète, ce corps qui fou le bordel dans les orbites des planètes extérieures. On s’y est rendu de cette façon là, et à l’époque on a été très surpris de rencontrer un corps noir comme l’encre et qui semblait même absorber toute lumière. Il faut dire que dans le soit-disant  "vide spatial" c’est très éclairé parce qu’on voit mille fois plus d’étoiles et ce corps se repère parce qu’il masque les étoiles sur son passage. Nous nous sommes rapproché et très honnêtement, ce truc tout noir , un peu grouillant (il y avait du mouvement, un peu comme de l’eau ou un quelque chose de fluide) n’était pas très engageant, et courageux mais pas téméraires, dans le doute on s’est tiré de là vite fait. J’ai lu cette semaine que des astronomes très sérieux envisagent que ce corps puisse être un mini trou noir. Tiens, tiens ...

Auteur 1 @ Denis Cottard ça à l’air très chouette et ça me rend curieuse, tout en me demandant avec qui j’aurais envie de faire ça ?? ... je sais pas... merci pour le partage.

Denis Cottard@auteur 1. Il faut faire çà avec quelqu'un que vous connaissez bien, parce qu'on est vraiment à poil !!! on entend tout ce que l'autre pense ou ressent. Heureusement, quand on est en esprit, on a pas trop de pulsion sexuelles, pour ne pas dire niveau zéro. Mais enfin, çà fait partie de ces voyages où l'on garde une certaine apparence, pour ne pas se perdre, on se voit aussi. çà pourrait être gênant !! ??

Auteur1 @ Denis Cottard. Certes ??

Reinald Durand. Pour revenir à ce qui est dit plus haut, évoquer l'objectivité et des constantes, des repères qui seraient fixes nous fait entrer sur un terrain glissant. La perception, de même que la connaissance, n'est jamais neutre. La perception est orientée, colorée par nos croyances, nos intentions, nos attentes, nos états intérieurs. Comme on dit, on voit ce qu'on veut voir, même si on n'en est pas toujours conscient ou qu'on a oublié la chose. Et si on fait intervenir des petits hommes gris ou des figures sombres encapuchonnées autour de son lit, il y a peut être une raison, qui n'a pas nécessairement à être jugée d'ailleurs en termes de bien ou de mal. Maintenant, on peut surtout en prendre conscience pour changer la nature de ses aventures... C'est la même chose dans la vie de tous les jours, je pense. Il peut être utile de prendre le temps d'examiner certaines choses: est-ce que ce sont des projections, est-ce qu'on n'en rajoute pas une couche, est-ce qu'on peut relier ce qu'on voit à des croyances, des intentions, des états intérieurs? Il y a un monde intérieur d'où jaillit cette réalité qu'il faut reconnaitre, à défaut on croira que tout cela nous arrive, indépendamment de notre volonté ( innocente victime, va!) que ce soit dans le rêve, dans les sorties hors corps, dans son quotidien, et si on change l'intérieur l'extérieur se met changer...??

Denis Cottard. Je suis bien d’accord, il ne faut pas oublier le caractère hautement subjectif d’expériences de ce genre.

C’est d’ailleurs tout l’intérêt de chercher à vérifier dans "la vie réelle", ce qui est vérifiable, et même de s’efforcer d’orienter nos sorties dans ce sens afin d’avoir une idée du pourcentage d’entre elles qui est validable et trouver le juste recul qu’il convient d’avoir à cet égard, car on va tous expérimenter un jour ou l’autre, ce truc de ouf qui va nous obliger à convenir qu’il y a bien là, un outil incroyable qui nous ouvre réellement des voies de connaissance objective, mais çà n’implique pas pour autant que toutes nos sorties soient des expériences de ce type.

J’ai longtemps pratiqué la radiesthésie, et j’y retrouve le même problème, et je pense que c’est encore la même chose avec la médiumnité. Toutes ces voies provoquent réellement une amplification de notre champ de perception mais dont il faut se garder de considérer la pertinence comme acquise une fois pour toute.

Denis Cottard. C'est comme pour "vu à la télé", çà ne veux pas dire que c'est juste à tous les coups.

Reinald Durand. Oui, qu'est qui est réel, qu'est-ce qui ne l'est pas ? l'imagination pourrait être réelle... Qu'est-ce qui va faire la différence? Pour moi, ça tourne autour de consensus, de conventions, d'accords souvent tacites reposant sur des objectifs communs... et une manière de camoufler les choses, filtrage propres à chaque monde ou dimension sur quelque chose d'infini. Alors il y a peut-être simplement moins de réalité lorsqu'on se trompe, lorsqu'on s'écarte de ce qu'on est profondément et qu'on souffre... Je ne nie pas le besoin d'objectivité, mais, comme tu dis, c'est essayer de voir deux fois. ??

Sofiane Thoulon. Bonjour, comme vous j'ai des synesthesies. Chez moi elles s'expriment beaucoup par les voyelles qui sont directement reliées à des couleurs (i rouge, a blanc, etc...) j'ai aussi des mots dont la sonorité se rapportent à des formes géométriques etc...

J'ai vécu lors d'une sortie l'été dernier, un phénomène que je dirais de cet ordre : alors que j'étais en train de sortir de mon corps, des entités sont venues autour de moi, je ne les voyais pas mais je sentais qu'elles étaient plusieurs. J'ai senti qu'elles me touchaient, elles faisaient une sorte d'expérience. Bref, rien de très rassurant sur le coup, d'autant plus que j'avais parlé quelques jours auparavant, avec une personne médium qui avait subie des attaques et qui voulait m'avertir du danger. Elle m'avait donc conseillé de les insulter sans relâche jusqu'à ce qu'elles partent. J'ai donc fait ça et, non seulement elles ne partaient pas, mais j'ai alors vu dans mon ''écran visuel'' une sorte d'onde verticale faite de lumière rose-rouge en mouvement et assez anguleuse. C'était clairement pour moi, la conversion visuelle de l'onde des insultes. Je n'ai même pas vraiment voulu interpréter, mais cette info est venue immédiatement après l'expérience. Pour en conclure, derrière n'importe quel Objet physique, de quelque nature qu'il soit, il y a un champ d'information d'ordre quantique et je pense que les synesthesies sont une sorte de perception de cette information quantique, que le cerveau humain essaie de convertir pour en comprendre l'essence. Mais finalement, ce qui fait la subjectivité des synesthesies, c'est peut-être bien cette conversion faite par le cerveau de chacun, pour comprendre l'essence des choses. Haha je ne sais même pas si je suis claire ??? je crois que je m'embrouille moi même !

Claude-Samuel Levine @ Sofiane Thoulon. Si c'est clair, je comprend bien. Du fait que moi même j'ai toujours eu des synesthésies très précises.

Lettres, chiffres, nombres, heures, jours de la semaine, mois, notes de musiques et orchestrations. D'ailleurs ce n'est pas qu'une association "couleur" ,la couleur envoit à une véritable ambiance. Exemple : une musique en LA majeur : La vert, Do# jaune doré => forêt au soleil, ou lumière de l'au-delà sur paysage, et avec la joie liée à la lumière. Le "Metal" : violence, rouge sombre noir avec lignes cassantes et les barres des rythmes.

Auteur: Anonymes pseudos

Info: Fil de discussion sur Explorateurs du réel avec Marc Auburn, octobre 2019

[ réalités individuelles ] [ cerveau filtre ] [ ésotérisme ] [ occultisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

Gaule 2023

Marianne : Comment avez-vous perçu le mouvement social de contestation à la réforme des retraites ?

E.T. :
 Je suis allé en manifestation. Du mouvement de contestation, j'ai constaté la masse, l’énergie, la jeunesse. Je tiens à dire ce que je pense de la responsabilité des uns et des autres concernant le désordre actuel, tout d'abord. Pour moi – je dis bien pour moi – mais ça sera aux juristes de trancher, il est clair qu'en faisant passer une réforme des retraites en loi de finances rectificative et par l'article 49.3, Emmanuel Macron et Élisabeth Borne sont sortis de la Constitution, du moins de l'esprit de la Constitution. Ce sera au Conseil constitutionnel de le dire. Mais il n'est pas certain que j'accepte l'avis du Conseil constitutionnel, s’il valide Macron-Borne.

J'ai vu les commentaires, le soir, sur BFM TV, LCI et d'autres, où l’on parlait de feux de poubelle. Pour moi, 100 % de la responsabilité de ces feux de poubelle incombe au président de la République française et la question de savoir si ce sont plus les black blocks ou les manifestants qui les ont allumés ne m'intéresse pas.

Pourquoi Emmanuel Macron entretiendrait-il ce désordre ?

Ce qui m'étonne le plus, moi, c'est que c'est un désordre qui ne sert à rien. En général, quand on gouverne par le désordre pour faire se lever le parti de l’ordre, c’est qu’on veut consolider un pouvoir fragile, ou bien pour reprendre le pouvoir. Mais Macron avait le pouvoir. La vérité de ce projet de réforme des retraites, en dehors du fait qu’il est injuste et incohérent, c’est qu’il est insignifiant et inutile par rapport aux problèmes réels de la société française.

Il y en a deux : la désindustrialisation et la chute du niveau de vie, liée à l’inflation. La question qui se pose et ce qu’il faut analyser vraiment, c’est la raison de cette mise en désordre de la France par son président, pour rien. Était-ce pour mener à bien un projet néolibéral, appelé "réformateur" ? Ou est-ce que c’est un problème lié à la personnalité de Macron lui-même ?

Commençons par l’hypothèse d’une réforme pensée comme juste par Macron. Vous la jugez néolibérale ?

La réalité du monde occidental, qui entre en guerre, c’est que le néolibéralisme, en tant qu’idéologie économiste active transformant la planète, est en train de mourir parce que ses effets ultimes se révèlent. La mortalité augmente aux États-Unis, et donc, logiquement, l’espérance de vie baisse. Les États-Unis ont perdu leur base industrielle, comme l’Angleterre. Le contexte historique général en ce moment, dans le monde américain, est plutôt aux réflexions sur le retour de l’État entrepreneur.

Macron avait pourtant engagé un tournant néo-protectionniste avec le Covid…

Non ! Je pense que Macron est néolibéral archaïque, et donc en grand état de déficit cognitif. Quand il parle de protectionnisme, il n’est même pas capable de dire s’il s’agit de protectionnisme national ou européen. Mais si tu ne fixes pas d’échelle, tu ne parles de rien. Quand il parle de réindustrialisation, il n’est pas capable de voir que la réindustrialisation implique deux actions simultanées. D’abord, l’investissement direct de l’État dans l’économie. C’est ça qui serait important actuellement, pas la réforme des retraites. Et puis des mesures de protection des secteurs qu’on refonde, par exemple dans les médicaments, dans la fabrication de tel ou tel bien essentiel à la sécurité informatique, alimentaire et énergétique de la France.

C’est d’ailleurs l’une des choses stupéfiantes dans ce débat sur les retraites : les politiques légifèrent – croient-ils – sur des perspectives à long terme d’équilibre. Ils spéculent sur des années de travail qui vont couvrir des décennies pour la plupart des gens, sans se poser la question de ce qui restera, non pas comme argent, comme signes monétaires, mais comme bien réels produits pour servir ces retraites en 2050 ou 2070.

Les retraites sont menacées, c’est vrai, mais par la désindustrialisation. Quel que soit le système comptable, si la France ne produit plus rien le niveau des retraites réelles de tout le monde va baisser. En dehors du fait qu'il a déjà commencé à baisser avec l'inflation.

Notre élite économique fait, selon vous, une fois de plus fausse route.

Notre président et les gens autour de lui, une sorte de pseudo-intelligentsia economico-politique, sont hors du monde. À une époque, on savait que pour faire la guerre, il fallait des biens industriels, des ingénieurs, des ouvriers. On redécouvre aujourd’hui à Washington et à Londres que tout ça n’existe plus assez ! Les faucons néoconservateurs croyaient qu’on pouvait faire la guerre à la Russie avec des soldats ukrainiens et à la Chine en prime, grâce au travail d’ouvriers… chinois ! La réalité du néolibéralisme, c'est qu’il a tout détruit au cœur même de son Empire. Le vrai nom du néolibéralisme, c'est "nihilisme économique". Je me souviens de phrases prophétiques de Margaret Thatcher disant "There is no such thing as society ", ou "There is no alternative" (TINA). Ces idioties ne sortent pas du libéralisme britannique, de John Locke ou d'Adam Smith, mais bien plutôt du nihilisme russe du XIXe siècle.

Cette réforme des retraites à contretemps est guidée par un phénomène d'inertie, au nom d’une idéologie qui est en train de mourir. Le discours néolibéral est un discours de la rationalité économique, un discours de la rationalité des marchés qui va permettre de produire, en théorie, plus d'efficacité. Je vais vous dire l’état de mes recherches sur le nihilisme néolibéral : cette passion de détruire les cadres de sécurité établis au cours des siècles par les religions, les États et les partis de gauche. Le nihilisme néolibéral détruit la fécondité du monde avancé, la possibilité même d’un futur. Et vous allez être fier de cette France dont les néolibéraux rient.

Vous faites partie de ceux qui voient dans les indices de fécondité l'avenir de l'Occident…

La vérité historique fondamentale actuelle, c’est que la rationalité individualiste pure détruit la capacité des populations à se reproduire et des sociétés à survivre. Pour faire des enfants, particulièrement dans les classes moyennes qui veulent pour eux des études longues, il faut l’aide de la collectivité, il faut se projeter dans un avenir qui ne peut apparaître suffisamment sûr que grâce à l’État. Il faut donc sortir de la rationalité économique à court terme. Sans oublier que décider d’avoir un enfant, ce n’est être ni rationnel, ni parfois même raisonnable, mais vivant. Je sais qu'il y a des gens qui s'inquiètent de l'augmentation de la population mondiale, mais moi, je suis inquiet de la sous-fécondité de toutes les régions "avancées". Même les États-Unis, même l'Angleterre, sont tombés à 1,6 enfant par femme. L’Allemagne est à 1,5, le Japon est à 1,3. La Corée, chouchou des majorettes intellectuelles du succès économique, le pays de Samsung et d'une globalisation économique assumée, est à 0,8. … Le plus efficace économiquement est le plus suicidaire.

C'est là que la France redevient vraiment intéressante. Elle a deux caractéristiques. C'est d’abord le pays qui fait le moins bien ses "réformes", qui refuse le plus le discours de la rationalité économique. Dont l'État n'est jamais dégrossi comme le rêvent les idéologues du marché. Mais c'est aussi le seul pays avancé qui garde une fécondité de 1,8. C'est le pays qui, en ne voulant pas toutes ces réformes, a refusé la destruction de certaines des structures de protection des individus et des familles qui permettent aux gens de se projeter dans le futur et d'avoir des enfants. Une retraite jeune, ce sont aussi des grands-pères et des grands-mères utilisables pour des gardes d’enfants ! Désolé d’apparaître en être humain plutôt qu’en économiste ! La grandeur de la France, c'est son refus de la rationalité économique, son refus de la réforme. Ce qui fait de la France un pays génial, c'est son irrationalité économique. On saura si Macron a réussi s'il arrive à faire baisser la natalité française au niveau anglo-américain, au-delà de son cas personnel de non-reproduction.

Comment ce dernier peut-il alors imposer une telle réforme si c'est contre l'intérêt du pays ?

Pourquoi un président de la République en si grand état de déficit cognitif peut-il imposer cette réforme injuste, inutile et incohérente par un coup de force institutionnel ou même un coup d’État ? Parce qu’il agit dans un système sociopolitique détraqué que je qualifierais même de pathologique. Il y avait une organisation de la République qui reposait sur une opposition de la droite et de la gauche, permise par un mode de scrutin adapté : le scrutin uninominal majoritaire à deux tours. Il faisait qu’au premier tour, on choisissait son parti de droite préféré, son parti de gauche préféré. Au deuxième tour, les deux camps se regroupaient et on avait une très belle élection.

Tout a été dévasté par la nouvelle stratification éducative de la France. La montée de l’éducation supérieure a produit une première division en deux de la société entre les gens qui ont fait des études et ceux qui n’en ont pas fait. C’est le modèle qui s’impose partout dans le monde développé. Mais il y a une autre dimension qui, il faut l’avouer, n’a pas grand-chose à voir : le vieillissement de la population et l’apparition d’une masse électorale âgée, qui établissent un troisième pôle, les vieux, dont je suis. Cette société stratifiée et vieillie a accouché de trois pôles politiques qui structurent le système. Je simplifie jusqu’à la caricature : 1) les éduqués supérieurs mal payés, plutôt jeunes ou actifs, se sont dirigés vers Mélenchon ou la Nupes ; 2) les moins éduqués mal payés, plutôt jeunes et actifs, vers le RN ; 3) les vieux, derrière Macron.

Ils sont les seuls à soutenir la réforme des retraites, d’ailleurs…

Ce système est dysfonctionnel, "détraqué", à cause de l’opposition viscérale entre les électorats contestataires de gauche et de droite, Nupes et RN. Ces deux électorats ont en commun leur niveau de vie, leur structure d’âge, mais sont séparés par l’éducation et par la question de la nation et de l’immigration. Cette fracture conduit à une incapacité des uns et des autres à se considérer comme mutuellement légitimes. Leur opposition permet à Macron et aux vieux de régner. Les retraités peuvent donc imposer une réforme des retraites qui ne les touche pas. Le problème, c’est qu’une démocratie ne peut fonctionner que si les gens opposés se considèrent comme certes différents, mais mutuellement légitimes.

La France vire-t-elle à la gérontocratie ?

On a enfermé les jeunes pour sauver les gens de ma génération. Comment la démocratie est-elle possible avec un corps électoral qui vieillit sans cesse ? Mais dénoncer un système gérontocratique ne suffit pas, d’un point de vue anthropologique en tout cas. Ce qu’il faut dénoncer, c’est une société qui ne peut survivre. Une société humaine ne peut pas se projeter dans l’avenir si on part du principe que les ressources doivent remonter vers les vieux plutôt que descendre vers les jeunes.

La question institutionnelle fondamentale, ce n’est pas tant le pouvoir disproportionné du président dans la conception de la Ve République, mais un système électoral inadapté dans un contexte où les deux forces d’opposition refusent d’exister l’une pour l’autre. Il y a deux solutions : la première est le passage au mode de scrutin proportionnel. Mais cela ne se produira pas car la gérontocratie en place a trop intérêt à ce que le système dysfonctionne. L’autre solution, c’est de trouver une voie politique qui permette le sauvetage de la démocratie : je propose un contrat à durée limitée réconciliant les électorats du Rassemblement national et de la Nupes pour établir le scrutin proportionnel.

Mais comment les réconcilier ?

Je considère vraiment que ce qui se passe est inquiétant. J’ai un peu de mal à imaginer que cela ne se termine pas mal. Il y a un élément d’urgence, et la simple menace de désistement implicite ou explicite entre les deux forces d’opposition calmerait beaucoup le jeu. Il ferait tomber le sentiment d’impunité de la bureaucratie qui nous gouverne.

Le problème fondamental n’est pas un problème entre appareils. Le problème fondamental est un problème de rejet pluriel. 1) L’électorat du Rassemblement national est installé dans son rejet de l’immigration, un concept qui mélange l’immigration réelle qui passe aujourd’hui la frontière et la descendance de l’immigration ancienne, les gosses d’origine maghrébine qui sont maintenant une fraction substantielle de la population française. 2) L’électorat de LFI et de la Nupes croit seulement exprimer un refus du racisme du RN mais il exprime aussi, à l’insu de son plein gré, un rejet culturel de l’électorat du RN. Il vit un désir à la Bourdieu de distinction. Simplifions, soyons brutal, il s’agit de sauver la République : il y a d’un côté une xénophobie ethnique et de l’autre une xénophobie sociale.

J’ai un peu de mal à imaginer que le sauvetage à court terme de la démocratie par l’établissement de la proportionnelle, via un accord à durée limitée entre Nupes et RN, puisse se passer d’un minimum de négociation sur la question du rapport à l’étranger. La seule négociation possible, la seule chose raisonnable d’ailleurs du point de vue de l’avenir du pays, c’est que les électeurs de la Nupes admettent que le contrôle des frontières est absolument légitime et que les gens du Rassemblement national admettent que les gens d’origine maghrébine en France sont des Français comme les autres. Sur cette base, à la fois très précise et qui admet du flou, on peut s’entendre.

Le contexte actuel reproduit-il celui de l’époque des Gilets jaunes ?

"La police tape pour Macron, mais vote pour Le Pen", disais-je en 2018 au moment des Gilets jaunes… Je m’inquiétais de la possibilité d’une collusion entre les forces de ce que j’appelais à l’époque l’aristocratie stato-financière et l’autoritarisme implicitement associé à la notion d’extrême droite. J’avançais le concept de macrolepénisme. Le Rassemblement national aujourd’hui est confronté à une ambivalence qu’il doit lever. Le contexte actuel reproduit le contexte de l’époque des Gilets jaunes, en effet : d’un côté le Rassemblement national passe des motions de censure contre la politique gouvernementale sur les retraites (et je trouve tout à fait immoral que LFI refuse de voter les motions du Rassemblement national sur ces questions), mais, d’un autre côté, c’est, comme d’habitude, la police qui cogne sur les manifestants, qui est utilisée par Macron, qui continue de voter à plus de 50 % pour le Rassemblement national ! J’ajoute que le choix par Marine Le Pen de l’opposition à la grève des éboueurs n’est pas de bon augure.

Le Rassemblement national ne peut pas rester dans cette ambiguïté : il suffirait d’un petit mot de modération de Marine Le Pen pour que le comportement de la police change. Ce que je dis est grave : en mode démocratique normal, une police doit obéir au ministre de l’Intérieur. Mais je ne vois pas pourquoi une police appliquerait aveuglément les consignes de violence d’un président qui est sorti de la Constitution. Nous avons besoin d’une réflexion approfondie des juristes. Il s’agit de protéger les institutions dans un contexte extrêmement bizarre. Le conflit entre jeunes manifestants et jeunes policiers nous ramène d’ailleurs à la question du rejet mutuel Nupes/RN. L’hostilité qu’encourage le gouvernement entre la police et les jeunes manifestants est une menace pour l’équilibre du pays. On ne peut pas vivre dans un pays avec deux jeunesses qui se tapent dessus. Il y a dans le style policier violent Macron-Borne-Darmanin quelque chose de pensé et de pervers.

Vous dites que la première raison de l’obstination du gouvernement pourrait venir de l’esprit de Macron directement…

J’ai parlé de système électoral, j’ai parlé de néolibéralisme. J’ai parlé du déficit cognitif néolibéral de Macron. Une autre chose doit être évoquée, non systémique, accidentelle, dont je n’aime pas parler mais dont on doit parler : une autre raison de la préférence de Macron pour le désordre et la violence est sans doute un problème de personnalité, un problème psychologique grave. Son rapport au réel n’est pas clair. On lui reproche de mépriser les gens ordinaires. Je le soupçonne de haïr les gens normaux. Son rapport à son enfance n’est pas clair. Parfois, il me fait penser à ces enfants excités qui cherchent la limite, qui attendent d’un adulte qu’il les arrête. Ce qui serait bien, ce serait que le peuple français devienne adulte et arrête l’enfant Macron.

La situation est extrêmement dangereuse parce que nous avons peut-être un président hors contrôle dans un système sociopolitique qui est devenu pathologique. Au-delà de toutes les théories, sophistiquées ou non, j’en appelle à tous les gens pacifiques, moraux et raisonnables, quel que soit leur niveau éducatif, leur richesse, leur âge, à tous les députés quel que soit leur parti, Renaissance compris, j’en appelle au Medef, aux pauvres, aux inspecteurs des finances, aux vieillards et aux oligarques de bonne volonté, pour qu’ils se donnent la main et remettent ce président sous contrôle. La France vaut mieux que ce bordel. 



 

Auteur: Todd Emmanuel

Info: Marianne.net, 5 mars 2023, Interview Par Etienne Campion

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

aliénisme

La cause de la dépression n’est probablement pas celle que vous pensez

La dépression a souvent été imputée à de faibles niveaux de sérotonine dans le cerveau. Cette réponse est insuffisante, mais des alternatives apparaissent et modifient notre compréhension de la maladie.

Les gens pensent souvent savoir ce qui cause la dépression chronique. Des enquêtes indiquent que plus de 80 % de la population attribue la responsabilité à un " déséquilibre chimique " dans le cerveau. Cette idée est répandue dans la psychologie populaire et citée dans des documents de recherche et des manuels de médecine. L'écoute de Prozac, un livre qui décrit la valeur révolutionnaire du traitement de la dépression avec des médicaments visant à corriger ce déséquilibre, a passé des mois sur la liste des best-sellers du New York Times.

La substance chimique cérébrale déséquilibrée en question est la sérotonine, un neurotransmetteur important aux effets légendaires de " bien-être ". La sérotonine aide à réguler les systèmes cérébraux qui contrôlent tout, de la température corporelle au sommeil, en passant par la libido et la faim. Depuis des décennies, il est également présenté comme le produit pharmaceutique le plus efficace dans la lutte contre la dépression. Les médicaments largement prescrits comme le Prozac (fluoxétine) sont conçus pour traiter la dépression chronique en augmentant les niveaux de sérotonine.

Pourtant, les causes de la dépression vont bien au-delà de la carence en sérotonine. Les études cliniques ont conclu à plusieurs reprises que le rôle de la sérotonine dans la dépression avait été surestimé. En effet, l’ensemble de la théorie du déséquilibre chimique pourrait être erroné, malgré le soulagement que le Prozac semble apporter à de nombreux patients.

Une revue de la littérature parue dans Molecular Psychiatry en juillet a sonné le glas le plus récent et peut-être le plus fort de l’hypothèse de la sérotonine, du moins dans sa forme la plus simple. Une équipe internationale de scientifiques dirigée par Joanna Moncrieff de l'University College London a examiné 361 articles dans six domaines de recherche et en a soigneusement évalué 17. Ils n’ont trouvé aucune preuve convaincante que des niveaux plus faibles de sérotonine provoquaient ou étaient même associés à la dépression. Les personnes souffrant de dépression ne semblaient pas avoir une activité sérotoninergique inférieure à celle des personnes non atteintes. Les expériences dans lesquelles les chercheurs abaissaient artificiellement les niveaux de sérotonine des volontaires n’entraînaient pas systématiquement une dépression. Les études génétiques semblaient également exclure tout lien entre les gènes affectant les niveaux de sérotonine et la dépression, même lorsque les chercheurs essayaient de considérer le stress comme un cofacteur possible.

" Si vous pensez toujours qu'il s'agissait simplement d'un déséquilibre chimique de la sérotonine, alors oui, c'est assez accablant", a déclaré Taylor Braund , neuroscientifique clinicien et chercheur postdoctoral au Black Dog Institute en Australie, qui n'a pas participé à l'étude. nouvelle étude. (" Le chien noir " était le terme utilisé par Winston Churchill pour désigner ses propres humeurs sombres, que certains historiens pensent être une dépression.)

La prise de conscience que les déficits de sérotonine en eux-mêmes ne provoquent probablement pas la dépression a amené les scientifiques à se demander ce qui pouvait en être la cause. Les faits suggèrent qu’il n’y a peut-être pas de réponse simple. En fait, cela amène les chercheurs en neuropsychiatrie à repenser ce que pourrait être la dépression.

Traiter la mauvaise maladie

L’intérêt porté à la sérotonine dans la dépression a commencé avec un médicament contre la tuberculose. Dans les années 1950, les médecins ont commencé à prescrire de l’iproniazide, un composé développé pour cibler la bactérie Mycobacterium tuberculosis vivant dans les poumons. Le médicament n’était pas particulièrement efficace pour traiter les infections tuberculeuses, mais il a béni certains patients avec un effet secondaire inattendu et agréable. "Leur fonction pulmonaire et tout le reste ne s'améliorait pas beaucoup, mais leur humeur avait tendance à s'améliorer", a déclaré Gerard Sanacora, psychiatre clinicien et directeur du programme de recherche sur la dépression à l'Université de Yale.

(Photo : Pour évaluer les preuves selon lesquelles les déséquilibres en sérotonine provoquent la dépression, la chercheuse en psychiatrie Joanna Moncrieff de l'University College London a organisé une récapitulation qui a examiné des centaines d'articles dans six domaines de recherche.) 

Perplexes face à ce résultat, les chercheurs ont commencé à étudier le fonctionnement de l'iproniazide et des médicaments apparentés dans le cerveau des rats et des lapins. Ils ont découvert que les médicaments empêchaient le corps des animaux d'absorber des composés appelés amines, parmi lesquels se trouve la sérotonine, un produit chimique qui transmet les messages entre les cellules nerveuses du cerveau.

Plusieurs psychologues éminents, parmi lesquels les regrettés cliniciens Alec Coppen et Joseph Schildkraut, se sont emparés de l'idée que la dépression pourrait être causée par un déficit chronique de sérotonine dans le cerveau. L’hypothèse de la dépression liée à la sérotonine a ensuite inspiré des décennies de développement de médicaments et de recherche neuroscientifique. À la fin des années 1980, cela a conduit à l’introduction de médicaments inhibiteurs sélectifs du recaptage de la sérotonine (ISRS), comme le Prozac. (Ces médicaments augmentent les niveaux d'activité de la sérotonine en ralentissant l'absorption du neurotransmetteur par les neurones.)  Aujourd'hui, l'hypothèse de la sérotonine reste l'explication la plus souvent donnée aux patients souffrant de dépression lorsqu'on leur prescrit des ISRS.

Mais des doutes sur le modèle sérotoninergique circulaient au milieu des années 1990. Certains chercheurs ont remarqué que les ISRS ne répondaient souvent pas aux attentes et n’amélioraient pas de manière significative les performances de médicaments plus anciens comme le lithium. " Les études ne concordaient pas vraiment ", a déclaré Moncrieff.

Au début des années 2000, peu d’experts pensaient que la dépression était causée uniquement par un manque de sérotonine, mais personne n’a jamais tenté une évaluation complète de ces preuves. Cela a finalement incité Moncrieff à organiser une telle étude, " afin que nous puissions avoir une idée si cette théorie était étayée ou non ", a-t-elle déclaré.

Elle et ses collègues ont découvert que ce n’était pas le cas, mais l’hypothèse de la sérotonine a toujours des adeptes. En octobre dernier – quelques mois seulement après la parution de leur étude – un article publié en ligne dans Biological Psychiatry prétendait offrir une validation concrète de la théorie de la sérotonine. D'autres chercheurs restent cependant sceptiques, car l'étude n'a porté que sur 17 volontaires. Moncrieff a rejeté les résultats comme étant statistiquement insignifiants.

Un déséquilibre chimique différent

Bien que les niveaux de sérotonine ne semblent pas être le principal facteur de dépression, les ISRS montrent une légère amélioration par rapport aux placebos dans les essais cliniques. Mais le mécanisme à l’origine de cette amélioration reste insaisissable. "Ce n'est pas parce que l'aspirine soulage les maux de tête que les déficits en aspirine dans le corps provoquent des maux de tête", a déclaré John Krystal , neuropharmacologue et directeur du département de psychiatrie de l'Université de Yale. " Comprendre pleinement comment les ISRS produisent des changements cliniques est encore un travail en cours. "

Les spéculations sur la source de ce bénéfice ont donné naissance à des théories alternatives sur les origines de la dépression.

Malgré le terme " sélectif " dans leur nom, certains ISRS modifient les concentrations relatives de produits chimiques autres que la sérotonine. Certains psychiatres cliniciens pensent que l’un des autres composés pourrait être la véritable force induisant ou soulageant la dépression. Par exemple, les ISRS augmentent les niveaux circulants de tryptophane, un acide aminé, un précurseur de la sérotonine qui aide à réguler les cycles de sommeil. Au cours des 15 dernières années, ce produit chimique est devenu un candidat sérieux pour prévenir la dépression. "Les études sur la déplétion en tryptophane fournissent des preuves assez solides", a déclaré Michael Browning , psychiatre clinicien à l'Université d'Oxford.

Un certain nombre d' études sur l'épuisement du tryptophane ont révélé qu'environ les deux tiers des personnes récemment remises d'un épisode dépressif rechuteront lorsqu'elles suivront un régime artificiellement pauvre en tryptophane. Les personnes ayant des antécédents familiaux de dépression semblent également vulnérables à une carence en tryptophane. Et le tryptophane a pour effet secondaire d’augmenter les niveaux de sérotonine dans le cerveau.

Des preuves récentes suggèrent également que le tryptophane et la sérotonine pourraient contribuer à la régulation des bactéries et autres microbes se développant dans l’intestin, et que les signaux chimiques émis par ce microbiote pourraient affecter l’humeur. Bien que les mécanismes exacts liant le cerveau et l’intestin soient encore mal compris, ce lien semble influencer le développement du cerveau. Cependant, comme la plupart des études sur la déplétion en tryptophane ont jusqu’à présent été limitées, la question est loin d’être réglée.

D'autres neurotransmetteurs comme le glutamate, qui joue un rôle essentiel dans la formation de la mémoire, et le GABA, qui empêche les cellules de s'envoyer des messages, pourraient également être impliqués dans la dépression, selon Browning. Il est possible que les ISRS agissent en modifiant les quantités de ces composés dans le cerveau.

Moncrieff considère la recherche d'autres déséquilibres chimiques à l'origine de la dépression comme une tentative de changement de marque plutôt que comme une véritable nouvelle ligne de recherche. " Je dirais qu’ils souscrivent toujours à quelque chose comme l’hypothèse de la sérotonine ", a-t-elle déclaré – l’idée selon laquelle les antidépresseurs agissent en inversant certaines anomalies chimiques dans le cerveau. Elle pense plutôt que la sérotonine a des effets si répandus dans le cerveau que nous pourrions avoir du mal à dissocier son effet antidépresseur direct des autres changements dans nos émotions ou sensations qui remplacent temporairement les sentiments d’anxiété et de désespoir.

Réponses génétiques

Toutes les théories sur la dépression ne reposent pas sur des déficits en neurotransmetteurs. Certains recherchent des coupables au niveau génétique.

Lorsque la première ébauche de séquence à peu près complète du génome humain a été annoncée en 2003, elle a été largement saluée comme le fondement d’une nouvelle ère en médecine. Au cours des deux décennies qui ont suivi, les chercheurs ont identifié des gènes à l’origine d’un large éventail de troubles, dont environ 200 gènes associés à un risque de dépression. (Plusieurs centaines de gènes supplémentaires ont été identifiés comme pouvant augmenter le risque.)

"Il est vraiment important que les gens comprennent qu'il existe une génétique à la dépression", a déclaré Krystal. "Jusqu'à très récemment, seuls les facteurs psychologiques et environnementaux étaient pris en compte."

Notre connaissance de la génétique est cependant incomplète. Krystal a noté que des études sur des jumeaux suggèrent que la génétique pourrait expliquer 40 % du risque de dépression. Pourtant, les gènes actuellement identifiés ne semblent expliquer qu’environ 5 %.

De plus, le simple fait d’avoir les gènes de la dépression ne garantit pas nécessairement qu’une personne deviendra déprimée. Les gènes doivent également être activés d’une manière ou d’une autre, par des conditions internes ou externes.

"Il existe parfois une fausse distinction entre les facteurs environnementaux et les facteurs génétiques", a déclaré Srijan Sen, neuroscientifique à l'Université du Michigan. "Pour les caractères d'intérêt les plus courants, les facteurs génétiques et environnementaux jouent un rôle essentiel."

Le laboratoire de Sen étudie les bases génétiques de la dépression en cartographiant le génome des sujets et en observant attentivement comment les individus présentant des profils génétiques différents réagissent aux changements dans leur environnement. (Récemment, ils se sont penchés sur le stress provoqué par la pandémie de Covid-19.) Différentes variations génétiques peuvent affecter la réaction des individus à certains types de stress, tels que le manque de sommeil, la violence physique ou émotionnelle et le manque de contact social, en devenant déprimé.

Les influences environnementales comme le stress peuvent aussi parfois donner lieu à des changements " épigénétiques " dans un génome qui affectent l’expression ultérieure des gènes. Par exemple, le laboratoire de Sen étudie les changements épigénétiques dans les capuchons situés aux extrémités des chromosomes, appelés télomères, qui affectent la division cellulaire. D'autres laboratoires examinent les modifications des étiquettes chimiques appelées groupes de méthylation qui peuvent activer ou désactiver les gènes. Les changements épigénétiques peuvent parfois même se transmettre de génération en génération. "Les effets de l'environnement sont tout aussi biologiques que les effets des gènes", a déclaré Sen. " Seule la source est différente. "

Les études de ces gènes pourraient un jour aider à identifier la forme de traitement à laquelle un patient répondrait le mieux. Certains gènes peuvent prédisposer un individu à de meilleurs résultats avec une thérapie cognitivo-comportementale, tandis que d'autres patients pourraient mieux s'en sortir avec un ISRS ou de la kétamine thérapeutique. Cependant, il est beaucoup trop tôt pour dire quels gènes répondent à quel traitement, a déclaré Sen.

Un produit du câblage neuronal

Les différences dans les gènes d’une personne peuvent la prédisposer à la dépression ; il en va de même pour les différences dans le câblage neuronal et la structure de leur cerveau. De nombreuses études ont montré que les individus diffèrent dans la manière dont les neurones de leur cerveau s’interconnectent pour former des voies fonctionnelles, et que ces voies influencent la santé mentale.

Lors d'une récente conférence, une équipe dirigée par Jonathan Repple, chercheur en psychiatrie à l'Université Goethe de Francfort, en Allemagne, a décrit comment elle a scanné le cerveau de volontaires gravement déprimés et a découvert qu'ils différaient structurellement de ceux d'un groupe témoin non déprimé. Par exemple, les personnes souffrant de dépression présentaient moins de connexions au sein de la " substance blanche " des fibres nerveuses de leur cerveau. (Cependant, il n'y a pas de seuil de matière blanche pour une mauvaise santé mentale : Repple note que vous ne pouvez pas diagnostiquer la dépression en scannant le cerveau de quelqu'un.)

Après que le groupe déprimé ait subi six semaines de traitement, l'équipe de Repple a effectué une autre série d'échographies cérébrales. Cette fois, ils ont constaté que le niveau général de connectivité neuronale dans le cerveau des patients déprimés avait augmenté à mesure que leurs symptômes diminuaient. Pour obtenir cette augmentation, le type de traitement que les patients recevaient ne semblait pas avoir d'importance, du moment que leur humeur s'améliorait.

Une explication possible de ce changement est le phénomène de neuroplasticité. "La neuroplasticité signifie que le cerveau est réellement capable de créer de nouvelles connexions, de modifier son câblage", a déclaré Repple. Si la dépression survient lorsqu'un cerveau a trop peu d'interconnexions ou en perd certaines, alors exploiter les effets neuroplastiques pour augmenter l'interconnexion pourrait aider à améliorer l'humeur d'une personne.

Inflammation chronique

Repple prévient cependant qu'une autre explication des effets observés par son équipe est également possible : peut-être que les connexions cérébrales des patients déprimés ont été altérées par l'inflammation. L'inflammation chronique entrave la capacité du corps à guérir et, dans le tissu neuronal, elle peut progressivement dégrader les connexions synaptiques. On pense que la perte de ces connexions contribue aux troubles de l’humeur.

De bonnes preuves soutiennent cette théorie. Lorsque les psychiatres ont évalué des populations de patients souffrant de maladies inflammatoires chroniques comme le lupus et la polyarthrite rhumatoïde, ils ont constaté que " tous présentaient des taux de dépression supérieurs à la moyenne ", a déclaré Charles Nemeroff, neuropsychiatre à l'Université du Texas Austin. Bien sûr, savoir qu'ils souffrent d'une maladie dégénérative incurable peut contribuer aux sentiments de dépression du patient, mais les chercheurs soupçonnent que l'inflammation elle-même est également un facteur.

Des chercheurs médicaux ont découvert que provoquer une inflammation chez certains patients peut déclencher une dépression. L'interféron alpha, qui est parfois utilisé pour traiter l'hépatite C chronique et d'autres affections, provoque une réponse inflammatoire majeure dans tout le corps en inondant le système immunitaire de protéines appelées cytokines, des molécules qui facilitent les réactions allant d'un léger gonflement au choc septique. L’afflux soudain de cytokines inflammatoires entraîne une perte d’appétit, de la fatigue et un ralentissement de l’activité mentale et physique – autant de symptômes d’une dépression majeure. Les patients prenant de l’interféron déclarent souvent se sentir soudainement, parfois sévèrement, déprimés.

Si une inflammation chronique négligée est à l’origine de la dépression chez de nombreuses personnes, les chercheurs doivent encore déterminer la source de cette inflammation. Les maladies auto-immunes, les infections bactériennes, le stress élevé et certains virus, dont celui qui cause le Covid-19, peuvent tous induire des réponses inflammatoires persistantes. L’inflammation virale peut s’étendre directement aux tissus du cerveau. La mise au point d’un traitement anti-inflammatoire efficace contre la dépression peut dépendre de la connaissance de laquelle de ces causes est à l’œuvre.

On ne sait pas non plus si le simple traitement de l’inflammation pourrait suffire à soulager la dépression. Les cliniciens tentent encore de déterminer si la dépression provoque une inflammation ou si l’inflammation conduit à la dépression. "C'est une sorte de phénomène de poule et d'œuf", a déclaré Nemeroff.

La théorie du parapluie

De plus en plus, certains scientifiques s’efforcent de recadrer le terme " dépression " pour en faire un terme générique désignant un ensemble de pathologies connexes, tout comme les oncologues considèrent désormais le " cancer " comme faisant référence à une légion de tumeurs malignes distinctes mais similaires. Et tout comme chaque cancer doit être prévenu ou traité de manière adaptée à son origine, les traitements de la dépression peuvent devoir être adaptés à chaque individu. 

S’il existe différents types de dépression, ils peuvent présenter des symptômes similaires – comme la fatigue, l’apathie, les changements d’appétit, les pensées suicidaires et l’insomnie ou un sommeil excessif – mais ils peuvent résulter de mélanges complètement différents de facteurs environnementaux et biologiques. Les déséquilibres chimiques, les gènes, la structure cérébrale et l’inflammation pourraient tous jouer un rôle à des degrés divers. "Dans cinq ou dix ans, nous ne parlerons plus de la dépression comme d'un phénomène unitaire", a déclaré Sen.

Pour traiter efficacement la dépression, les chercheurs en médecine devront peut-être développer une compréhension nuancée de la manière dont elle peut survenir. Nemeroff s'attend à ce qu'un jour, la référence en matière de soins ne soit pas seulement un traitement, mais un ensemble d'outils de diagnostic capables de déterminer la meilleure approche thérapeutique pour la dépression d'un patient individuel, qu'il s'agisse d'une thérapie cognitivo-comportementale, de changements de style de vie, de neuromodulation, d'évitement. déclencheurs génétiques, thérapie par la parole, médicaments ou une combinaison de ceux-ci.

Cette prédiction pourrait frustrer certains médecins et développeurs de médicaments, car il est beaucoup plus facile de prescrire une solution universelle. Mais " apprécier la véritable complexité de la dépression nous amène sur un chemin qui, en fin de compte, aura le plus d’impact ", a déclaré Krystal. Dans le passé, dit-il, les psychiatres cliniciens étaient comme des explorateurs qui atterrissaient sur une petite île inconnue, installaient leur campement et s’installaient confortablement. "Et puis nous avons découvert qu'il y avait tout un continent énorme."



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Joanna Thompson, 26 janvier 2023

[ corps-esprit ] [ thérapie holistique idiosyncrasique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interrogation

Pourquoi cet univers ? Un nouveau calcul suggère que notre cosmos est typique.

Deux physiciens ont calculé que l’univers a une entropie plus élevée – et donc plus probable – que d’autres univers possibles. Le calcul est " une réponse à une question qui n’a pas encore été pleinement comprise ".

(image : Les propriétés de notre univers – lisse, plat, juste une pincée d’énergie noire – sont ce à quoi nous devrions nous attendre, selon un nouveau calcul.)

Les cosmologues ont passé des décennies à chercher à comprendre pourquoi notre univers est si étonnamment vanille. Non seulement il est lisse et plat à perte de vue, mais il s'étend également à un rythme toujours plus lent, alors que des calculs naïfs suggèrent que – à la sortie du Big Bang – l'espace aurait dû se froisser sous l'effet de la gravité et détruit par une énergie noire répulsive.

Pour expliquer la planéité du cosmos, les physiciens ont ajouté un premier chapitre dramatique à l'histoire cosmique : ils proposent que l'espace se soit rapidement gonflé comme un ballon au début du Big Bang, aplanissant toute courbure. Et pour expliquer la légère croissance de l’espace après cette première période d’inflation, certains ont avancé que notre univers n’est qu’un parmi tant d’autres univers moins hospitaliers dans un multivers géant.

Mais maintenant, deux physiciens ont bouleversé la pensée conventionnelle sur notre univers vanille. Suivant une ligne de recherche lancée par Stephen Hawking et Gary Gibbons en 1977, le duo a publié un nouveau calcul suggérant que la clarté du cosmos est attendue plutôt que rare. Notre univers est tel qu'il est, selon Neil Turok de l'Université d'Édimbourg et Latham Boyle de l'Institut Perimeter de physique théorique de Waterloo, au Canada, pour la même raison que l'air se propage uniformément dans une pièce : des options plus étranges sont concevables, mais extrêmement improbable.

L'univers " peut sembler extrêmement précis, extrêmement improbable, mais eux  disent : 'Attendez une minute, c'est l'univers préféré' ", a déclaré Thomas Hertog , cosmologue à l'Université catholique de Louvain en Belgique.

"Il s'agit d'une contribution nouvelle qui utilise des méthodes différentes de celles utilisées par la plupart des gens", a déclaré Steffen Gielen , cosmologue à l'Université de Sheffield au Royaume-Uni.

La conclusion provocatrice repose sur une astuce mathématique consistant à passer à une horloge qui tourne avec des nombres imaginaires. En utilisant l'horloge imaginaire, comme Hawking l'a fait dans les années 70, Turok et Boyle ont pu calculer une quantité, connue sous le nom d'entropie, qui semble correspondre à notre univers. Mais l’astuce du temps imaginaire est une manière détournée de calculer l’entropie, et sans une méthode plus rigoureuse, la signification de la quantité reste vivement débattue. Alors que les physiciens s’interrogent sur l’interprétation correcte du calcul de l’entropie, beaucoup le considèrent comme un nouveau guide sur la voie de la nature quantique fondamentale de l’espace et du temps.

"D'une manière ou d'une autre", a déclaré Gielen, "cela nous donne peut-être une fenêtre sur la microstructure de l'espace-temps."

Chemins imaginaires

Turok et Boyle, collaborateurs fréquents, sont réputés pour avoir conçu des idées créatives et peu orthodoxes sur la cosmologie. L’année dernière, pour étudier la probabilité que notre Univers soit probable, ils se sont tournés vers une technique développée dans les années 1940 par le physicien Richard Feynman.

Dans le but de capturer le comportement probabiliste des particules, Feynman a imaginé qu'une particule explore toutes les routes possibles reliant le début à la fin : une ligne droite, une courbe, une boucle, à l'infini. Il a imaginé un moyen d'attribuer à chaque chemin un nombre lié à sa probabilité et d'additionner tous les nombres. Cette technique de " l’intégrale du chemin " est devenue un cadre puissant pour prédire le comportement probable d’un système quantique.

Dès que Feynman a commencé à faire connaître l’intégrale du chemin, les physiciens ont repéré un curieux lien avec la thermodynamique, la vénérable science de la température et de l’énergie. C'est ce pont entre la théorie quantique et la thermodynamique qui a permis les calculs de Turok et Boyle.

La thermodynamique exploite la puissance des statistiques afin que vous puissiez utiliser seulement quelques chiffres pour décrire un système composé de plusieurs éléments, comme les milliards de molécules d'air qui s'agitent dans une pièce. La température, par exemple – essentiellement la vitesse moyenne des molécules d’air – donne une idée approximative de l’énergie de la pièce. Les propriétés globales telles que la température et la pression décrivent un "  macrostate " de la pièce.

Mais ce terme de un macro-état est un compte rendu rudimentaire ; les molécules d’air peuvent être disposées d’un très grand nombre de manières qui correspondent toutes au même macroétat. Déplacez un peu un atome d’oxygène vers la gauche et la température ne bougera pas. Chaque configuration microscopique unique est appelée microétat, et le nombre de microétats correspondant à un macroétat donné détermine son entropie.

L'entropie donne aux physiciens un moyen précis de comparer les probabilités de différents résultats : plus l'entropie d'un macroétat est élevée, plus il est probable. Il existe bien plus de façons pour les molécules d'air de s'organiser dans toute la pièce que si elles étaient regroupées dans un coin, par exemple. En conséquence, on s’attend à ce que les molécules d’air se propagent (et restent dispersées). La vérité évidente selon laquelle les résultats probables sont probables, exprimée dans le langage de la physique, devient la célèbre deuxième loi de la thermodynamique : selon laquelle l’entropie totale d’un système a tendance à croître.

La ressemblance avec l'intégrale du chemin était indubitable : en thermodynamique, on additionne toutes les configurations possibles d'un système. Et avec l’intégrale du chemin, vous additionnez tous les chemins possibles qu’un système peut emprunter. Il y a juste une distinction assez flagrante : la thermodynamique traite des probabilités, qui sont des nombres positifs qui s'additionnent simplement. Mais dans l'intégrale du chemin, le nombre attribué à chaque chemin est complexe, ce qui signifie qu'il implique le nombre imaginaire i , la racine carrée de −1. Les nombres complexes peuvent croître ou diminuer lorsqu’ils sont additionnés, ce qui leur permet de capturer la nature ondulatoire des particules quantiques, qui peuvent se combiner ou s’annuler.

Pourtant, les physiciens ont découvert qu’une simple transformation peut vous faire passer d’un domaine à un autre. Rendez le temps imaginaire (un mouvement connu sous le nom de rotation de Wick d'après le physicien italien Gian Carlo Wick), et un second i entre dans l'intégrale du chemin qui étouffe le premier, transformant les nombres imaginaires en probabilités réelles. Remplacez la variable temps par l'inverse de la température et vous obtenez une équation thermodynamique bien connue.

Cette astuce de Wick a conduit Hawking et Gibbons à une découverte à succès en 1977, à la fin d'une série éclair de découvertes théoriques sur l'espace et le temps.

L'entropie de l'espace-temps

Des décennies plus tôt, la théorie de la relativité générale d’Einstein avait révélé que l’espace et le temps formaient ensemble un tissu unifié de réalité – l’espace-temps – et que la force de gravité était en réalité la tendance des objets à suivre les plis de l’espace-temps. Dans des circonstances extrêmes, l’espace-temps peut se courber suffisamment fortement pour créer un Alcatraz incontournable connu sous le nom de trou noir.

En 1973, Jacob Bekenstein a avancé l’hérésie selon laquelle les trous noirs seraient des prisons cosmiques imparfaites. Il a estimé que les abysses devraient absorber l'entropie de leurs repas, plutôt que de supprimer cette entropie de l'univers et de violer la deuxième loi de la thermodynamique. Mais si les trous noirs ont de l’entropie, ils doivent aussi avoir des températures et rayonner de la chaleur.

Stephen Hawking, sceptique, a tenté de prouver que Bekenstein avait tort, en se lançant dans un calcul complexe du comportement des particules quantiques dans l'espace-temps incurvé d'un trou noir. À sa grande surprise, il découvrit en 1974 que les trous noirs rayonnaient effectivement. Un autre calcul a confirmé l'hypothèse de Bekenstein : un trou noir a une entropie égale au quart de la surface de son horizon des événements – le point de non-retour pour un objet tombant.

Dans les années qui suivirent, les physiciens britanniques Gibbons et Malcolm Perry, puis plus tard Gibbons et Hawking, arrivèrent au même résultat dans une autre direction . Ils ont établi une intégrale de chemin, additionnant en principe toutes les différentes manières dont l'espace-temps pourrait se plier pour former un trou noir. Ensuite, ils ont fait tourner le trou noir, marquant l'écoulement du temps avec des nombres imaginaires, et ont scruté sa forme. Ils ont découvert que, dans la direction du temps imaginaire, le trou noir revenait périodiquement à son état initial. Cette répétition semblable au jour de la marmotte dans un temps imaginaire a donné au trou noir une sorte de stase qui leur a permis de calculer sa température et son entropie.

Ils n’auraient peut-être pas fait confiance aux résultats si les réponses n’avaient pas correspondu exactement à celles calculées précédemment par Bekenstein et Hawking. À la fin de la décennie, leur travail collectif avait donné naissance à une idée surprenante : l’entropie des trous noirs impliquait que l’espace-temps lui-même était constitué de minuscules morceaux réorganisables, tout comme l’air est constitué de molécules. Et miraculeusement, même sans savoir ce qu’étaient ces " atomes gravitationnels ", les physiciens ont pu compter leurs arrangements en regardant un trou noir dans un temps imaginaire.

"C'est ce résultat qui a laissé une très profonde impression sur Hawking", a déclaré Hertog, ancien étudiant diplômé et collaborateur de longue date de Hawking. Hawking s'est immédiatement demandé si la rotation de Wick fonctionnerait pour autre chose que les trous noirs. "Si cette géométrie capture une propriété quantique d'un trou noir", a déclaré Hertog, "alors il est irrésistible de faire la même chose avec les propriétés cosmologiques de l'univers entier."

Compter tous les univers possibles

Immédiatement, Hawking et Gibbons Wick ont ​​fait tourner l’un des univers les plus simples imaginables – un univers ne contenant rien d’autre que l’énergie sombre construite dans l’espace lui-même. Cet univers vide et en expansion, appelé espace-temps " de Sitter ", a un horizon au-delà duquel l’espace s’étend si rapidement qu’aucun signal provenant de cet espace ne parviendra jamais à un observateur situé au centre de l’espace. En 1977, Gibbons et Hawking ont calculé que, comme un trou noir, un univers de De Sitter possède également une entropie égale au quart de la surface de son horizon. Encore une fois, l’espace-temps semblait comporter un nombre incalculable de micro-états.

Mais l’entropie de l’univers réel restait une question ouverte. Notre univers n'est pas vide ; il regorge de lumière rayonnante et de flux de galaxies et de matière noire. La lumière a provoqué une expansion rapide de l'espace pendant la jeunesse de l'univers, puis l'attraction gravitationnelle de la matière a ralenti les choses pendant l'adolescence cosmique. Aujourd’hui, l’énergie sombre semble avoir pris le dessus, entraînant une expansion galopante. "Cette histoire d'expansion est une aventure semée d'embûches", a déclaré Hertog. "Il n'est pas si facile d'obtenir une solution explicite."

Au cours de la dernière année, Boyle et Turok ont ​​élaboré une solution aussi explicite. Tout d'abord, en janvier, alors qu'ils jouaient avec des cosmologies jouets, ils ont remarqué que l'ajout de radiations à l'espace-temps de De Sitter ne gâchait pas la simplicité requise pour faire tourner l'univers par Wick.

Puis, au cours de l’été, ils ont découvert que la technique résisterait même à l’inclusion désordonnée de matière. La courbe mathématique décrivant l’histoire plus complexe de l’expansion relevait toujours d’un groupe particulier de fonctions faciles à manipuler, et le monde de la thermodynamique restait accessible. "Cette rotation de Wick est une affaire trouble lorsque l'on s'éloigne d'un espace-temps très symétrique", a déclaré Guilherme Leite Pimentel , cosmologiste à la Scuola Normale Superiore de Pise, en Italie. "Mais ils ont réussi à le trouver."

En faisant tourner Wick l’histoire de l’expansion en montagnes russes d’une classe d’univers plus réaliste, ils ont obtenu une équation plus polyvalente pour l’entropie cosmique. Pour une large gamme de macroétats cosmiques définis par le rayonnement, la matière, la courbure et une densité d'énergie sombre (tout comme une plage de températures et de pressions définit différents environnements possibles d'une pièce), la formule crache le nombre de microétats correspondants. Turok et Boyle ont publié leurs résultats en ligne début octobre.

Les experts ont salué le résultat explicite et quantitatif. Mais à partir de leur équation d’entropie, Boyle et Turok ont ​​tiré une conclusion non conventionnelle sur la nature de notre univers. "C'est là que cela devient un peu plus intéressant et un peu plus controversé", a déclaré Hertog.

Boyle et Turok pensent que l'équation effectue un recensement de toutes les histoires cosmiques imaginables. Tout comme l'entropie d'une pièce compte toutes les façons d'arranger les molécules d'air pour une température donnée, ils soupçonnent que leur entropie compte toutes les façons dont on peut mélanger les atomes de l'espace-temps et se retrouver avec un univers avec une histoire globale donnée. courbure et densité d’énergie sombre.

Boyle compare le processus à l'examen d'un gigantesque sac de billes, chacune représentant un univers différent. Ceux qui ont une courbure négative pourraient être verts. Ceux qui ont des tonnes d'énergie sombre pourraient être des yeux de chat, et ainsi de suite. Leur recensement révèle que l’écrasante majorité des billes n’ont qu’une seule couleur – le bleu, par exemple – correspondant à un type d’univers : un univers globalement semblable au nôtre, sans courbure appréciable et juste une touche d’énergie sombre. Les types de cosmos les plus étranges sont extrêmement rares. En d’autres termes, les caractéristiques étrangement vanille de notre univers qui ont motivé des décennies de théorie sur l’inflation cosmique et le multivers ne sont peut-être pas étranges du tout.

"C'est un résultat très intrigant", a déclaré Hertog. Mais " cela soulève plus de questions que de réponses ".

Compter la confusion

Boyle et Turok ont ​​calculé une équation qui compte les univers. Et ils ont fait l’observation frappante que des univers comme le nôtre semblent représenter la part du lion des options cosmiques imaginables. Mais c’est là que s’arrête la certitude.

Le duo ne tente pas d’expliquer quelle théorie quantique de la gravité et de la cosmologie pourrait rendre certains univers communs ou rares. Ils n’expliquent pas non plus comment notre univers, avec sa configuration particulière de parties microscopiques, est né. En fin de compte, ils considèrent leurs calculs comme un indice permettant de déterminer quels types d’univers sont préférés plutôt que comme quelque chose qui se rapproche d’une théorie complète de la cosmologie. "Ce que nous avons utilisé est une astuce bon marché pour obtenir la réponse sans connaître la théorie", a déclaré Turok.

Leurs travaux revitalisent également une question restée sans réponse depuis que Gibbons et Hawking ont lancé pour la première fois toute l’histoire de l’entropie spatio-temporelle : quels sont exactement les micro-états que compte l’astuce bon marché ?

"L'essentiel ici est de dire que nous ne savons pas ce que signifie cette entropie", a déclaré Henry Maxfield , physicien à l'Université de Stanford qui étudie les théories quantiques de la gravité.

En son cœur, l’entropie résume l’ignorance. Pour un gaz constitué de molécules, par exemple, les physiciens connaissent la température – la vitesse moyenne des particules – mais pas ce que fait chaque particule ; l'entropie du gaz reflète le nombre d'options.

Après des décennies de travaux théoriques, les physiciens convergent vers une vision similaire pour les trous noirs. De nombreux théoriciens pensent aujourd'hui que la zone de l'horizon décrit leur ignorance de ce qui s'y trouve, de toutes les façons dont les éléments constitutifs du trou noir sont disposés de manière interne pour correspondre à son apparence extérieure. (Les chercheurs ne savent toujours pas ce que sont réellement les microétats ; les idées incluent des configurations de particules appelées gravitons ou cordes de la théorie des cordes.)

Mais lorsqu’il s’agit de l’entropie de l’univers, les physiciens se sentent moins sûrs de savoir où se situe leur ignorance.

En avril, deux théoriciens ont tenté de donner à l’entropie cosmologique une base mathématique plus solide. Ted Jacobson , physicien à l'Université du Maryland réputé pour avoir dérivé la théorie de la gravité d'Einstein de la thermodynamique des trous noirs, et son étudiant diplômé Batoul Banihashemi ont explicitement défini l'entropie d'un univers de Sitter (vacant et en expansion). Ils ont adopté la perspective d’un observateur au centre. Leur technique, qui consistait à ajouter une surface fictive entre l'observateur central et l'horizon, puis à rétrécir la surface jusqu'à ce qu'elle atteigne l'observateur central et disparaisse, a récupéré la réponse de Gibbons et Hawking selon laquelle l'entropie est égale à un quart de la surface de l'horizon. Ils ont conclu que l’entropie de De Sitter compte tous les microétats possibles à l’intérieur de l’horizon.

Turok et Boyle calculent la même entropie que Jacobson et Banihashemi pour un univers vide. Mais dans leur nouveau calcul relatif à un univers réaliste rempli de matière et de rayonnement, ils obtiennent un nombre beaucoup plus grand de microétats – proportionnels au volume et non à la surface. Face à ce conflit apparent, ils spéculent que les différentes entropies répondent à des questions différentes : la plus petite entropie de De Sitter compte les microétats d'un espace-temps pur délimité par un horizon, tandis qu'ils soupçonnent que leur plus grande entropie compte tous les microétats d'un espace-temps rempli d'espace-temps. matière et énergie, tant à l’intérieur qu’à l’extérieur de l’horizon. "C'est tout un shebang", a déclaré Turok.

En fin de compte, régler la question de savoir ce que comptent Boyle et Turok nécessitera une définition mathématique plus explicite de l’ensemble des microétats, analogue à ce que Jacobson et Banihashemi ont fait pour l’espace de Sitter. Banihashemi a déclaré qu'elle considérait le calcul d'entropie de Boyle et Turok " comme une réponse à une question qui n'a pas encore été entièrement comprise ".

Quant aux réponses plus établies à la question " Pourquoi cet univers ? ", les cosmologistes affirment que l’inflation et le multivers sont loin d’être morts. La théorie moderne de l’inflation, en particulier, est parvenue à résoudre bien plus que la simple question de la douceur et de la planéité de l’univers. Les observations du ciel correspondent à bon nombre de ses autres prédictions. L'argument entropique de Turok et Boyle a passé avec succès un premier test notable, a déclaré Pimentel, mais il lui faudra trouver d'autres données plus détaillées pour rivaliser plus sérieusement avec l'inflation.

Comme il sied à une grandeur qui mesure l’ignorance, les mystères enracinés dans l’entropie ont déjà servi de précurseurs à une physique inconnue. À la fin des années 1800, une compréhension précise de l’entropie en termes d’arrangements microscopiques a permis de confirmer l’existence des atomes. Aujourd'hui, l'espoir est que si les chercheurs calculant l'entropie cosmologique de différentes manières peuvent déterminer exactement à quelles questions ils répondent, ces chiffres les guideront vers une compréhension similaire de la façon dont les briques Lego du temps et de l'espace s'empilent pour créer l'univers qui nous entoure.

"Notre calcul fournit une énorme motivation supplémentaire aux personnes qui tentent de construire des théories microscopiques de la gravité quantique", a déclaré Turok. "Parce que la perspective est que cette théorie finira par expliquer la géométrie à grande échelle de l'univers."

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 17 nov 2022

[ constante fondamentale ] [ 1/137 ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective

La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.

Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.

Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.

Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.

Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".

 L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).

S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.

LE CŒUR DU PROBLÈME

Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.

Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.

Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.

Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.

Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.

Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.

Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.

ASPECTS CRUCIAUX DE LA RÉALITÉ

Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.

La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.

La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.

La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.

Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.

Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.

Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.

Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.

En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.

CHOISISSEZ VOTRE POISON

Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.

Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.

D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.

Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

UNE NON LOCALITÉ PLUS PROFONDE

Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.

 Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.

Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.

En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."

Auteur: Internet

Info: https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023

[ enchevêtrement quantique ] [ régions de l'espace-temps ] [ monde subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

parapsychologie

Le pays des aveugles de Koestler (I) 

Ainsi, après plusieurs détours, nous voilà de retour à notre point de départ. Ce "sentiment océanique" mystique se situe certainement à un étage supérieur de cette spirale que celui de l'enfant nouveau-né. L'enfant n'a pas encore d'identité personnelle, le mystique et le medium l'ont eux transcendée. Cette spirale a beaucoup de cercles, mais à chaque tour nous sommes confrontés à la même polarité et au même genre de monade, dont une face dit que je suis le centre du monde, et l'autre que je suis une petite partie en quête de la totalité. Nous pouvons considérer les phénomènes de parapsychologie comme les fruits de cette recherche - qu'ils se soient produits spontanément ou en laboratoire. La perception extra sensorielle apparait alors comme la plus haute manifestation du potentiel d'intégration de la matière vivante - qui, chez les humains, s'accompagne généralement d'un type d'auto-transcendance de l'émotion.

Alors que tout au long de notre excursion dans la biologie et la physique nous étions sur un terrain scientifique solide, nous voilà en pleine étape spéculative. Je ne prétends pas que ce soit un plus. Mais c'est la science moderne elle-même, avec ses vues paradoxales, qui nous y incite. Nous ne nous arrêterons pas à la "classique" télépathie-ESP ni à la prévision à court terme - pour lesquelles des explications physiques peuvent encore être trouvée. Car exclure clairvoyance, psychokinésie et coïncidences de séries ou de synchronicités, serait arbitraire, tout en laissant les choses telles qu'elles étaient avant. D'autre part, si on prend la "Tendance Intégrative" comme un principe universel comprenant des phénomènes causals, l'image devient grandement simplifiée, même si elle est encore hors de portée de notre compréhension. Au lieu de plusieurs mystères, nous voilà aujourd'hui confrontés à une seule tendance évolutive irréductible, issue de la constitution d'ensembles plus complexes venant de pièces diversifiées. La doctrine hippocratique de la "sympathie de toutes choses" en est un paradigme précoce. L'évolution des connaissances, avec ses maillages en branches spécialisées et leur confluence vers un delta unifié, en est un autre.

On pourrait en effet le substituer à la maladresse de termes comme "sérialité" et "Synchronicité" - qui mettent l'accent sur le temps seul, avec pour résultat une non-incarcération grâce à des expressions comme "évènements confluentiels". Les évènements confluentiels seraient-ils causals de manifestations d'une tendance à l'intégration. L'apparition du scarabée de Jung serait alors un évènement confluentiel. Ainsi les effets de la psychokinésie comme le lancer de dés et autres phénomènes paranormaux seraient aussi causals de ces phénomènes. Si on leur prête une signification, c'est qu'ils donnent l'impression d'avoir un lien de causalité, même si ils ne sont manifestement pas de cette sorte de pseudo-causalité. Le scarabée semble être attiré à la fenêtre de Jung par le patient qui raconte son rêve, les dés semblent être manipulés par la volonté de l'expérimentateur, le clairvoyant semble voir les cartes cachées. Les potentiels intégratifs de la vie semblent inclure la capacité de produire des effets pseudo-causals - qui provoquent un évènement confluentiel sans se soucier, pour ainsi dire, de l'emploi d'agents physiques. Il est donc très difficile de tracer une ligne de démarcation nette séparant causalité et non-causalité des évènements. Les animaux aveugles peuvent sentir leur chemin par des usages physiques plus grossiers comme le toucher ou l'odorat. Les chauves-souris utilisent une sorte de radar - ce qui il n'y a pas si longtemps aurait été vu par les naturalistes comme une hypothèse bien saugrenue. Des animaux équipés pour réagir aux photons - particules avec une masse nulle au repos qui peuvent également se comporter comme des ondes dans un milieu et, partant, semblent défier la causalité. Des hommes sans yeux comme les citoyens des pays des aveugles, rejetteraient surement l'affirmation qu'on peut percevoir des objets éloignés sans contact par toucher comme un non-sens occulte - ou bien déclareraient qu'une telle faculté, si elle existe vraiment, est certainement au-delà du domaine de la causalité physique, et devrait être appelé perception extra-sensorielle.

Un des neurophysiologistes les plus respectés de Grande-Bretagne, le Dr W. Walter Grey, a réalisé ces dernières années une série d'expériences remarquables. Il s'est fabriqué une machine électrique, qui par un effort de volonté, peut influer sur les évènements externes sans mouvement ni action manifeste via les impalpables pics électriques du cerveau. Cet effort nécessite un état particulier de concentration, composé paradoxal de détachement et d'excitation. La procédure expérimentale de Grey Walter peut être décrite de manière simplifiée comme suit. Des électrodes fixées sur le cuir chevelu et le cortex frontal du sujet transmettent les vagues électriques des activités cervicales vers un amplificateur d'ondes via une machine. En face de l'objet il y a un bouton : si on le presse une "scène intéressante" apparait sur un écran de télévision. Mais, environ une seconde avant qu'on appuie sur le bouton, une surtension électrique d'une vingtaine de microvolts se produit dans une grande partie du cortex du sujet, on la nomme "vague de préparation". Mais les circuits de l'appareil peuvent être réglés de telle sorte que la "vague de préparation" amplifiée soit suffisante pour déclencher l'interrupteur et faire ainsi apparaitre la scène de télévision une fraction de seconde avant que le sujet ait effectivement appuyé sur le bouton. C'est ce qu'on appelle un "démarrage automatique". Un sujet intelligent se rend vite compte que son action a le résultat escompté avant qu'il n'ait effectivement déplacé son doigt, et donc il cesse généralement d'appuyer sur le bouton: les images apparaissent comme et quand il les veut... Mais, pour que cet effet soit durable, il est essentiel que le sujet "veuille" vraiment que l'évènement se produise, et donc il doit se concentrer sur l'évocation de cet évènement précis. Lorsque l'attention du sujet se détache à cause d'une présentation monotone, ou qu'il "se concentre sur la concentration", le potentiel du cerveau ne parvient pas à déclencher la vague. Ce démarrage automatique peut être combiné avec un auto-stop afin que le sujet puisse acquérir une image en voulant son apparition sur l'écran du téléviseur, puis l'effacer dès qu'il a terminé son inspection de celle-ci.

Du point de vue du sujet, c'est une expérience très particulière, parfois accompagnée de signes d'excitation contenue; une diurèse [évacuation d'urine] a été très marquée pour deux des expérimentateurs. Examinant ces expériences Renee Haynes rédacteur en chef du Journal de la SPR a déclaré: En principe, bien sûr, ce n'est pas plus remarquable que ce qui arrive quand un enfant regarde avec étonnement, quand, avec sa main, il prouve la puissance de sa volonté en décidant de lever le petit doigt ou en le déplaçant. En pratique, c'est étonnant parce que ce mode pour exercer une influence sur le monde extérieur est fort peu familier à l'homme, même s'il est probablement banal pour une anguille électrique. Il est aussi très intéressant en ce qu'il a amené le Dr Grey Walter a utiliser avec un certain embarras, un mot tel que "pouvoir de la volonté". Cela, on s'en souvient, fut aussi l'attitude de Sir John Eccles quand il considérait que l'action de "volonté mentale" du "cerveau physique", comme le mystère de base, et la psychokinésie simplement comme une extension de celui-ci. On pourrait décrire l'expérience Grey Walter comme de la "pseudo-télékinésie" car il y a des fils qui relient les électrodes et crâne du sujet avec l'appareil TV. Mais on pourrait tout aussi bien décrire l'action de l'esprit du sujet sur son propre cerveau comme une pseudo-causalité. Ou nous pourrions dire que le sujet a découvert une façon plus élégante de produire un "évènement confluentiel" sans prendre la peine d'employer des agents physiques. Dans ce contexte il nous faut maintenant parler du rapport hypnotique.

Jusqu'au milieu du siècle dernier, l'hypnose a été traitée comme une fantaisie occulte par la science occidentale (bien que dans d'autres cultures, elle ait été prise comme une acquis). Aujourd'hui elle est devenue si respectable et banale que nous avons tendance à oublier que nous n'avons pas d'explication la concernant. On a démontré qu'un sujet approprié peut être temporairement sourd, muet, aveugle, anesthésié, amené à avoir des hallucinations ou revivre des scènes de son passé. Il peut être amené à oublier ou à se rappeler ce qui s'est passé pendant la transe avec un claquement de doigts. On peut lui enjoindre une suggestion post-hypnotique qui lui fera exécuter le lendemain, à 5 heures précises, une action stupide comme le déliement de ses lacets - et aussi trouver une certaine rationalité à cet acte. Les utilisations de l'hypnose médicale sur des patients appropriés en dentisterie, obstétrique et en dermatologie sont bien connues. Moins connues, cependant, sont les expériences de A. Mason et S. Black sur la suppression des réactions cutanées allergiques par l'hypnose. On injecta à des patients des extraits de pollen, auxquels ils étaient très allergiques, et après le traitement hypnotique, ils cessèrent de montrer la moindre réaction. Avec l'hypnose, d'autres patients n'ont pas eu de réaction allergique contre le bacille de la tuberculose. Comment les suggestions hypnotiques peuvent-elles modifier la réactivité chimique des tissus au niveau microscopique reste donc une conjecture. Après la guérison remarquable de Mason par hypnose d'un garçon de seize ans souffrant d'ichtyose (la maladie de peau de poisson, une affection congénitale que l'on croyait incurable) un évaluateur du British Medical Journal a fait remarquer que ce cas unique suffirait pour exiger "une révision des concepts courants sur la relation entre l'esprit et le corps ". Cette révision des concepts actuels est attendue depuis longtemps. Nous ne savons pas si Eddington avait raison quand il a dit que le monde est fait de matière-esprit, et qu'il n'est certainement pas fait de l'étoffe des petites boules de billards du physicien du dix-neuvième siècle qui volaient dans tous les sens jusqu'à ce que le hasard les fasse s'agréger en une amibe.

Dans son adresse de 1969 à l'American Society for Psychical Research, que j'ai cité précédemment, le professeur Henry Margenau a dit ceci : Un artefact parfois invoqué pour expliquer la précognition est de prendre en compte un temps multidimensionnel. Ce qui permet un véritable passage vers l'arrière du temps, ce qui pourrait permettre à certains intervalles, positifs dans un sens du temps, de devenir négatifs ("effet avant la cause") dans un autre. En principe, ça représente un schéma valable, et je ne connais pas la critique qui pourra l'exclure en tant que démarche scientifique. Si elle est acceptable, cependant, une mesure entièrement nouvelle de l'espace-temps doit être développée. J'ai sondé quelques suggestions que la physique pourrait offrir comme solution à ce genre de problème que vous rencontrez. Les résultats positifs, je le crains, sont maigres et décevants, mais peut-être que cela vaut-il quand même une vraie étude. Mais pourquoi, voudrai-je maintenant demander, est-il nécessaire d'importer vers une nouvelle discipline tous les concepts approuvés d'une ancienne science à son stade actuel de développement? La physique n'adhère pas servilement aux formulations grecques rationalistes qui l'ont précédé, il a bien fallu créer nos propres constructions spécifiques.

Le parapsychologue, je pense ... doit voler de ses propres ailes et probablement de manière plus audacieuse que ce que les conditions que la physique d'aujourd'hui suggèrent - et aussi tolérer sans trop de souci les voix stridentes et critiques des scientifiques "hard-boiled", pragmatiques et satisfaits, et ainsi continuer sa propre recherche minutieuse vers une meilleure compréhension via de nouvelle sortes d'expériences, peut-être aussi avec des concepts qui apparaissent étranges. Nous sommes entourés de phénomènes que l'existence nous fait soigneusement ignorer, ou, s'ils ne peuvent pas être ignorés, nous les rejetons comme des superstitions. L'homme du XIIIe siècle ne se rendait pas compte qu'il était entouré de forces magnétiques. Nous n'avons donc pas la conscience sensorielle directe de beaucoup de manifestations, ni des douches de neutrinos qui nous traversent, ni d'autres "influences" inconnues. Donc, nous pourrions tout aussi bien écouter les conseils de Margenau et créer nos propres constructions "spécifiques", supposant que nous vivons plongés dans une sorte de "psycho-champ magnétique" qui produit des évènements confluentiels... tout ceci par des moyens qui dépassent les concepts classiques de la physique. Des buts et leur conception qui nous sont inconnus certes, mais nous estimons qu'il doivent être en quelque sorte liés à un effort vers une forme supérieure de l'ordre et de l'unité dans toute cette diversité que nous observons au travers de notre appréciation de l'évolution de l'univers dans son ensemble, de la vie sur terre, de la conscience humaine et, enfin, de la science et de l'art.

Un mystère "plus haut d'un cran" est plus facile à accepter qu'une litière de puzzles indépendants. Cela n'explique pas pourquoi le scarabée est apparu à la fenêtre, mais au moins on pourra l'adapter aux évènements confluentiels et autres phénomènes paranormaux d'une conception unifiée. Il ya, cependant, un aspect profondément troublant à ces phénomènes. Les évènements paranormaux sont rares, imprévisible et capricieux. C'est comme nous l'avons vu, la principale raison pour laquelle les sceptiques se sentent en droit de rejeter les résultats des cartes devinées et autres expériences de psychokinésie, en dépit de preuves statistiques qui, dans tout autre domaine de la recherche, suffiraient à prouver cette hypothèse. Une des raisons du caractère erratique de l'ESP a déjà été mentionnée : notre incapacité à contrôler les processus inconscients sous-jacents. Les expériences de Grey Walter n'étaient pas concernées par l'ESP, mais il a bien dû se rendre compte que la "vague de préparation" ne pouvait atteindre le seuil suffisant que si le sujet était dans un état décrit comme "un composé paradoxal de détachement et d'excitation".

Les expériences paranormales spontanées sont toujours liées à un certain type d'auto-transcendance de l'émotion, comme dans les rêves télépathiques ou lors de transe médiumnique. Même dans le laboratoire, où là aussi le rapport affectif entre l'expérimentateur et le sujet est d'une importance décisive. L'intérêt du sujet dans le mystère de l'ESP en lui-même évoque une émotion auto-transcendante. Lorsque que son intérêt baisse à la fin d'une longue séance ESP, il mpntre un déclin caractéristique du nombre de "hits" sur la feuille de score. Cet "effet de déclin" peut être considéré comme une preuve supplémentaire de la réalité de l'ESP. Il y a aussi une diminution globale de la performance de la plupart des sujets après une longue série de séances. Ils s'ennuient. Les compétences les plus normales s'améliorent avec la pratique. Avec l'ESP c'est le contraire.

Un autre argument relatif à la rareté apparente des phénomènes paranormaux a été présentée par le regretté professeur Broad dans un article de philosophie: "Si la cognition paranormale et la causalité sont des faits paranormaux, il est alors fort probable que cela ne se limite pas à ces très rares occasions pendant lesquelles elles se manifestent sporadiquement, ou de façon spectaculaire, ou dans des conditions très particulières pendant lesquelles leur présence peut être expérimentalement établie. Ces phénomènes pourraient très bien être en fonction continue en arrière-plan de nos vies normales. Notre compréhension et nos malentendus avec nos semblables, notre humeur, l'émotionnel général en certaines occasions, les idées qui surgissent soudainement dans nos esprits sans aucune cause évidente introspectable; nos réactions émotionnelles inexplicables immédiates vis à vis de certaines personnes... et ainsi de suite, tout cela pourrait être en partie déterminé par une meilleure connaissance du paranormal et autres influences causales paranormales."

Collègue du professeur Broad à Oxford, le professeur Price a ajouté cette suggestion intéressante en ce qui concerne le caprice apparent des ESP: "Il semble que les impressions reçues par télépathie ont quelques difficultés à franchir un seuil pour se manifester à la conscience. Il semble qu'il y ait une barrière ou un mécanisme répressif qui tende à les exclure de la conscience, une barrière qui est assez difficile à passer, même si on fait usage de toutes sortes d'appareils pour la surmonter. Parfois, en ayant recours aux mécanismes musculaires du corps, ou en les faisant émerger sous forme de parole ou d'écriture automatique. Parfois, ces phénomènes apparaissent sous forme de rêves, parfois d'hallucinations visuelles ou auditives. Et souvent, ils peuvent émerger sous un aspect déformé et symbolique (comme d'autres contenus mentaux inconscients le font). Il est plausible que beaucoup de nos pensées quotidiennes et d'émotions soient télépathes, ou en partie d'origine télépathique, mais elles ne sont pas reconnues comme telles car elles sont trop déformées et mélangées avec d'autres contenus mentaux en franchissant le seuil de la conscience.

Adrian Dobbs, commentant ce passage, a soulevé un point important dans un texte très intéressant et suggestif. Il évoque l'image de l'âme ou du cerveau comme contenants un assemblage de filtres sélectifs, conçus pour couper les signaux indésirables à des fréquences voisines, dont certaines parviendraient sous une forme déformée, exactement comme dans une réception radio ordinaire. La "théorie du filtre", comme on pourrait l'appeler, remonte en fait à Henri Bergson. Elle a été reprise par divers auteurs sur la perception extra-sensorielle. Il s'agit en fait simplement d'une extrapolation de ce que nous savons au sujet de la perception sensorielle ordinaire. Nos principaux organes des sens sont comme des fentes qui admettent seulement une gamme de fréquence très étroite d'ondes électromagnétiques et sonores. Mais même la quantité d'infos qui entrent par ces fentes étroites, c'est déjà trop. La vie serait impossible si nous devions prêter attention aux millions de stimuli qui bombardent nos sens - ce que William James a appelé "l'épanouissement de la multitude du bourdonnement des sensations". Ainsi, le système nerveux, et surtout le cerveau, fonctionnent comme une hiérarchie de filtrages et de classifications de dispositifs qui éliminent une grande partie de nos entrées sensorielles sous forme de " bruits" non pertinents", pour traiter les bonnes informations sous forme gérable avant qu'elles ne soient présentées à la conscience.

Un exemple souvent cité de ce processus de filtrage est le "phénomène cocktail" qui nous permet d'isoler une seule voix dans le bourdonnement général. Par analogie, un mécanisme de filtrage similaire peut être supposé nous protéger de la floraison et de la multitude de bourdonnement des images, des messages, des impressions et des événements confluentiels du "psycho-champ magnétique" qui nous entoure. Comme il s'agit d'un point de grande importance pour essayer de comprendre pourquoi les phénomènes paranormaux se présentent dans ces formes inexplicables et arbitraire, je vais livrer quelques citations plus pertinentes sur ce sujet. Ainsi le psychiatre James S. Hayes, écrivant dans The Scientist, spécule: Je pense depuis longtemps que les questions classiques posées sur la télépathie ("Cela se passe-t'il" et si oui, "comment?") sont moins susceptibles d'être fructueuses que cette question: "Si la télépathie existe, qu'est-ce qui l'empêche de se produire plus ? Comment l'esprit (ou le cerveau) se protègent-ils contre l'afflux potentiel de l'expérience des autres? "

Et Sir Cyril Burt, à nouveau: La conception naturelle qu'a l'homme de l'univers, ou plutôt de la partie étroite à laquelle il a accès, est celle d'un monde d'objets tangibles de taille moyenne, se déplaçant à des vitesses modérées de manière visible en trois dimensions, réagissant à l'impact de forces de contact (le push et pull de simples interactions mécaniques), le tout en conformité avec des lois relativement simples. Jusqu'à tout récemment la conception de l'univers adoptée par le chercheur, son critère de la réalité, était celui de l'Incrédulité de saint Thomas : "ce qui peut être vu ou touché". Pourtant, supputer que sur une telle base que nous pourrions construire une image complète et comprise de l'univers c'est comme supposer que le plan d'une rue de Rome nous dirait ce à quoi la Ville Eternelle ressemblerait.

La nature semble avoir travaillé sur un principe identique. Nos organes des sens et notre cerveau fonctionnent comme une sorte de filtre complexe qui limite et dirige les pouvoirs de clairvoyance de l'esprit, de sorte que dans des conditions normales notre attention soit concentrée seulement sur des objets ou des situations qui sont d'une importance biologique pour la survie de l'organisme et de l'espèce.

En règle générale, il semblerait que l'esprit rejette les idées venant d'un autre esprit comme le corps rejette les greffes provenant d'un autre corps. Burt résume son point de vue, en nous rappelant que la physique contemporaine reconnaît quatre types d'interactions (forte, faible, électromagnétique et gravitationnelle), dont chacune obéit à ses propres lois, et, jusqu'à présent en tout cas, ce modèle a vaincu toutes les tentatives de le réduire à autre chose. Cela étant, il ne peut y avoir aucun antécédent improbable qui nous interdise de postuler un autre système et/ou un autre type d'interaction, en attendant une enquête plus intensive. Un univers psychique composé d'événements ou d'entités liées par des interactions psychiques, obéissant à des lois qui leur sont propres et qui interpénètrent l' univers physique et le chevauchent partiellement, tout comme les diverses interactions déjà découvertes et reconnues se chevauchent les unes les autres. (2e partie)

Auteur: Koestler Arthur

Info: Internet et Roots of coïncidence

[ Holon ] [ corps-esprit ] [ intégratif ] [ spectre continu ] [ dépaysement moteur ]

 

Commentaires: 0