Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 105
Temps de recherche: 0.0637s

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

visionnaire

Initiateur de l'astronautique, Constantin Tsiolkolvski était un grand rêveur. Un peu fou, un peu naïf, il s'est souvent égaré et a commis beaucoup d'erreurs. Mais il a eu le courage de rêver à ce à quoi d'autres n'auraient même pas osé penser. Qui, au temps de la Première Guerre mondiale, aurait pu rêver à des vols sur la Lune, au génie génétique, à la résurrection des morts ? Un seul, Tsiolkovski.

Sa vie débuta dans la tragédie. Encore jeune enfant, Tsiolkovski fut atteint de la scarlatine. Sa maladie fut suivie de complication et il devint sourd. C'est la raison pour laquelle il n'a pas reçu d'éducation traditionnelle. Le grand savant fut autodidacte. Il apprit très tôt à lire. Plus que tout au monde, il aimait lire et inventer. Il pouvait lire et inventer des jours entiers. Tour à charioter, petites maisons, horloges à pendant, automobiles miniatures…

En dépit de sa surdité, il ne se considérait en aucune façon diminué. Au contraire. Quand Tsiolkovski est tombé amoureux pour la première fois, il écrivit à la jeune fille en question la lettre suivante : "Je suis un grand homme qu'il n'y avait pas encore eu et qu'il n'y aura plus ". Pour ce qui est de l'opinion qu'il avait de lui-même, il n'avait pas de problème.

A 16 ans, il partit étudier à Moscou. Il passait des heures dans les bibliothèques, ne mangeait pas. Il vivait avec 10 roubles pour le mois. Enfin il passa avec succès ses examens pour être professeur d’arithmétique. Il ne cessa pourtant pas d'inventer. Il travaillait sur des quantités innombrables de théories et les envoyait à des magazines. Au début, il inventa une étrange théorie de "zéro agité" qui prouvait l'inutilité de la vie humaine.

Puis il travailla sur une théorie des gaz et l'envoya à Mendeleev. Celui-ci félicita le jeune savant mais lui écrivit qu'en réalité, la théorie des gaz avait déjà été découverte 25 ans auparavant.

Cinq idées de Constantin Tsiolkovski qui anticipèrent la conquête spatiale

Il travaillait à ses inventions presque quotidiennement. Dans un court laps de temps, il inventa : l'aérostat, les échasses, la signalisation interplanétaire, le chauffage solaire, un rafraîchisseur de chambre, la machine à écrire, son propre système de mesures et même un alphabet commun à tous. Il parvint même a déposer un brevet pour quelques unes de ces inventions, mais Tsiolkovski ne perçut jamais d'argent. Une fois quelqu'un voulut le payer 500 roubles mais le facteur ne put trouver son adresse. On ne l'a donc pas payé. A 30 ans, Tsiolkovski devint, à sa grande surprise, écrivain. Il se mit à écrire un récit de science-fiction à propos de la Lune. Avec des détails tels qu'on croirait qu'il y était allé. Gagarine racontera plus tard que ce qu'il a vu dans le cosmos ressemblait beaucoup aux descriptions de Tsiolkovski. Il a aussi décrit avec force détails l'apesanteur dans ses livres. Mais d'où a-t-il bien pu le tenir ?

Personne ne le prenait au sérieux. On le prenait pour un citadin fou. Et lui-même se comportait comme un original. Il dépensait tout son salaire dans les livres et les réactifs. Avec les enfants il faisait voler des serpents en papier, faisait du patin avec un parapluie. Avec celui-ci, il prenait de la vitesse avec le vent arrière. Les chevaux de ferme fuyaient ses parapluies, les paysans juraient. Mais Tsiolkovski n'en avait cure. Il était sourd et n'entendait pas les jurons.

Tsiolkovski croyait que la matière inanimée avait une âme. Le vivant et le non-vivant, c'est une chose. Il n'y a pas de mort, il n'y a qu'un seul univers, il n'y a pas de frontière entre les mondes... La philosophie étonnante de Tsiolkovski frôle quelques fois le délire et quelques fois est proche d'une vison géniale. Par exemple, il découvrit que la forme géométrique idéale pour l'homme est la sphère. C'est pourquoi tout le monde aura, dans l'avenir, la forme d'une sphère. Il croyait aussi au clonage. Le génie vers le génie, le talent vers le talent, c'est comme cela que l'on peut améliorer la race humaine.

Mais qui se serait souvenu de Tsiolkovski s'il n'avait consacré son temps qu'à ses folies et à sa philosophie de chambre ? Il a donné naissance à plusieurs idées réellement fondamentales. Le satellite artificiel de la Terre, la fusée multiple, le moteur nucléaire... Étonnamment, tout cela fut fait avec désintéressement. Aucune base scientifique, aucun espoir de réaliser ces idées... Les premiers avions se sont écrasés les uns après les autres, et il écrivit : "je suis sûr que les voyages interplanétaires deviendront réalité. Les héros et les braves poseront les premières routes aériennes : la Terre est l'orbite de la lune, la Terre est l'orbite de Mars et pour aller plus loin, Moscou est la Lune et Kalouga est Mars..."

Tsiolkovski a avoué une fois à ses élèves qu'il conversait avec les anges. Les anges, selon sa conception, sont des êtres raisonnables supérieurs, bien plus parfaits que les gens. Les gens , dans l'avenir, devront se transformer en anges. Viendra le jour où l'humanité s'unira au cosmos, deviendra immortelle et se transformera en énergie cosmique.

Il marchait dans les rues de Kalouga avec un air attristé. De temps en temps il s'asseyait par terre et réfléchissait longuement, le dos contre le tronc d'un arbre … De l'extérieur, il ressemblait à un messager d'autres mondes. Ou bien à un homme venu du futur qui se serait retrouvé par erreur dans la Russie des années 1920.

Après sa mort, on commença à l'appeler père de l'aéronautique soviétique. Le grand constructeur Sergueï Korolev s'empara de ses idées et les développa. Bien sûr, il s'en serait sorti même sans l'aide de Tsiolkovski. Tous les calculs furent vérifiés par des savants. Mais ce n'étaient des savants, alors que lui était un rêveur. Sans lui ils ne seraient arrivés à rien. Il existe beaucoup de savants, mais il n'y a que très peu de rêveurs géniaux. De gens capables de converser avec les anges dans leur propre langue.

Auteur: Shenkman Yan

Info: Tsiolkovski : le savant qui conversait avec les anges, 4 avril 2014

[ personnage ] [ surdité ]

 

Commentaires: 0

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel

palier évolutif

Découverte d’une nouvelle forme de vie née de la fusion d’une bactérie avec une algue

Ayant eu lieu il y a 100 millions d’années, il s’agit seulement du troisième cas connu de ce phénomène.

(Image - La forme de vie née de la fusion entre l'algue Braarudosphaera bigelowii et la cyanobactérie UCYN-A."

Des chercheurs ont découvert une forme de vie de nature extrêmement rare née de la fusion d’une algue avec une bactérie fixatrice d’azote il y a 100 millions d’années. Appelé endosymbiose primaire, le phénomène se produit lorsqu’un organisme en engloutit un autre pour faire de celui-ci un organite, à l’instar des mitochondries et des chloroplastes. Il s’agit du troisième cas recensé d’endosymbiose. Il pourrait ouvrir la voie à une production plus durable d’azote pour l’agriculture.

Au cours des 4 milliards d’années de vie sur Terre, seulement deux cas d’endosymbiose primaire étaient connus jusqu’ici. La première s’est produite il y a 2,2 milliards d’années, lorsqu’une archée a absorbé une bactérie pour l’intégrer dans son arsenal métabolique en la convertissant en mitochondrie. Cette étape constitue une phase majeure dans l’évolution de tous les organismes sur Terre, leur permettant notamment d’évoluer vers des formes plus complexes.

(Photo : Des mitochondries dans une cellule.)

La seconde endosymbiose primaire connue s’est produite il y a 1,6 milliard d’années, lorsque des organismes unicellulaires ont absorbé des cyanobactéries capables de convertir la lumière en énergie (photosynthèse). Ces bactéries sont devenues les chloroplastes que les plantes chlorophylliennes utilisent encore à ce jour pour convertir la lumière du Soleil en énergie.

D’un autre côté, on pensait que seules les bactéries pouvaient extraire l’azote atmosphérique et le convertir en une forme utilisable (en ammoniac) pour le métabolisme cellulaire. Les plantes pouvant fixer l’azote (comme les légumineuses) effectuent ce processus en hébergeant ces bactéries au niveau de leurs nodules racinaires.

La découverte de l’équipe du Berkeley Lab bouleverse cette notion avec le premier organite capable de fixer de l’azote et intégré dans une cellule eucaryote (une algue marine). " Il est très rare que des organites résultent de ce genre de choses ( endosymbiose primaire ) ", explique Tyler Coale de l’Université de Californie à Santa Cruz, dans un communiqué du Berkeley Lab. " La première fois que cela s’est produit à notre connaissance, cela a donné naissance à toute vie complexe. Tout ce qui est plus compliqué qu’une cellule bactérienne doit son existence à cet événement ", a-t-il déclaré, en faisant référence aux origines des mitochondries. Le nouvel organite, décrit dans deux études publiées dans les revues Cell Press et Science, est baptisé " nitroplaste ".

Un organite à part entière

La découverte de l’organite a nécessité plusieurs décennies de travail. En 1998, les chercheurs ont identifié une courte séquence d’ADN qui semblait provenir d’une cyanobactérie fixatrice d’azote (UCYN-A) abondante dans le Pacifique. D’un autre côté, une autre équipe de l’Université de Kochi (au Japon) a identifié une algue marine (Braarudosphaera bigelowii) qui semblait être l’hôte symbiotique de la bactérie. En effet, l’ADN de cette dernière a été découvert en importante quantité dans les cellules de l’algue.

Alors que les chercheurs considéraient l’UCYN-A comme un simple endosymbiote de l’algue, les deux nouvelles études suggèrent qu’elle a co-évolué avec son hôte de sorte à devenir un organite à part entière. En effet, après plus de 300 expéditions, l’équipe japonaise est parvenue à isoler et cultiver l’algue en laboratoire. Cela a permis de montrer que le rapport de taille entre les UCYN-A et leurs algues hôtes est similaire d’une espèce à l’autre.

D’autre part, les chercheurs ont utilisé un modèle informatique pour analyser la croissance de la cellule hôte et de la bactérie par le biais des échanges de nutriments. Ils ont constaté que leurs métabolismes sont parfaitement synchronisés, ce qui leur permettrait de coordonner leur croissance. " C’est exactement ce qui se passe avec les organites ", explique Jonathan Zehr, de l’Université de Californie à Santa Cruz et coauteur des deux études. " Si vous regardez les mitochondries et le chloroplaste, c’est la même chose : ils évoluent avec la cellule ", ajoute-t-il.

Les experts ont également montré que la bactérie UCYN-A repose sur sa cellule hôte pour sa réplication protéique et sa multiplication. Pour ce faire, ils ont utilisé une technique d’imagerie à rayons X et une tomographie permettant d’observer les processus cellulaires en temps réel. " Nous avons montré grâce à l’imagerie à rayons X que le processus de réplication et de division de l’hôte algal et de l’endosymbiote est synchronisé ", indique Carolyn Larabell, du Berkeley Lab.

(Illustrations montrant les algues à différents stades de division cellulaire. UCYN-A, l’entité fixatrice d’azote désormais considérée comme un organite, est visible en cyan ; le noyau des algues est représenté en bleu, les mitochondries en vert et les chloroplastes en violet.)

Une quantification des protéines des deux organismes a aussi été réalisée. Il a été constaté qu’environ la moitié des protéines de l’UCYN-A est synthétisée par sa cellule hôte, qui les marque avec une séquence protéinique spécifique. Ce marquage permet ensuite à la cellule de les envoyer au nitroplaste, qui les importe et les utilise pour son propre métabolisme. " C’est l’une des caractéristiques de quelque chose qui passe d’un endosymbionte à un organite ", explique Zehr. " Ils commencent à éjecter des morceaux d’ADN, et leurs génomes deviennent de plus en plus petits, et ils commencent à dépendre de la cellule mère pour que ces produits génétiques soient transportés dans la cellule ".

Un potentiel pour une production d’azote plus durable

Les chercheurs estiment que les nitroplastes ont évolué il y a environ 100 millions d’années. Comme l’UCYN-A est présente dans presque tous les océans du monde, elle est probablement impliquée dans le cycle de l’azote atmosphérique. Cette découverte pourrait avoir d’importantes implications pour l’agriculture, le procédé industriel utilisé actuellement pour convertir l’azote atmosphérique en ammoniac (procédé Haber-Bosch) étant très énergivore. Ce dernier permet notamment d’assurer 50 % de la production alimentaire mondiale et est responsable d’environ 1,4 % des émissions carbone.

Toutefois, de nombreuses questions restent sans réponse concernant le nitroplaste et son hôte algal. En prochaine étape, les chercheurs prévoient ainsi de déterminer s’il est présent dans d’autres cellules ainsi que les effets que cela pourrait avoir. Cela pourrait permettre d’intégrer directement la fixation de l’azote dans les plantes de sorte à améliorer les récoltes. 



 

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano·19 avril 2024

[ symbiogénétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

nano-monde relatif

Une expérience quantique montre que la réalité objective n'existe pas

Les faits alternatifs se répandent comme un virus dans la société. Aujourd'hui, il semble qu'ils aient même infecté la science, du moins le domaine quantique. Ce qui peut sembler contre-intuitif. Après tout, la méthode scientifique est fondée sur les notions de fiabilité d'observation, de mesure et de répétabilité. Un fait, tel qu'établi par une mesure, devrait être objectif, de sorte que tous les observateurs puissent en convenir.

Mais dans un article récemment publié dans Science Advances, nous montrons que, dans le micro-monde des atomes et des particules régi par les règles étranges de la mécanique quantique, deux observateurs différents ont droit à leurs propres faits. En d'autres termes, selon nos  meilleures théories des éléments constitutifs de la nature elle-même, les faits peuvent en fait être subjectifs.

Les observateurs sont des acteurs puissants dans le monde quantique. Selon la théorie, les particules peuvent se trouver dans plusieurs endroits ou états à la fois - c'est ce qu'on appelle une superposition. Mais curieusement, ce n'est le cas que lorsqu'elles ne sont pas observées. Dès que vous observez un système quantique, il choisit un emplacement ou un état spécifique, ce qui rompt la superposition. Le fait que la nature se comporte de cette manière a été prouvé à de multiples reprises en laboratoire, par exemple dans la célèbre expérience de la double fente.

En 1961, le physicien Eugene Wigner a proposé une expérience de pensée provocante. Il s'est demandé ce qui se passerait si l'on appliquait la mécanique quantique à un observateur qui serait lui-même observé. Imaginez qu'un ami de Wigner lance une pièce de monnaie quantique - qui se trouve dans une superposition de pile ou face - dans un laboratoire fermé. Chaque fois que l'ami lance la pièce, il obtient un résultat précis. On peut dire que l'ami de Wigner établit un fait : le résultat du lancer de la pièce est définitivement pile ou face.

Wigner n'a pas accès à ce fait de l'extérieur et, conformément à la mécanique quantique, il doit décrire l'ami et la pièce comme étant dans une superposition de tous les résultats possibles de l'expérience. Tout ça parce qu'ils sont " imbriqués " - connectés de manière effrayante au point que si vous manipulez l'un, vous manipulez également l'autre. Wigner peut maintenant vérifier en principe cette superposition à l'aide d'une "expérience d'interférence", un type de mesure quantique qui permet de démêler la superposition d'un système entier, confirmant ainsi que deux objets sont intriqués.

Lorsque Wigner et son ami compareront leurs notes par la suite, l'ami insistera sur le fait qu'ils ont observé des résultats précis pour chaque lancer de pièce. Wigner, cependant, ne sera pas d'accord lorsqu'il observera l'ami et la pièce dans une superposition. 

Voilà l'énigme. La réalité perçue par l'ami ne peut être réconciliée avec la réalité extérieure. À l'origine, Wigner ne considérait pas qu'il s'agissait d'un paradoxe, il affirmait qu'il serait absurde de décrire un observateur conscient comme un objet quantique. Cependant, il s'est ensuite écarté de cette opinion. De plus et, selon les canons officiels de mécanique quantique, la description est parfaitement valide.

L'expérience

Le scénario demeura longtemps une expérience de pensée intéressante. Mais reflètait-t-il la réalité ? Sur le plan scientifique, peu de progrès ont été réalisés à ce sujet jusqu'à très récemment, lorsque Časlav Brukner, de l'université de Vienne, a montré que, sous certaines hypothèses, l'idée de Wigner peut être utilisée pour prouver formellement que les mesures en mécanique quantique sont subjectives aux observateurs.

Brukner a proposé un moyen de tester cette notion en traduisant le scénario de l'ami de Wigner dans un cadre établi pour la première fois par le physicien John Bell en 1964.

Brukner a ainsi conçu deux paires de Wigner et de ses amis, dans deux boîtes distinctes, effectuant des mesures sur un état partagé - à l'intérieur et à l'extérieur de leur boîte respective. Les résultats pouvant  être récapitulés pour être finalement utilisés pour évaluer une "inégalité de Bell". Si cette inégalité est violée, les observateurs pourraient avoir des faits alternatifs.

Pour la première fois, nous avons réalisé ce test de manière expérimentale à l'université Heriot-Watt d'Édimbourg sur un ordinateur quantique à petite échelle, composé de trois paires de photons intriqués. La première paire de photons représente les pièces de monnaie, et les deux autres sont utilisées pour effectuer le tirage au sort - en mesurant la polarisation des photons - à l'intérieur de leur boîte respective. À l'extérieur des deux boîtes, il reste deux photons de chaque côté qui peuvent également être mesurés.

Malgré l'utilisation d'une technologie quantique de pointe, il a fallu des semaines pour collecter suffisamment de données à partir de ces seuls six photons afin de générer suffisamment de statistiques. Mais finalement, nous avons réussi à montrer que la mécanique quantique peut effectivement être incompatible avec l'hypothèse de faits objectifs - nous avions violé l'inégalité.

La théorie, cependant, repose sur quelques hypothèses. Notamment que les résultats des mesures ne sont pas influencés par des signaux se déplaçant à une vitesse supérieure à celle de la lumière et que les observateurs sont libres de choisir les mesures à effectuer. Ce qui peut être le cas ou non.

Une autre question importante est de savoir si les photons uniques peuvent être considérés comme des observateurs. Dans la proposition de théorie de Brukner, les observateurs n'ont pas besoin d'être conscients, ils doivent simplement être capables d'établir des faits sous la forme d'un résultat de mesure. Un détecteur inanimé serait donc un observateur valable. Et la mécanique quantique classique ne nous donne aucune raison de croire qu'un détecteur, qui peut être conçu comme aussi petit que quelques atomes, ne devrait pas être décrit comme un objet quantique au même titre qu'un photon. Il est également possible que la mécanique quantique standard ne s'applique pas aux grandes échelles de longueur, mais tester cela reste un problème distinct.

Cette expérience montre donc que, au moins pour les modèles locaux de la mécanique quantique, nous devons repenser notre notion d'objectivité. Les faits dont nous faisons l'expérience dans notre monde macroscopique semblent ne pas être menacés, mais une question majeure se pose quant à la manière dont les interprétations existantes de la mécanique quantique peuvent tenir compte des faits subjectifs.

Certains physiciens considèrent que ces nouveaux développements renforcent les interprétations qui autorisent plus d'un résultat pour une observation, par exemple l'existence d'univers parallèles dans lesquels chaque résultat se produit. D'autres y voient une preuve irréfutable de l'existence de théories intrinsèquement dépendantes de l'observateur, comme le bayésianisme quantique, dans lequel les actions et les expériences d'un agent sont au cœur de la théorie. D'autres encore y voient un indice fort que la mécanique quantique s'effondrera peut-être au-delà de certaines échelles de complexité.

Il est clair que nous avons là de profondes questions philosophiques sur la nature fondamentale de la réalité.

Quelle que soit la réponse, un avenir intéressant nous attend.

Auteur: Internet

Info: https://www.livescience.com/objective-reality-not-exist-quantum-physicists.html. Massimiliano Proietti et Alessandro Fedrizzi, 19 janvier 2022

 

Commentaires: 0

Ajouté à la BD par miguel

incipit

Il faut comprendre qu'ils n'étaient pas des rêveurs professionnels. Les rêveurs professionnels sont des talents très bien payés, respectés et très recherchés. Comme la majorité d'entre nous, ces sept personnes rêvaient sans effort ni discipline. Rêver professionnellement, de manière à ce que ses rêves puissent être enregistrés et diffusés pour le divertissement des autres, est une proposition beaucoup plus exigeante. Elle exige la capacité de réguler les impulsions créatives semi-conscientes et de stratifier l'imagination, une combinaison extraordinairement difficile à réaliser. Un rêveur professionnel est à la fois le plus organisé de tous les artistes et le plus spontané. Un tisseur subtil de spéculations, pas un simple et maladroit individu comme vous ou moi. Ou ces sept dormeurs.

De tous, Ripley était la plus proche de posséder ce potentiel particulier. Elle avait quelque talent de rêve enraciné et une plus grande souplesse d'imagination que ses compagnons. Mais elle manquait d'inspiration réelle et de la puissante maturité de pensée caractéristique du tisseur de rêves.

Elle était très douée pour organiser les magasins et les cargaisons, pour ranger le carton A dans la chambre de stockage B ou pour faire correspondre les bordereaux. C'était dans l'entrepôt de l'esprit que son système de classement fonctionnait mal. Espoirs et craintes, spéculations et demi-créations glissaient au hasard de compartiment en compartiment.

L'adjudant Ripley avait besoin de plus de maîtrise d'elle-même. Les pensées rococo brutes attendaient en vain d'être exploitées, juste à la frontière de la réalisation. Un peu plus d'effort, une plus grande intensité de reconnaissance de soi et elle aurait fait une assez bonne pro-rêveuse. C'est du moins ce qu'elle pensait parfois.

Le capitaine Dallas maintenant, il semblait paresseux tout en étant le mieux organisé de tous. Il ne manquait pas non plus d'imagination. Sa barbe en était la preuve. Personne n'en conservait en hibernation. Personne, sauf Dallas. C'était une partie de sa personnalité, avait-il expliqué à plus d'un coéquipier curieux. Il ne se séparait pas plus de l'antique duvet facial qu'il ne se séparait de toute autre partie de son anatomie. Dallas était le capitaine de deux navires : le remorqueur interstellaire Nostromo, et son corps. Tous deux restaient inchangés, tant en rêve qu'à l'état de veille. Il avait donc une bonne capacité de régulation et un minimum d'imagination. Mais un rêveur professionnel a besoin de beaucoup plus qu'un minimum de cette dernière ; et c'est une carence, qui ne peut être compensée par une quantité disproportionnée de la première. Dallas n'était pas plus apte que Ripley en matière de tissage de rêve.

Kane était moins contrôlé que Dallas en terme d'action et de pensée aride et il possédait beaucoup moins d'imagination. C'était un bon dirigeant. Mais il ne deviendrait jamais capitaine. Il faut pour ça une certaine motivation et la capacité de commander les autres, deux qualités dont Kane n'avait pas la chance de bénéficier. Ses rêves étaient des ombres translucides et informe par rapport à ceux de Dallas, tout comme Kane était un écho plus fin et moins vibrant du capitaine. Cela ne le rendait pas moins sympathique. Mais faire tisseur de rêve exige une forme de surcroît d'énergie, et Kane en avait à peine assez pour la vie de tous les jours.

Les rêves de Parker n'étaient pas déplacés, mais ils étaient moins pastoraux que ceux de Kane. Il y avait peu d'imagination dans ces rêves. Ils étaient trop spécialisés et ne traitaient que rarement des choses humaines. On ne pouvait rien attendre d'autre d'un ingénieur de bord. Ils étaient directs, et parfois laids. A l'état de veille, ces restes profondément enfouis se montraient rarement lorsque l'ingénieur s'irritait ou se mettait en colère. La majeure partie du suintement et du mépris qui fermentait au fond de la citerne de son âme était bien cachée. Ses compagnons n'en avaient jamais vu flotter au-dessus ou au-delà de la distillerie Parker, personne n'avait jamais eu un aperçu de ce qui bouillonnait et brassait au fond de cette cuve.

Lambert était plus inspiration pour rêveurs que rêveuse elle-même. En hyper-sommeil, ses rêveries agitées étaient remplies de tracés inter-systèmes et de facteurs de charge annulés par des considérations de carburant. Il arrivait que l'imagination entre dans de telles structures de rêve, mais jamais d'une manière qui puisse faire couler le sang des autres.

Parker et Brett imaginaient souvent leurs propres systèmes en train de s'interpénétrer avec les siens. Ils considéraient la question des facteurs de charge et des juxtapositions spatiales d'une manière qui aurait exaspéré Lambert si elle en avait été consciente. Réflexions non autorisées qu'ils gardaient pour eux, enfermés dans leurs rêves diurnes ou nocturnes, de peur qu'ils ne la mettent de mauvaise humeur. Même si cela ne lui aurait pas fait de malt. Mais en tant que navigatrice du Nostromo, elle était la principale responsable de leur retour à la maison, et c'était la plus importante et la plus souhaitable des collaborations qu'un homme puisse imaginer.

Brett n'était répertorié que comme technicien en ingénierie. C'était une façon de dire qu'il était aussi intelligent et compétent que Parker, mais qu'il manquait d'ancienneté. Les deux hommes formaient une paire étrange, inégale et totalement différente pour des gens non avertis. Pourtant, ils coexistaient et fonctionnaient ensemble en douceur. Leur succès comme amis et collègues était dû en grande partie au fait que Brett ne s'était jamais immiscé dans la vie mentale de Parker. Le technard était aussi solennel et flegmatique dans sa façon de voir et de parler que Parker était volubile et instable. Parker pouvait râler pendant des heures sur la défaillance d'un circuit de micro-puce, renvoyant ses ancêtres à la terre dont les constituants de terre rare avaient été extraits. Alors que Brett ponctuait placide : "right".

Pour Brett, ce seul mot était bien plus qu'une simple déclaration d'opinion. C'était une affirmation de soi. Pour lui, le silence était la forme de communication la plus propre. Dans la loquacité résidait le délire.

Et puis il y avait Ash. Ash était l'officier scientifique, mais ce n'était pas ce qui rendait ses rêves si drôles : particulièrement drôles, super drôles ha-ha ! Ses rêves étaient les plus professionnellement organisés de tout l'équipage. De tous, c'est celui qui se rapprochait le plus de son état éveillé. Les rêves de Ash ne contenaient absolument aucune illusion.

Ce n'était pas surprenant si vous connaissiez vraiment Ash. Mais aucun de ses six coéquipiers ne le connaissait. Mais lui, Ash, se connaissait bien. Si on lui avait demandé, il aurait pu vous dire pourquoi il n'avait jamais pu devenir tisseur de rêves. Personne n'avait jamais pensé à lui demander, malgré le fait que l'officier scientifique ait bien montré combien le tissage de rêves semblait plus fascinant pour lui que pour n'importe lequel d'entre eux.

Oh, et il y avait aussi le chat. Il s'appelait Jones. Un chat domestique très ordinaire, ou, dans ce cas, un chat de vaisseau. Jones était un gros matou jaune aux origines incertaines et à la personnalité indépendante, depuis longtemps habitué aux aléas des voyages spatiaux et aux particularités des humains qui voyageaient dans l'espace. Il dormait lui aussi d'un sommeil froid et faisait de simples rêves de lieux chauds et sombres et de souris soumises à la gravité.

De tous les rêveurs à bord, il était le seul à être satisfait, bien qu'on ne puisse pas le qualifier d'innocent.

Il est dommage qu'aucun d'entre eux n'ait eu la qualification de tisseur de songes, car chacun d'eux disposait de plus de temps pour rêver dans le cadre de son travail que n'importe quelle douzaine de professionnels, ceci malgré le ralentissement de leur rythme de rêve par le sommeil froid. Tout ça de par la nécessité de leur principale occupation, le rêve. Un équipage de l'espace lointain ne peut rien faire dans les congélateurs, si ce n'est dormir et rêver. Ils resteraient peut-être à jamais des amateurs, mais ils étaient depuis longtemps devenus très compétents.

Ils étaient sept. Sept rêveurs tranquilles à la recherche d'un cauchemar.

Bien qu'il possède une sorte de conscience, le Nostromo ne rêvait pas. Il n'en avait pas besoin, pas plus qu'il n'avait besoin de l'effet de conservation des congélateurs. S'il rêvait, ces rêveries devaient être brèves et fugaces, car il ne dormait jamais. Il travaillait, entretenait, et faisait en sorte que son complément humain en hibernation ait toujours une longueur d'avance sur une mort, toujours prête, qui suivait le sommeil froid comme un vaste requin gris derrière un navire en mer.

Les preuves de la vigilance mécanique incessante du Nostromo se trouvaient partout sur le navire silencieux, dans les doux bourdonnements et les lumières qui formaient une sensibilité instrumentale qui imprégnait le tissu même du vaisseau, prolongeait les capteurs pour vérifier chaque circuit et chaque jambe de force. Elle avait aussi des capteurs à l'extérieur, surveillant le pouls du cosmos. Les capteurs s'étaient fixés sur une anomalie électromagnétique.

Une partie du cerveau de Nostromo était particulièrement habile à extraire le sens des anomalies. Il avait soigneusement mâché celle-ci, trouvé le goût déroutant, examiné les résultats de l'analyse et pris une décision. Des instruments endormis furent activés, des circuits dormants régulèrent à nouveau le flux d'électrons. Pour célébrer cette décision, des banques de lumières brillantes clignotèrent, signes de vie d'une respiration mécanique agitée.

Un bip sonore caractéristique retentit, bien qu'il n'y ait encore que des tympans artificiels pour entendre et reconnaître. C'était un son que l'on n'avait plus entendu sur le Nostromo depuis un certain temps, et il signifiait un événement peu fréquent.

Au milieu de tous ces clics et ces flashs, dispositifs qui conversent entre eux, se trouvait une pièce spéciale. Dans enceinte de métal blanc se trouvaient sept cocons métal-plastique de couleur neige.

Un nouveau bruit emplit la pièce, une expiration explosive la remplissait d'une atmosphère fraîchement nettoyée et respirable. L'humanité s'était volontairement placée dans cette position, faisant confiance à de petits dieux de fer blanc comme le Nostromo pour lui fournir le souffle de vie quand elle ne pouvait pas le faire elle-même. Des extensions de cet électronique mi-sensible testaient maintenant l'air nouvellement exsudé et le déclarèrent satisfaisant pour maintenir la vie de ces organismes minables, les hommes. D'autres lumières s'allumèrent, d'autres connexions se fermèrent. Sans fanfare, les couvercles des sept chrysalides s'ouvrirent, et les formes de chenilles qui s'y trouvaient commencèrent à émerger dans la lumière.

Auteur: Foster Alan Dean

Info: Alien, le 8e passager, Chapitre 1 : Sept rêveurs. Trad Mg. Il fut demandé à Foster, après le grand succès du film, d'en faire un livre.

[ novélisation ] [ science-fiction ] [ galerie de personnages ] [ maîtrise du rêveur ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

capitalisme

Les élites ne nous sauveront pas
L’attaque, qui dure depuis quatre décennies contre nos institutions démocratiques par les grandes entreprises, les a laissé faibles et largement dysfonctionnelles. Ces institutions, qui ont renoncé à leur efficacité et à leur crédibilité pour servir les intérêts des entreprises, auraient dû être notre pare-feu. Au lieu de quoi, elles chancellent sous l’assaut.
Les syndicats sont une force du passé. La presse est transformée en industrie et suscite la méfiance. Les universités ont été purgées des chercheurs dissidents et indépendants qui critiquent le néolibéralisme et dénoncent la décomposition des institutions démocratiques et des partis politiques. La radio-télévision publique et les arts ne sont plus financés et sont laissés moribonds. Les tribunaux ont été noyautés par des juges dont la carrière juridique s’est passé à servir le pouvoir des grandes sociétés, une tendance dans les nominations qui s’est poursuivie sous Barack Obama. L’argent a remplacé le vote, ce qui explique comment quelqu’un d’aussi non qualifié comme Betsy DeVos peut s’acheter un siège dans un ministère. Le parti démocrate, plutôt que de rompre ses liens avec Wall Street et les grandes entreprises, attend naïvement en coulisse de profiter d’une débâcle de Trump.
"Le plus grand atout de Trump est un parti démocrate décadent, désemparé, narcissique, inféodé aux entreprises et belliciste, m’a dit Ralph Nader lorsque je l’ai joint au téléphone à Washington. Si la stratégie démocrate est d’attendre Godot, attendre que Trump implose, nous sommes en difficulté. Et tout ce que vous dites des démocrates, vous pouvez aussi le dire de l’AFL-CIO [le principal regroupement syndical américain, NdT]. Ils ne contrôlent pas le train."
La perte de crédibilité dans les institutions démocratiques a jeté le pays dans une crise tant existentielle qu’économique. Des dizaines de millions de gens ne font plus confiance aux tribunaux, aux universités et à la presse, qu’ils voient avec raison comme les organes des élites des grandes sociétés. Ces institutions sont traditionnellement les mécanismes par lesquels une société est capable de démasquer les mensonges des puissants, de critiquer les idéologies dominantes et de promouvoir la justice. Parce que les Américains ont été amèrement trahis par leurs institutions, le régime de Trump peut attaquer la presse comme le "parti d’opposition", menacer de couper le financement des universités, se moquer d’un juge fédéral comme d’un "soi-disant juge" et dénoncer une ordonnance d’un tribunal comme "scandaleuse".
La dégradation des institutions démocratiques est la condition préalable à la montée de régimes autoritaires ou fascistes. Cette dégradation a donné de la crédibilité à un menteur pathologique. L’administration Trump, selon un sondage de l’Emerson College, est considérée comme fiable par 49% des électeurs inscrits tandis que les médias ne sont tenus pour fiables que par 39% des électeurs inscrits. Une fois que les institutions démocratiques américaines ne fonctionnent plus, la réalité devient n’importe quelle absurdité que publie la Maison Blanche.
La plupart des règles de la démocratie ne sont pas écrites. Ces règles déterminent le comportement public et garantissent le respect des normes, des procédures et des institutions démocratiques. Le président Trump, à la grande joie de ses partisans, a rejeté cette étiquette politique et culturelle.
Hannah Arendt, dans Les origines du totalitarisme, notait que lorsque les institutions démocratiques s’effondrent, il est "plus facile d’accepter des propositions manifestement absurdes que les anciennes vérités qui sont devenues de pieuses banalités". Le bavardage des élites dirigeantes libérales ["progressistes", NdT] sur notre démocratie est lui-même une absurdité. "La vulgarité, avec son rejet cynique des normes respectées et des théories admises", écrit-elle, infecte le discours politique. Cette vulgarité est "confondue avec le courage et un nouveau style de vie".
"Il détruit un code de comportement après l’autre, dit Nader de Trump. Il est rendu si loin dans cette façon de faire sans en payer le prix. Il brise les normes de comportement – ce qu’il dit des femmes, la commercialisation de la Maison Blanche, "je suis la loi"."
Nader m’a dit qu’il ne pensait pas que le parti républicain se retournera contre Trump ou envisagera la destitution, à moins que sa présidence ne semble menacer ses chances de conserver le pouvoir aux élections de 2018. Nader voir le parti démocrate comme "trop décadent et incompétent" pour contester sérieusement Trump. L’espoir, dit-il, vient des nombreuses protestations qui ont été organisées dans les rues, devant les mairies par les membres du Congrès et sur des points chauds comme Standing Rock. Il peut aussi venir des 2.5 millions de fonctionnaires du gouvernement fédéral si un nombre significatif d’entre eux refuse de coopérer avec l’autoritarisme de Trump.
"Le nouveau président est tout à fait conscient du pouvoir détenu par les fonctionnaires civils, qui prêtent serment d’allégeance à la constitution des États-Unis, et non à un président ou à une administration", écrit Maria J. Stephan, co-auteure de Why Civil Resistance Works dans le Washington Post. "L’un des premiers actes de Trump en tant que président a été un gel général du recrutement fédéral qui touche tous les nouveaux postes et les postes existants exceptés ceux liés à l’armée, à la sécurité nationale et à la sécurité publique. Même avant l’investiture de Trump, la Chambre des représentants dominée par les Républicains a réinstauré une obscure règle de 1876 qui autoriserait le Congrès à réduire les salaires des employés fédéraux individuels. C’était un avertissement clair à ceux qui sont au service du gouvernement de garder le profil bas. Le licenciement très médiatisé par Trump du procureur général par intérim Sally Yates, qui a refusé de suivre l’interdiction d’immigration du président, a envoyé des ondes de choc dans la bureaucratie."
Un soulèvement populaire, soutenu à l’échelle nationale, d’obstruction et de non-coopération non violente est la seule arme qui reste pour sauver la république. Les élites répondront une fois qu’elles auront peur. Si nous ne leur faisons pas peur, nous échouerons.
"La résilience des institutions démocratiques a été encourageante – les tribunaux, les manifestations, dit Nader. Trump se retourne contre lui-même. Il outrage les gens dans tout le pays sur la base de la race, du genre, de la classe, de la géographie, de ses mensonges, ses fausses déclarations, son narcissisme, son manque de connaissances, sa désinvolture et son désir morbide de répondre aux insultes avec des tweets. Il n’est pas un autocrate intelligent. Il s’affaiblit chaque jour. Il permet à l’opposition d’avoir plus d’effet que d’ordinaire."
"La plupart des chefs d’État dictatoriaux s’occupent d’idéologies abstraites – la patrie et ainsi de suite, poursuit Nader. Il n’en fait pas beaucoup sur ce plan. Il attaque personnellement, vise bas sur l’échelle de la sensualité. Vous êtes un faux. Vous êtes un perdant. Vous êtes un escroc. Cela pique davantage les gens, en particulier lorsqu’il le fait en se basant sur le genre, la race et la religion. Donald Trump est ce qu’il y a de mieux pour le réveil démocratique."
Nader dit que Trump sera pourtant capable de consolider son pouvoir si nous subissons un nouvel attentat terroriste catastrophique ou s’il y a une débâcle financière. Les régimes dictatoriaux ont besoin d’une crise, qu’elle soit réelle ou fabriquée, pour justifier la suspension totale des libertés civiles et exercer un contrôle incontesté.
"S’il y a un attentat terroriste apatride sur les États-Unis, il est capable de concentrer une quantité de pouvoir dans la Maison Blanche contre les tribunaux et contre le Congrès, avertit Nader. Il fera des boucs émissaires de ceux qui s’opposent à lui. […] Cela affaiblira toute résistance et toute opposition."
La tension entre la Maison Blanche de Trump et des segments de l’establishment, y compris les tribunaux, la communauté du renseignement et le Département d’État, a été mal interprétée comme une preuve que les élites veulent éloigner Trump du pouvoir. Si les élites peuvent établir des relations avec le régime de Trump pour maximiser leurs profits et protéger leurs intérêts personnels et de classe, elles supporteront volontiers l’embarras d’avoir un démagogue dans le bureau ovale.
L’État des grandes entreprises, ou l’État profond, n’a pas non plus d’engagement à l’égard de la démocratie. Ses forces ont évidé les institutions démocratiques pour les rendre impuissantes. La différence entre le pouvoir des entreprises et le régime de Trump est que le pouvoir des entreprises a cherché à maintenir la fiction de la démocratie, y compris la déférence polie accordée en public aux institutions démocratiques. Trump a effacé cette déférence. Il a plongé le discours politique dans les égouts. Trump ne détruit pas les institutions démocratiques. Elles avaient été détruites avant qu’il entre en fonction.
Même les régimes fascistes les plus virulents ont construit des alliances fragiles avec les élites conservatrices et d’affaires traditionnelles, qui considéraient souvent les fascistes comme maladroits et grossiers.
"Nous n’avons jamais connu un régime fasciste idéologiquement pur", écrit Robert O. Paxton dans The Anatomy of Fascism. "En effet, la chose semble à peine possible. Chaque génération de chercheurs sur le fascisme a noté que les régimes reposaient sur une sorte de pacte ou d’alliance entre le parti fasciste et des forces conservatrices puissantes. Au début des années 1940, le réfugié social-démocrate Franz Neumann a soutenu dans son classique Behemoth qu’un ‘cartel’ formé du parti, de l’industrie, de l’armée et de la bureaucratie régnait sur l’Allemagne nazie, tenu ensemble uniquement par ‘le profit, le pouvoir, le prestige et, surtout, la peur’."
Les régimes fascistes et autoritaires sont gouvernés par de multiples centres de pouvoir qui sont souvent en concurrence les uns avec les autres et ouvertement antagonistes. Ces régimes, comme l’écrit Paxton, reproduisent le "principe du chef" de manière à ce qu’il "descende en cascade le long de la pyramide sociale et politique, créant une foule de petits Führer et Duce en état de guerre hobbesienne de tous contre tous."
Les petits Führer et Duce sont toujours des bouffons. Des démagogues aussi plastronnant ont consterné les élites libérales dans les années 1930. Le romancier allemand Thomas Mann a écrit dans son journal deux mois après l’arrivée des nazis au pouvoir qu’il avait assisté à une révolution "sans idées qui la fondaient, contre les idées, contre tout ce qui est plus noble, meilleur, décent, contre la liberté, la vérité et la justice". Il déplorait que la "lie commune" ait pris le pouvoir "accompagnée de la grande joie d’une bonne partie des masses". Les élites d’affaires en Allemagne n’ont peut-être pas aimé cette "lie", mais elles étaient disposées à travailler avec elle. Et nos élites d’affaires feront la même chose aujourd’hui.
Trump, un produit de la classe des milliardaires, conciliera ces intérêts privés, parallèlement à la machine de guerre, pour construire une alliance mutuellement acceptable. Les laquais au Congrès et dans les tribunaux, les marionnettes des grandes entreprises, seront, je m’y attends, pour la plupart dociles. Et si Trump est destitué, les forces réactionnaires qui cimentent l’autoritarisme en place trouveront un champion dans le vice-président Mike Pence, qui place fiévreusement des membres de la droite chrétienne dans tout le gouvernement fédéral.
"Pence est le président parfait pour les chefs républicains qui contrôlent le Congrès, dit Nader. Il est juste hors du casting principal. Il regarde la partie. Il parle de la partie. Il joue son rôle. Il a connu la partie. Ça ne les dérangerait pas si Trump quittait sa fonction subitement ou s’il devait démissionner. […]"
Nous sommes aux stades crépusculaires du coup d’État permanent des grandes entreprises entamé il y a quarante ans. Il ne nous reste pas grand-chose pour travailler. Nous ne pouvons pas faire confiance à nos élites. Nous devons nous mobiliser pour mener des actions de masse répétées et soutenues. Attendre que l’establishment décapite Trump et restaure la démocratie serait un suicide collectif.

Auteur: Hedges Chris

Info: 12 février 2017, Source Truthdig

[ Usa ] [ vingt-et-unième siècle ]

 

Commentaires: 0

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

vacheries

Le Top 10 des livres que vous n'avez jamais réussi à finir

Quel est le livre que vous n'avez jamais réussi à terminer ? Nous vous avons posé la question sur les réseaux sociaux, et vous avez été plus de trois mille à nous répondre. Voici le top 10 des livres qui vous sont tombés des mains.

On a rarement vu autant de pavés sur les tables des libraires ! Il n'existe pas forcément de lien entre la difficulté à lire un livre, et son épaisseur. Pour autant, cette rentrée littéraire riche en gros volumes nous a inspiré un sondage, que nous avons lancé sur nos réseaux sociaux le 27 septembre : nous avons voulu savoir quels romans vous n'aviez jamais réussi à terminer. Voici donc le top 10 des livres qui vous sont tombés des mains. Ceux qui détiennent la palme de l'ennui, de la complexité, ou du malaise... ! De l'Ulysse de James Joyce, au Voyage au bout de la nuit, de Céline.

1. "Ulysse", de James Joyce

La palme du livre le plus difficile à terminer revient sans conteste à l'Ulysse, de Joyce. Si ça peut ôter des scrupules à certains, notez que lors de sa parution, en 1922, Virginia Woolf elle-même l'avait jugé "prétentieux" et "vulgaire" !

Je n'y arrive pas. J'ai testé deux traductions différentes. J'ai même essayé en anglais. J'ai tout essayé. Impossible. Pour moi ce texte ne fait aucun sens. Je n'ai jamais dépassé la page 50. Marie-Claude

À la centième page ça lasse. Et il y en a bien plus ! Pourtant j'ai essayé trois fois. La dernière fois j'étais en Turquie : le livre y est resté. Échangé contre un polar dans une auberge. Moins bien écrit, mais lisible ! Delphine

Trop longuement perché pour moi, décourageant quand on pense que ces mille pages ne représentent qu'une journée narrée ! @Antilabe

Très touffu, assez opaque, nécessite, je pense, pour être bien compris, de solides connaissances en art littéraire, ou en tout cas d'avoir un parcours littéraire très développé, pour mettre à nu l'architecture du roman. Alexis

Ils disent tous que c'est immense mais quand tu prends le livre sur les étagères, à partir de la page 10 c'est du papier Canson. @xabicasto

Si vous cherchez à dompter l'Ulysse de James Joyce, vous pouvez commencer par réécouter ces Nouveaux chemins de la connaissance d'octobre 2014. Pour parler du roman, Adèle Van Reeth recevait Jacques Aubert, universitaire et éditeur des œuvres de Joyce (et de Virginia Woolf) dans la Bibliothèque de la Pléiade.

2. "Les Bienveillantes", de Jonathan Littell

Médaille d'argent pour Les Bienveillantes, prix Goncourt 2006, qui, à en croire vos témoignages, a donné la nausée à un certain nombre d'entre vous ! Notamment à cause d'une identification au narrateur (un ancien SS), vécue difficilement...

Une plume sublissime. Mais je finis par m'identifier au "je".... et je vomis. Impossible de prendre du recul tant l'écriture est puissante. Géraldine

J'ai étalé ma lecture sur neuf mois... malgré tout, impossible d'arriver au bout. Trop long, trop lourd, trop sordide, trop d'abréviations qui renvoient le lecteur tous les quatre paragraphes au glossaire de fin d'ouvrage (tout est en allemand) !! Je n'ai pas réussi, ni voulu me familiariser avec ce tout. Jeanne

Ce livre m'a plongée dans une angoisse monstre. Jusqu'à me poursuivre la nuit, sous forme de cauchemars... je l'ai arrêté à contre-cœur car je le trouvais aussi fascinant que perturbant. Anaïs

Le décalage, certes voulu, entre l’horreur des faits évoqués et la froideur du récit m’était insupportable. Par ailleurs, le profil du narrateur me semblait peu crédible et sans intérêt : sur neuf-cents pages, c’est long. Stéphane

Je n'ai pas trouvé la grille de lecture, pas compris le sens. Absence d'émotions, même négatives. Un catalogue d'horreurs aseptisées. Si quelqu’un peut m'aider à comprendre ce qui lui a valu le Prix Goncourt, je suis preneur. Geoffrey

En décembre 2006, année de publication des Bienveillantes, l'émission Répliques se posait la question de savoir si le succès de ce roman historique sur le génocide des Juifs pendant la Seconde Guerre mondiale, était ou non choquant. Au micro, la journaliste Nathalie Crom, qui qualifiait ce roman de "stupéfiant", mais aussi l'un des détracteurs de l'ouvrage, le philosophe Michel Terestchenko, qui le considérait comme "un mélange de lieux communs, de platitudes et de clichés" :

3. "À la Recherche du temps perdu", de Marcel Proust

Le bronze revient sans surprise à Marcel Proust, mondialement connu pour ses phrases interminables, et à son oeuvre cathédrale, À la recherche du temps perdu. Rappelons qu'en 1913, Gallimard avait dans un premier temps refusé de publier Du côté de chez Swann.

C'est illisible. Des paragraphes qui font cinq pages, des phrases qui n'en finissent jamais... Un éditeur moderne ne l'aurait jamais publié ! Pierre

Longtemps je me suis couchée de bonne heure... pour lire, mais celui-là m'a complètement endormie. @Tlih_Eilerua

Quand j'avais 15-16 ans, il a même traversé la fenêtre et a atterri dans la rue. Je trouvais ce livre insupportable. Olivier

C'est tellement riche et beau qu'après avoir lu une page, il faut la savourer et la méditer avant de passer à la suivante. Et après une dizaine de pages, je ressens comme un trop plein, une sorte d'écœurement. Rémi

Ah, "La Recherche"... Arrêtée au Temps retrouvé ! @TataMarceline

Les lecteurs du XXe siècles ont-ils eu du mal, eux aussi, à entrer dans La Recherche du temps perdu ? Pour le savoir, réécoutez ce Lieux de mémoire diffusé sur notre antenne en 1997. Antoine Compagnon et Jean-Yves Tadié y racontaient leur première lecture de La Recherche, et expliquaient comment donner envie de lire cette oeuvre... voilà qui tombe plutôt bien !

4. "Le Seigneur des anneaux", de J. R. R. Tolkien

La trilogie de Tolkien, parue entre 1954 et 1955, a recueilli également de très nombreux suffrages ! Beaucoup d'entre vous n'ont notamment pas su dépasser le très long préambule consacré aux mœurs des Hobbits et à leur vie dans La Comté.

Après avoir eu l'impression de passer une vie à errer dans la forêt, j'ai lâché l'affaire. @manel_bertrand

Le style, les longueurs, l'ennui... ! J'ai essayé de zapper les passages du début, comme on me l'avait conseillé. Mais rien à faire, je ne suis jamais arrivé à entrer dedans. Pourtant j'ai lu "Le Hobbit" facilement, ainsi que d'autres œuvres de fantasy. Sandrine

Au milieu du troisième tome, j'avais perdu tout intérêt de savoir si le bien allait triompher du mal. @emilycsergent

Tolkien, on aime, ou pas. Mais il faut reconnaître que l'écrivain était prodigieusement inventif, capable de créer un univers entier, doté de sa géographie particulière, et de ses langues singulières. En 1985, France Culture s'intéressait à ses inspirations, depuis le poème anglo-saxon de Béowulf, jusqu'aux légendes celtiques, en passant par les anciens livres gallois :

5. "Belle du Seigneur", d'Albert Cohen

Vous n'y êtes pas allés avec le dos de la cuillère pour dire votre incapacité à venir à bout du roman-fleuve de l'écrivain suisse francophone, publié en 1968 ! Joseph Kessel l'avait pourtant qualifié de "chef-d'œuvre absolu"...

J'avais l'impression de voir l'auteur se donner des tapes dans le dos et s'auto-contempler en train d'écrire. J'ai rarement lu quelque chose d'aussi satisfait et suffisant. Pas un personnage pour rattraper l'autre, on a envie de leur mettre des baffes à la Bud Spencer, à tour de rôle. Aucun humour en fait, pas de place pour l'autodérision, Cohen se prenant bien trop au sérieux. Samia

J'avais très envie d'aimer ce livre. Mais la scène où son sentiment pour le jeune homme bascule était tellement rapide et illogique, que ça m'a tout fichu en l'air. Je trouvais tout le monde tarte, j'ai arrêté au bout de deux-cents pages et je n'ai pas regretté. Solène

Impossible, malgré trois essais et à des années d’intervalle. Rien à faire. Ecriture trop poussive, métaphorique à l’excès, détails à foison... Impossible pour moi, grande lectrice et professeur de littérature, d’apprécier ce roman pourtant salué de tous. Françoise

En 2006, dans Carnet nomade, des artistes, des chercheurs et des zélateurs d'Albert Cohen venaient raconter leur lecture personnelle de Belle du seigneur. Nombre d'entre eux trouvaient à ce livre "humour, ferveur, et intelligence". Sauront-ils vous convaincre ?

6. "L'Homme sans qualités", de Robert Musil

Paru en 1932, le roman inachevé de l'écrivain autrichien Robert Musil a également fait consensus. Mille huit cents pages... on ne vous trouve pas très endurants !

Les premiers chapitres m'ont ravi : ce style et cet univers m'ont très vite pris. Pourquoi alors, au fur et à mesure, cette sensation d'enlisement, de stériles redites, d'absurdité, de vanité ? Et malgré tout l'impression saisissante de passer à côté de quelque chose d'énorme, pour lequel je ne serais pas outillé... Patrick

Des passages lents et interminables, et quelques éclats de génie qui m'ont fait m'accrocher jusqu'à la moitié (du premier tome), c'est déjà une performance. Méli

J'ai essayé maintes et maintes fois, il me tombe des mains et finit toujours sous mon lit ! Martine

Les premières pages sont prodigieuses, puis la magie disparaît. Musil ne l'a pas fini non plus ! @BrouLou

Et vous, êtes-vous parvenu(e) au bout de la grande oeuvre de Musil, qui met en scène des personnages ambivalents et en quête d'équilibre dans un monde en pleine mutation ? Peut-être que l'écoute de ce Une vie, une oeuvre, diffusé en 1989, vous décidera à en tenter ou en retenter la lecture !

7. "Le Rouge et le Noir", de Stendhal

Pour l'écrivain britannique William Somerset Maugham, il fait partie des dix plus grands romans jamais écrits. Pourtant, le grand classique de Stendhal, publié en 1830, vous tombe des mains ! Peut-être est-il trop étudié en classe ?

J'ai craqué au bout de quelques chapitres. Une à deux pages pour décrire une tapisserie de salon ou d'antichambre... juste imbuvable ! Nathalie

J'avais en permanence envie de secouer les protagonistes, insupportables de mollesse, à contempler leurs sentiments et émotions sous toutes les coutures (je reste polie). Je les hais. J'ai fini par jeter l'éponge, ce qui ne m'arrive jamais. Marie

Obligée de le lire à l'école deux années de suite, car la même prof de français. Je crois bien ne pas être allée jusqu'au bout, et ça m'a dégoûtée de la littérature classique ! Christine

Le professeur de littérature française Yves Ansel saura-t-il réconcilier les lecteurs avec Stendhal ? Il était venu en 2014, parler de ce fameux roman dans Les Nouveaux chemins de la connaissance :

8. "Madame Bovary", de Gustave Flaubert

Il ne pouvait pas ne pas faire partie de ce top 10 ! Il faut dire que Flaubert a tendu le bâton pour se faire battre : en écrivant ce roman publié en 1856, son but assumé était bel et bien de "faire un livre sur rien".

Alors que j'aime beaucoup Flaubert - j'ai adoré "Salammbô" ! -, je n'ai jamais réussi à finir "Madame Bovary". Je suppose que Flaubert est tellement doué pour décrire l'ennui d'Emma que cet ennui m'a gagné aussi. C'est un personnage qui m'ennuie, et m'agace... Certainement pour des raisons personnelles ! Caroline

Tous les personnages sont médiocres, lâches, stupides, on ne peut pas s'identifier à eux. Il faudrait que je m'y essaye à nouveau ! @AudeJavel1

Je n ai jamais pu aller plus loin que le mariage. Ça m'ennuyait trop. Un livre qui ne tient que par son style, ça ne m'intéresse pas. Il faut qu'il se passe des choses. Je suis peut être trop parisienne ? Caroline

En août 2017, nous consacrions un article à la manière dont Flaubert avait révolutionné l'écriture romanesque avec Madame Bovary. Car dès sa publication, en 1856, le roman choqua d'abord par son style, avant même d'être mis en procès pour son caractère "licencieux" l'année suivante. De quoi peut-être rassurer le lectorat récalcitrant !

9. "Cent ans de solitude", de Gabriel Garcia Marquez

Trop de personnages, et une traduction jugée "laborieuse" pour certains. La grande oeuvre de Gabriel Garcia Marquez (Nobel de littérature en 1982), parue en 1967, a dérouté un bon nombre d'entre vous ! Après tout, peut-être que l'on peut se contenter de la première phrase du roman, connue comme l'un des incipits les plus célèbres de la littérature : "Bien des années plus tard, face au peloton d'exécution, le colonel Aureliano Buendía devait se rappeler ce lointain après-midi au cours duquel son père l'emmena faire connaissance avec la glace."

Une oeuvre géniale dans laquelle je me suis plongé à corps perdu. Et puis, je ne sais plus quand, j'ai arrêté de le lire pendant une deux semaines. Et quand j'ai voulu m'y remettre, je ne savais plus qui était qui dans cette histoire (fichus Buendia avec leurs prénoms mélangés !), et j'ai abandonné. Lucas

J'ai eu l'impression de rentrer dans un monde distorsion avec des malheurs sans fin, je n'en pouvais plus. Anne-Sophie

Je ne sais pas pourquoi les éditeurs n'insèrent pas un arbre généalogique ! C'est bien ça qui manque pour le terminer... Dee Dee

En 1970, sur France Culture, l'émission Les Voix étrangères s'intéressait à Cent ans de solitude : "Il arrive parfois qu'un livre refuse sa condition de livre. La condition d'un volume que chacun ouvre ou pose à son gré, pour faire irruption dans la vie quotidienne du lecteur, s'installer d'un air résolu dans les rêves, mais aussi dans la conversation familiale du soir", commentait la critique littéraire Ugne Karvelis.

10. "Voyage au bout de la nuit", de Louis-Ferdinand Céline

"Voyage au bout de l'ennui", le jeu de mots est facile, mais vous êtes nombreux à l'avoir osé ! En avril 1932, Céline promettait pourtant à Gaston Gallimard que son roman était "du pain pour un siècle entier de littérature" !

J'avais et j'ai toujours l'impression que le vieux Céline sortait comme un diable de sa boîte à chaque ponctuation, ricanant, insultant et grinçant. Cette vision récurrente m'effraie encore, rien que d'y penser. C'est le seul livre que j'ai jeté au travers d'une pièce, de peur et de rage. Le seul roman qui me renvoie à un perpétuel effondrement. Hélène

Bien que je trouve l'écriture de Céline fascinante et d'une intelligence rare, le dernier tiers me laisse toujours moralement le cœur au bord des lèvres. J'avance toujours un peu plus mais ne le termine jamais. Stéfanie

J'ai essayé deux fois : style apprécié, mais c'est le contexte, je n'arrive jamais à garder mon attention quand l'objet parle des guerres du XXe siècle. Je ne saurais même pas dire si c'est par ennui ou par dégoût de cette période. Oda

,

Auteur: Internet

Info: Combis Hélène, https://www.franceculture.fr, 06/10/2017

[ survol littéraire ]

 
Commentaires: 2
Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel