Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 339
Temps de recherche: 0.0509s

peur du vide

En 1930, John Maynard Keynes avait prédit que d’ici la fin du siècle, les technologies seraient suffisamment avancées pour que des pays comme le Royaume-Uni ou les États-Unis mettent en place une semaine de travail de 15 heures. Tout laisse à penser qu’il avait raison. En termes technologiques, nous en sommes tout à fait capables. Et pourtant cela n’est pas arrivé. Au contraire, la technologie a été mobilisée dans le but de trouver des moyens de nous faire travailler plus. Pour cela, des emplois effectivement inutiles, ont dû être créés. Des populations entières, en Europe et en Amérique du Nord particulièrement, passent toute leur vie professionnelle à effectuer des tâches dont ils pensent secrètement qu’elles n’ont vraiment pas lieu d’être effectuées. Les dommages moraux et spirituels que cette situation engendre sont profonds. Ils sont une cicatrice sur notre âme collective. Et pourtant presque personne n’en parle.

Pourquoi l’utopie promise par Keynes — et qui était encore très attendue dans les années 60 — ne s’est-elle jamais matérialisée ? La réponse standard aujourd’hui est qu’il n’a pas pris en compte la croissance massive du consumérisme. Entre moins d’heures passées à travailler et plus de jouets et de plaisirs, nous avons collectivement opté pour la deuxième alternative. Il s’agit d’une jolie fable morale, sauf qu’en l’analysant, ne serait-ce qu’un court instant, nous comprenons que cela n’est pas vrai. Oui, nous avons été les témoins de la création d’une grande variété d’emplois et d’industries depuis les années 20, mais très peu d’entre eux ont un rapport avec la production et la distribution de sushis, d’iPhones ou de baskets à la mode.

Quels sont donc ces nouveaux emplois précisément ? Un rapport récent comparant l’emploi aux États-Unis entre 1910 et 2000 nous en donne une image claire et nette (il faut au passage souligner qu’un rapport similaire a été produit sur l’emploi au Royaume-Uni). Au cours du siècle dernier, le nombre de travailleurs, employés dans l’industrie ou l’agriculture a considérablement chuté. Parallèlement, les emplois de "professionnels, administrateurs, managers, vendeurs et employés de l’industrie des services" ont triplé, passant "de un quart à trois quarts des employés totaux". En d’autres termes, les métiers productifs, comme prédit, ont pu être largement automatisés (même si vous comptez les employés de l’industrie en Inde et Chine, ce type de travailleurs ne représente pas un pourcentage aussi large qu’avant).

Mais plutôt que de permettre une réduction massive des heures de travail pour libérer la population mondiale afin qu’elle poursuive ses propres projets, plaisirs, visions et idées, nous avons pu observer le gonflement, non seulement des industries de "service", mais aussi du secteur administratif, et la création de nouvelles industries comme les services financiers, le télémarketing, ou l’expansion sans précédent de secteurs comme le droit corporatiste, les administrations universitaires et de santé, les ressources humaines ou encore les relations publiques. Et ces chiffres ne prennent pas en compte tous ceux qui assurent un soutien administratif, technique ou sécuritaire à toutes ces industries, voire à toutes les autres industries annexes rattachées à celles-ci (les toiletteurs pour chiens, les livreurs de pizzas ouverts toute la nuit) qui n’existent que parce que tous les autres passent la majeure partie de leur temps à travailler pour les premières.

C’est ce que je propose d’appeler des "métiers à la con".

C’est comme si quelqu’un inventait des emplois inutiles, dans le seul but de continuer à nous faire tous travailler. Et c’est ici que réside tout le mystère. Dans un système capitaliste, c’est précisément ce qui n’est pas censé se produire. Dans les anciens et inefficaces états socialistes, comme l’URSS, où l’emploi était considéré à la fois comme un droit et un devoir sacré, le système fabriquait autant d’emploi que nécessaire (c’est une des raisons pour lesquelles il fallait trois personnes dans les supermarchés pour vous servir un morceau de viande). Mais, bien sûr, c’est précisément le genre de problème que la compétition de marché est censée régler. Selon les théories économiques, en tout cas, la dernière chose qu’une entreprise recherchant le profit va faire, c’est de débourser de l’argent à des employés qu’elle ne devrait pas payer. C’est pourtant ce qui se produit, d’une certaine façon.

Alors que les entreprises s’engagent dans des campagnes de restrictions impitoyables, ces licenciements touchent principalement la classe des gens qui produisent, déplacent, réparent ou maintiennent les choses; alors qu’à travers une étrange alchimie que personne ne peut expliquer, le nombre de "gratte-papier" semble gonfler, et de plus en plus d’employés finissent, à l’instar des travailleurs de l’ex-URSS, par travailler 40 ou 50 heures par semaine, mais avec un temps effectif de travail utile de 15 heures, exactement comme Keynes l’avait prédit, puisque le reste de leur temps consiste à organiser ou à participer à des séminaires de motivation, à mettre à jour leur profil Facebook ou à télécharger des séries télévisées.

La réponse n’est de toute évidence pas économique : elle est morale et politique. La classe dirigeante a compris qu’une population heureuse, productive et bénéficiant de temps libre est un danger mortel (pensez à ce qui s’est passé lorsque cela a commencé à se réaliser dans les années 60). Et, d’un autre côté, le sentiment selon lequel le travail étant une valeur morale intrinsèque et que quiconque refusant de se soumettre à une forme intense de travail pendant ses journées ne mérite rien, est extraordinairement pratique pour eux.

Autrefois, considérant l’augmentation apparemment infinie des responsabilités administratives dans les départements universitaires britanniques, j’en ai déduit une vision possible de l’enfer. L’enfer, c’est un groupe d’individus qui passent le plus clair de leur temps à effectuer des tâches qu’ils n’aiment pas et pour lesquelles ils ne sont pas spécialement doués. Disons qu’ils ont été engagés parce qu’ils étaient de très bons menuisiers, et qu’ils découvrent ensuite qu’ils doivent passer une grande partie de leur temps à cuire du poisson. Effectuer cette tâche n’est pas non plus indispensable, mais au moins il y a une quantité très limitée de poissons à faire cuire. Et pourtant, ils deviennent tous complètement obsédés par le fait que certains de leurs collègues passent peut-être plus de temps à faire de la menuiserie sans contribuer de manière équitable à faire frire du poisson et, très rapidement, des piles entières de poisson mal cuits et inutiles envahissent l’atelier, et cuire du poisson est devenu l’activité principale.

Auteur: Graeber David

Info: Thought Info http://partage-le.com/2016/01/a-propos-des-metiers-a-la-con-par-david-graeber/

[ déséquilibre ] [ absurde ] [ diminution du travail ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

nano-monde relatif

Une expérience quantique montre que la réalité objective n'existe pas

Les faits alternatifs se répandent comme un virus dans la société. Aujourd'hui, il semble qu'ils aient même infecté la science, du moins le domaine quantique. Ce qui peut sembler contre-intuitif. Après tout, la méthode scientifique est fondée sur les notions de fiabilité d'observation, de mesure et de répétabilité. Un fait, tel qu'établi par une mesure, devrait être objectif, de sorte que tous les observateurs puissent en convenir.

Mais dans un article récemment publié dans Science Advances, nous montrons que, dans le micro-monde des atomes et des particules régi par les règles étranges de la mécanique quantique, deux observateurs différents ont droit à leurs propres faits. En d'autres termes, selon nos  meilleures théories des éléments constitutifs de la nature elle-même, les faits peuvent en fait être subjectifs.

Les observateurs sont des acteurs puissants dans le monde quantique. Selon la théorie, les particules peuvent se trouver dans plusieurs endroits ou états à la fois - c'est ce qu'on appelle une superposition. Mais curieusement, ce n'est le cas que lorsqu'elles ne sont pas observées. Dès que vous observez un système quantique, il choisit un emplacement ou un état spécifique, ce qui rompt la superposition. Le fait que la nature se comporte de cette manière a été prouvé à de multiples reprises en laboratoire, par exemple dans la célèbre expérience de la double fente.

En 1961, le physicien Eugene Wigner a proposé une expérience de pensée provocante. Il s'est demandé ce qui se passerait si l'on appliquait la mécanique quantique à un observateur qui serait lui-même observé. Imaginez qu'un ami de Wigner lance une pièce de monnaie quantique - qui se trouve dans une superposition de pile ou face - dans un laboratoire fermé. Chaque fois que l'ami lance la pièce, il obtient un résultat précis. On peut dire que l'ami de Wigner établit un fait : le résultat du lancer de la pièce est définitivement pile ou face.

Wigner n'a pas accès à ce fait de l'extérieur et, conformément à la mécanique quantique, il doit décrire l'ami et la pièce comme étant dans une superposition de tous les résultats possibles de l'expérience. Tout ça parce qu'ils sont " imbriqués " - connectés de manière effrayante au point que si vous manipulez l'un, vous manipulez également l'autre. Wigner peut maintenant vérifier en principe cette superposition à l'aide d'une "expérience d'interférence", un type de mesure quantique qui permet de démêler la superposition d'un système entier, confirmant ainsi que deux objets sont intriqués.

Lorsque Wigner et son ami compareront leurs notes par la suite, l'ami insistera sur le fait qu'ils ont observé des résultats précis pour chaque lancer de pièce. Wigner, cependant, ne sera pas d'accord lorsqu'il observera l'ami et la pièce dans une superposition. 

Voilà l'énigme. La réalité perçue par l'ami ne peut être réconciliée avec la réalité extérieure. À l'origine, Wigner ne considérait pas qu'il s'agissait d'un paradoxe, il affirmait qu'il serait absurde de décrire un observateur conscient comme un objet quantique. Cependant, il s'est ensuite écarté de cette opinion. De plus et, selon les canons officiels de mécanique quantique, la description est parfaitement valide.

L'expérience

Le scénario demeura longtemps une expérience de pensée intéressante. Mais reflètait-t-il la réalité ? Sur le plan scientifique, peu de progrès ont été réalisés à ce sujet jusqu'à très récemment, lorsque Časlav Brukner, de l'université de Vienne, a montré que, sous certaines hypothèses, l'idée de Wigner peut être utilisée pour prouver formellement que les mesures en mécanique quantique sont subjectives aux observateurs.

Brukner a proposé un moyen de tester cette notion en traduisant le scénario de l'ami de Wigner dans un cadre établi pour la première fois par le physicien John Bell en 1964.

Brukner a ainsi conçu deux paires de Wigner et de ses amis, dans deux boîtes distinctes, effectuant des mesures sur un état partagé - à l'intérieur et à l'extérieur de leur boîte respective. Les résultats pouvant  être récapitulés pour être finalement utilisés pour évaluer une "inégalité de Bell". Si cette inégalité est violée, les observateurs pourraient avoir des faits alternatifs.

Pour la première fois, nous avons réalisé ce test de manière expérimentale à l'université Heriot-Watt d'Édimbourg sur un ordinateur quantique à petite échelle, composé de trois paires de photons intriqués. La première paire de photons représente les pièces de monnaie, et les deux autres sont utilisées pour effectuer le tirage au sort - en mesurant la polarisation des photons - à l'intérieur de leur boîte respective. À l'extérieur des deux boîtes, il reste deux photons de chaque côté qui peuvent également être mesurés.

Malgré l'utilisation d'une technologie quantique de pointe, il a fallu des semaines pour collecter suffisamment de données à partir de ces seuls six photons afin de générer suffisamment de statistiques. Mais finalement, nous avons réussi à montrer que la mécanique quantique peut effectivement être incompatible avec l'hypothèse de faits objectifs - nous avions violé l'inégalité.

La théorie, cependant, repose sur quelques hypothèses. Notamment que les résultats des mesures ne sont pas influencés par des signaux se déplaçant à une vitesse supérieure à celle de la lumière et que les observateurs sont libres de choisir les mesures à effectuer. Ce qui peut être le cas ou non.

Une autre question importante est de savoir si les photons uniques peuvent être considérés comme des observateurs. Dans la proposition de théorie de Brukner, les observateurs n'ont pas besoin d'être conscients, ils doivent simplement être capables d'établir des faits sous la forme d'un résultat de mesure. Un détecteur inanimé serait donc un observateur valable. Et la mécanique quantique classique ne nous donne aucune raison de croire qu'un détecteur, qui peut être conçu comme aussi petit que quelques atomes, ne devrait pas être décrit comme un objet quantique au même titre qu'un photon. Il est également possible que la mécanique quantique standard ne s'applique pas aux grandes échelles de longueur, mais tester cela reste un problème distinct.

Cette expérience montre donc que, au moins pour les modèles locaux de la mécanique quantique, nous devons repenser notre notion d'objectivité. Les faits dont nous faisons l'expérience dans notre monde macroscopique semblent ne pas être menacés, mais une question majeure se pose quant à la manière dont les interprétations existantes de la mécanique quantique peuvent tenir compte des faits subjectifs.

Certains physiciens considèrent que ces nouveaux développements renforcent les interprétations qui autorisent plus d'un résultat pour une observation, par exemple l'existence d'univers parallèles dans lesquels chaque résultat se produit. D'autres y voient une preuve irréfutable de l'existence de théories intrinsèquement dépendantes de l'observateur, comme le bayésianisme quantique, dans lequel les actions et les expériences d'un agent sont au cœur de la théorie. D'autres encore y voient un indice fort que la mécanique quantique s'effondrera peut-être au-delà de certaines échelles de complexité.

Il est clair que nous avons là de profondes questions philosophiques sur la nature fondamentale de la réalité.

Quelle que soit la réponse, un avenir intéressant nous attend.

Auteur: Internet

Info: https://www.livescience.com/objective-reality-not-exist-quantum-physicists.html. Massimiliano Proietti et Alessandro Fedrizzi, 19 janvier 2022

 

Commentaires: 0

Ajouté à la BD par miguel

déconnexion

La mort telle qu'elle n'avait jamais été vue
L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel? Cela, l'étude ne le dit pas.
Une expérience réalisée dans une université berlinoise a permis de visualiser ce qui se passait dans le cerveau d'un mourant au moment fatidique. Et les résultats, inédits, sont étonnants. Cérébralement parlant, la mort est moins une extinction qu'un ultime embrasement électrique.
C'est la grande, la fatidique question : que se passe-t-il dans notre cerveau - et donc dans notre esprit, dans notre conscience - à la minute de notre mort ? La réponse, jusqu'ici, paraissait hors d'atteinte de l'investigation scientifique : personne n'est jamais revenu de l'autre rive pour témoigner de ce qu'il avait vu et ressenti au moment de passer de vie à trépas.

Certes, il y a bien ces récits troublants recueillis sur les lèvres de celles et ceux qui ont frôlé la mort de près. Regroupés sous l'appellation d'"expériences de mort imminente" (EMI), ils sont pris très au sérieux par une partie de la communauté des neuroscientifiques qui les répertorie et les décortique, comme le fait l'équipe du Coma Science Group à l'université de Liège (lire ci-dessous).

Mais, par définition, les survivants dont l'expérience a été reconnue comme authentique EMI après évaluation sur l'échelle de Greyson (du nom du psychiatre américain Bruce Greyson, qui l'a proposée en 1983) ont échappé à la mort. Ils n'en ont vu que l'ombre. La mort elle-même et ce qu'elle provoque dans le cerveau du mourant demeurent entièrement nimbés de mystère. Du moins était-ce le cas jusqu'à cette année...

Dans une étude publiée par la revue "Annals of Neurology" qui a fait sensation - et qui fera sans doute date dans l'histoire encore toute récente de la thanatologie -, le professeur en neurologie expérimentale à l'université Charité de Berlin, Jens Dreier, détaille l'expérience extraordinaire à laquelle son équipe et lui se sont livrés sur neuf patients. Ces neuf personnes, toutes entrées en soins intensifs à la suite de blessures cérébrales, faisaient l'objet d'un monitorage neurologique lourd, plus invasif qu'un simple électroencéphalogramme.

"Il s'agit d'une technique non conventionnelle, qui permet d'enregistrer l'activité électrique du cerveau, y compris à de très basses fréquences, de l'ordre de 0,01 hertz", explique Stéphane Marinesco, responsable du Centre de recherche en neurosciences de Lyon. Les basses fréquences émises par le cerveau ont du mal à traverser le scalp, ce qui les rend indétectables aux appareils d'électroencéphalogramme dont les électrodes sont placées sur le cuir chevelu. Dans le système de monitorage dont étaient équipés les patients du service du Pr Dreier, les électrodes étaient placées à l'intérieur du crâne, et même sous la dure-mère, cette membrane rigide qui entoure le cerveau et la moelle épinière.

Le cerveau, un vaste mystère qui reste à élucider
Cet accès aux très basses fréquences, correspondant à une activité électrique lente, a été la fenêtre qui a permis à Jens Dreier et son équipe de visualiser ce qui se passait dans le cerveau de personnes en train de mourir. Pour leur expérience, les neuroscientifiques allemands ont simplement demandé aux familles, une fois devenu évident que le patient ne survivrait pas à son accident, l'autorisation de poursuivre l'enregistrement jusqu'au bout. Et même un peu au-delà du "bout", c'est-à-dire de la mort cérébrale, ce moment à partir duquel un classique électroencéphalogramme n'enregistre plus aucune activité cérébrale et que l'Organisation mondiale de la santé considère comme le critère médico-légal du décès.

Vague de dépolarisation
Qu'ont montré les enregistrements réalisés à la Charité de Berlin ? Quelque chose de tout à fait fascinant, jusque-là inédit, et qui devrait peut-être amener les spécialistes à reconsidérer leur définition du décès et de son moment exact. Ce phénomène cérébral, indique l'étude, survient entre 2 et 5 minutes après l'ischémie, moment où les organes (dont le cerveau) ne sont plus alimentés en sang et donc en oxygène. Et il dure lui-même une petite dizaine de minutes. On peut l'assimiler à une sorte d'incendie électrique qui s'allume à un bout du cerveau et, de là, se propage à la vitesse de 50 microns par seconde dans tout l'encéphale avant de s'éteindre à l'autre bout, son oeuvre de destruction accomplie. Les neuroscientifiques parlent de "vague de dépolarisation".

Pour maintenir le "potentiel de membrane" qui lui permet de communiquer avec ses voisins sous forme d'influx nerveux, un neurone a besoin d'énergie. Et donc d'être irrigué en permanence par le sang venu des artères qui lui apporte l'oxygène indispensable à la production de cette énergie sous forme d'adénosine triphosphate (ATP). Tout le travail de Jens Dreier a consisté à observer ce qui se passait pour les neurones une fois que, le coeur ayant cessé de battre et la pression artérielle étant tombée à zéro, ils n'étaient plus alimentés en oxygène.

"L'étude a montré que les neurones se mettaient alors en mode 'économie d'énergie'", commente Stéphane Marinesco. Pendant les 2 à 5 minutes séparant l'ischémie de l'apparition de la vague de dépolarisation, ils puisent dans leurs réserves d'ATP pour maintenir leur potentiel de membrane. Pendant cette phase intermédiaire, au cours de laquelle le cerveau est littéralement entre la vie et la mort, celui-ci ne subit encore aucune lésion irréversible : si l'apport en oxygène venait à être rétabli, il pourrait se remettre à fonctionner sans dommages majeurs.

Réaction en chaîne
Mais cette résistance héroïque des cellules nerveuses a ses limites. A un moment donné, en l'un ou l'autre endroit du cerveau, un premier neurone "craque", c'est-à-dire qu'il dépolarise. Les stocks de potassium qui lui permettaient de maintenir son potentiel de membrane étant devenus inutiles, il les largue dans le milieu extra-cellulaire. Il agit de même avec ses stocks de glutamate, le principal neurotransmetteur excitateur du cerveau.

Mais, ce faisant, ce premier neurone initie une redoutable réaction en chaîne : le potassium et le glutamate par lui libérés atteignent un neurone voisin dont ils provoquent aussitôt la dépolarisation ; à son tour, ce deuxième neurone relâche ses stocks et provoque la dépolarisation d'un troisième, etc. Ainsi apparaît et se propage la vague de dépolarisation, correspondant à l'activité électrique lente enregistrée par le système de monitorage spécifique utilisé à la Charité de Berlin. Le "bouquet final" du cerveau sur le point de s'éteindre définitivement.

Il est d'autres circonstances de la vie où l'on observe des vagues de dépolarisation, un peu différentes en ceci qu'elles ne sont pas, comme ici, irréversibles. C'est notamment le cas dans les migraines avec aura, naguère appelées migraines ophtalmiques, car elles s'accompagnent de symptômes visuels qui peuvent être de simples distorsions du champ visuel, mais aussi, parfois, l'apparition de taches lumineuses, voire de véritables hallucinations assez similaires à celles rapportées dans les EMI.

L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel ? Cela, l'étude ne le dit pas. Mais l'hypothèse ne paraît pas indéfendable. ,

Auteur: Verdo Yann

Info: Les échos.fr, 25/11 à 17:23

[ cessation ] [ disparition ]

 

Commentaires: 0

Ajouté à la BD par miguel

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

36'000 sexes, mais à deux, c'est mieux pour les biologistes de l'évolution, le sexe est un mystère - et le binôme mâle-femelle un paradoxe. Explications sur l'origine des genres.
"L'émergence des genres reste un problème déroutant en biologie, lance Lukas Schärer, spécialiste de l'évolution de la reproduction à l'Université de Bâle. Nous ne comprenons pas encore tout à fait le sexe."
Car la présence de deux sexes amène un désavantage immédiat: elle réduit de moitié la probabilité de rencontrer un partenaire de reproduction. "Avoir deux genres n'est pas seulement une mauvaise stratégie; c'est la pire", renchérit Laurence Hurst, biologiste à l'Université de Bath (G.B.) et l'un des spécialistes mondiaux de l'évolution de la reproduction. Avec un seul genre - ou une multitude -, nous pourrions nous reproduire avec tout le monde.
La reproduction sexuée présente des avantages évidents sur le plan de l'évolution (voir encadré plus bas). Mais qui dit sexe ne dit pas forcément mâle et femelle: il est tout à fait possible de fusionner deux cellules similaires. "Il faut distinguer deux étapes, précise Laurence Hurst. D'abord, on doit pouvoir expliquer l'émergence de deux types de gamètes (les cellules reproductrices, ndlr) qui - tout en restant morphologiquement identiques - ne peuvent fusionner que l'un avec l'autre. Un deuxième niveau concerne leur différenciation en gamètes mâles et femelles, qui sont non seulement distincts, mais également différents." "Des théories existent, ajoute Lukas Schärer, mais leur démonstration univoque par des expériences fait encore défaut."
La faute aux mitochondries
Dans les années 1990, Laurence Hurst a proposé une piste pour élucider la première étape: un seul genre favoriserait des mutations potentiellement nuisibles. "En fusionnant, les gamètes ne combinent pas seulement les informations génétiques contenues dans leur noyau, mais partagent aussi leurs mitochondries (responsable de fournir la cellule en énergie, ndlr), explique le biologiste anglais. Comme celles-ci évoluent indépendamment du noyau, il n'est pas certain que les mitochondries dominantes, qui par exemple se reproduisent plus rapidement que les autres, s'avèrent également bénéfiques à la cellule et à l'individu."
Une solution à ce problème serait procurée par l'émergence de deux types de gamètes (appelés "+" et "-"), dont un seul est capable de transmettre ses mitochondries. On réduit ainsi les probabilités d'avoir des mutations mitochondriales délétères à la cellule. Afin de propager les types de mitochondries bénéfiques à l'individu, il y aurait un avantage évolutionniste à ce que seuls les différents types de gamètes puissent fusionner entre eux.
"Notre thèse est appuyée par des observations faites sur des protozoaires ciliés, poursuit Hurst. Ceux qui se reproduisent par fusion et mélangent leurs mitochondries ont deux genres alors que d'autres, qui ne font qu'échanger leur noyau sans partager leurs mitochondries, possèdent non pas deux mais des centaines de genres distincts. On observe le même phénomène chez les champignons: ils n'échangent que leur noyau, et certains possèdent jusqu'à 36'000 sexes." Avoir exactement deux sexes servirait ainsi à filtrer les mitochondries.
A quoi ressemble l'acte de chair lorsqu'on a plusieurs genres? "Les deux partenaires doivent être d'un genre différent, répond Lukas Schärer. Au niveau des probabilités, un nombre élevé de sexes se rapproche de l'absence de genre de plusieurs façons, car on peut se reproduire avec à peu près tout le monde. L'existence de genres protège les individus de l'auto-fertilisation, qui est dangereuse car elle expose souvent des mutations délétères." De nombreux sexes, donc, pour éviter la consanguinité.
La naissance du mâle
Mais pourquoi les + et les - se sont-ils ensuite différenciés en "mâles" et "femelles"? Dans les années 1970, le biologiste Geoff Parker a proposé un mécanisme évolutionniste. Des mutations ont changé la taille des cellules reproductives. Graduellement, deux types d'individus ont été sélectionnés, qui produisent soit des spermatozoïdes petits, nombreux et de valeur limitée, soit des oeufs gros, rares et précieux. Les premiers peuvent être produits en très grand nombre, ce qui augmente la probabilité de rencontre. Grâce à leur grande taille, les seconds ont davantage de chances d'être fécondés et peuvent fournir une grande quantité de matière au zigote (obtenu par la fusion des gamètes), ce qui améliore ses chances de survie. "L'évolution de l'anisogamie (des gamètes de tailles différentes, ndlr) a eu lieu plusieurs fois au cours de l'évolution et ceci de manière indépendante", rappelle Brian Charlesworth, professeur de biologie évolutionnaire à l'Université d'Edimbourg. "L'anisogamie a probablement moins de chance d'évoluer dans des espèces plus petites, car l'avantage procuré par un grand oeuf joue un rôle plus faible", note Lukas Schärer.
Reste encore la différentiation au niveau de l'individu: pourquoi la plupart des animaux comprennent des mâles et des femelles - au lieu de favoriser l'hermaphrodisme? Ce dernier s'accompagne du risque d'autofertilisation et des problèmes dus à la consanguinité, mais atténue la difficulté de trouver un partenaire. Cet avantage pourrait être un facteur déterminant chez les plantes: incapables de se déplacer, elles sont en grande majorité hermaphrodites. Au contraire des animaux, qui eux ont les moyens de partir chercher l'âme soeur.
Les bienfaits du sexe
Le but de la chair, c'est de mélanger pour mieux s'adapter. En combinant les gènes des deux parents, la reproduction sexuée permet de sélectionner les bonnes mutations et de purger les mauvaises. "Des expériences avec des levures modifiées pour se reproduire asexuellement ont montré qu'elle s'adaptent moins rapidement aux changements de l'environnement, détaille Laurence Hurst de l'Université de Bath (G.B.). On a pu observer que certaines espèces capables d'utiliser les deux modes de reproduction favorisent la voie sexuée lorsqu'elles se voient soumises à des pressions de l'environnement." Une fois le danger passé, elles retournent au sexe en solitaire - également favorisé lorsque la rencontre d'un partenaire s'avère trop difficile.
Le kamasutra de la Nature
Entre des bactéries échangeant du matériel génétique et des champignons possédant des milliers de sexes, la Nature ne montre aucun tabou. Les hermaphrodites simultanés tels que la majorité des plantes et escargots possèdent les appareils génitaux mâles et femelles, alors que les hermaphrodites séquentiels (certains poissons et crustacés) changent de sexe au cours du temps. Les êtres hétérogames (amibes sociales, micro-crustacés, algues) peuvent alterner entre reproduction asexuée et sexuée. On a observé que les femelles d'un certain nombre d'animaux (dont le dragon du Komodo et le requin marteau) peuvent parfois se passer de mâle pour se reproduire par parthénogenèse lorsque rencontrer l'âme soeur s'avère trop difficile. Les polyploïdes, eux, ne possèdent pas des paires de chromosomes comme la plupart des animaux sexués, mais de multiples copies: une espèce de salamandre n'a que des femelles possédant leurs chromosomes en triple. Elles se reproduisent par "cleptogénèse", en volant des spermatozoïdes de variétés voisines.
80 millions d'années sans sexe: un scandale évolutionnaire
Même si les premiers êtres vivants unicellulaires comme les bactéries se sont toujours reproduits de manière asexuée, "la plupart des êtres multicellulaires asexués ont évolué à partir d'espèces sexuées, note Brian Charlesworth de l'Université d'Edimbourg. Ils n'ont pas eu le temps de se diversifier et sont normalement d'origine récente." La découverte que des invertébrés aquatiques asexués appelés bdelloidés ont survécu quelque 80 millions d'années fut qualifiée de "scandale évolutionnaire" par le biologiste John Maynard Smith. Autre particularité, ces invertébrés pratiquent une forme d'hibernation: face à une pression environnementale, ils peuvent sécher et entrer en animation suspendue. En 2008, une étude d'Harvard apporte un élément de réponse: lorsqu'ils se réveillent, les bdelloidés incorporent l'ADN étranger se trouvant à proximité. Même pour les êtres asexués, le mélange des gènes semble incontournable pour survivre.

Auteur: Saraga Daniel

Info: Largeur.com, 25 mai 2011

[ couple ] [ reproduction ]

 

Commentaires: 0

fin de vie

Une nouvelle étude révèle que les survivants rapportent des "expériences de mort imminente" lucides

Chez certains patients ayant subi un arrêt cardiaque, une activité cérébrale intense pendant la réanimation cardio-pulmonaire peut être le signe d'une "expérience de mort imminente".

Que se passe-t-il lorsque nous mourons réellement, c'est-à-dire lorsque notre cœur s'arrête et que l'activité électrique de notre cerveau se stabilise ?

L'homme se pose cette question depuis des temps immémoriaux. C'est une question difficile, car les morts ne nous répondent généralement pas sur la nature de leurs expériences. Les textes religieux sont capables de fournir une multitude d'explications. Mais les scientifiques n'ont pas renoncé à apporter leurs propres réponses et ils progressent dans la compréhension du processus cérébral de transition entre la vie et la mort.

Tout récemment, ces progrès ont été rendus possibles grâce à des recherches qui ont permis d'observer le cerveau de personnes qui se trouvaient au seuil de la mort. Certaines de ces personnes ont été en mesure de raconter ce qu'elles ont vécu. Selon des résultats publiés le 14 septembre dans la revue Resuscitation, le cerveau de certains patients ayant subi un arrêt cardiaque s'est mis à fonctionner à plein régime pendant la réanimation cardio-pulmonaire, même si leur cœur s'est arrêté de battre pendant près d'une heure. Un petit groupe de participants à l'étude qui ont survécu ont pu se souvenir de l'expérience, et une personne a pu identifier un stimulus audio diffusé pendant que les médecins tentaient de la réanimer.

Les chercheurs interprètent les enregistrements cérébraux qu'ils ont effectués sur ces patients comme des marqueurs d'"expériences lucides de la mort" - une observation qui "n'avait jamais été possible auparavant", déclare l'auteur principal, Sam Parnia, professeur agrégé de médecine à la NYU Langone Health et chercheur de longue date sur ce qui arrive aux gens lorsqu'ils meurent. "Nous avons également été en mesure d'avancer une explication cohérente et mécaniste pour expliquer ce phénomène.

Les "expériences de mort remémorées" - terme que Parnia préfère à celui d'"expériences de mort imminente" pour des raisons de précision - ont été rapportées dans diverses cultures tout au long de l'histoire. Certains scientifiques occidentaux ont rejeté ces récits en les qualifiant d'hallucinations ou de rêves, mais récemment, quelques équipes de recherche ont commencé à accorder une attention plus sérieuse à ces phénomènes en les considérant comme un moyen d'étudier la conscience et de faire la lumière sur les mystères de la mort.

Dans cette nouvelle étude, Parnia et ses collègues ont cherché à trouver une signature biologique des expériences de mort dont on se souvient. Ils ont collaboré avec 25 hôpitaux, principalement aux États-Unis et au Royaume-Uni. Le personnel médical a utilisé des appareils portables pouvant être placés sur la tête des patients en situation d'urgence cardiaque afin de mesurer les niveaux d'oxygène et l'activité électrique de leur cerveau sans interférer avec leur traitement médical. Les chercheurs ont également testé les perceptions conscientes et inconscientes en plaçant des écouteurs sur les patients qui diffusaient un enregistrement répété des noms de trois fruits : banane, poire et pomme. En termes d'apprentissage inconscient, une personne qui ne se souvient pas d'avoir entendu ces noms de fruits mais à qui l'on demande de "penser à trois fruits au hasard" peut tout de même donner la bonne réponse, explique Mme Parnia. Des recherches antérieures ont montré, par exemple, que même des personnes plongées dans un coma profond peuvent apprendre inconsciemment le nom de fruits ou de villes si ces mots leur sont chuchotés à l'oreille.

Entre mai 2017 et mars 2020, 567 personnes ont subi un arrêt cardiaque dans les hôpitaux participants. Le personnel médical a réussi à recueillir des données exploitables sur l'oxygène et l'activité cérébrale de 53 de ces patients, dont la plupart présentaient un état électrique plat sur les moniteurs cérébraux électroencéphalographiques (EEG). Mais environ 40 % d'entre eux ont ensuite connu une activité électrique qui a réapparu à un moment donné avec des ondes cérébrales normales ou proches de la normale, compatibles avec la conscience. Cette activité a parfois été rétablie jusqu'à 60 minutes après la RCP (CPR*).

Sur les 567 patients, seuls 53 ont survécu. Les chercheurs ont interrogé 28 des survivants. Ils ont également interrogé 126 personnes de la communauté qui avaient subi un arrêt cardiaque, car l'échantillon de survivants de la nouvelle étude était très réduit. Près de 40 % d'entre eux ont déclaré avoir perçu l'événement sans en avoir de souvenirs précis, et 20 % ont semblé se souvenir de la mort. Dans ce dernier groupe, beaucoup ont décrit l'événement comme une "évaluation morale" de "leur vie entière et de la manière dont ils se sont comportés", explique Mme Parnia.

Lors des entretiens avec les survivants, les chercheurs ont constaté qu'une seule personne était capable de se souvenir des noms des fruits qui avaient été joués pendant la réanimation cardio-pulmonaire. M. Parnia reconnaît que cette personne aurait pu deviner les bons fruits par hasard.

Lui et ses collègues ont élaboré une hypothèse de travail pour expliquer leurs résultats. Normalement, le cerveau dispose de "systèmes de freinage" qui filtrent la plupart des éléments de la fonction cérébrale hors de notre expérience de la conscience. Cela permet aux gens d'agir efficacement dans le monde, car dans des circonstances normales, "vous ne pourriez pas fonctionner en ayant accès à toute l'activité de votre cerveau dans le domaine de la conscience", explique-t-il.

Dans le cerveau mourant, cependant, les chercheurs supposent que le système de freinage est supprimé. Les parties normalement dormantes deviennent actives et le mourant a accès à l'ensemble de sa conscience - "toutes ses pensées, tous ses souvenirs, tout ce qui a été stocké auparavant", explique M. Parnia. "Nous ne connaissons pas les avantages évolutifs de cette méthode, mais elle semble préparer les gens à passer de la vie à la mort.

Ces résultats soulèvent également des questions sur la résistance du cerveau au manque d'oxygène. Il se pourrait, selon Mme Parnia, que certaines personnes que l'on considère traditionnellement comme irrécupérables puissent en fait être ramenées à la vie. "Les médecins pensent généralement que le cerveau meurt lorsqu'il est privé d'oxygène pendant cinq à dix minutes", explique-t-il. "Nous avons pu montrer que le cerveau est assez robuste en termes de capacité à résister à la privation d'oxygène pendant des périodes prolongées, ce qui ouvre de nouvelles voies pour trouver des traitements pour les lésions cérébrales à l'avenir.

La nouvelle étude "représente un effort herculéen pour comprendre aussi objectivement que possible la nature de la fonction cérébrale telle qu'elle peut s'appliquer à la conscience et aux expériences de mort imminente pendant un arrêt cardiaque", déclare Lakhmir Chawla, médecin de l'unité de soins intensifs au Jennifer Moreno Department of Veterans Affairs Medical Center à San Diego (Californie), qui n'a pas participé à la recherche mais a publié des articles sur les pics d'activité EEG au moment de la mort chez certains patients.

Si les résultats obtenus par Parnia et ses collègues sont "frappants" d'un point de vue scientifique, "je pense que nous devrions permettre à ces données d'éclairer notre humanité", ajoute-t-il. D'une part, ces résultats devraient "obliger les cliniciens à traiter les patients qui reçoivent une RCP (CPR*) comme s'ils étaient éveillés", ce que "nous faisons rarement".

Et pour les personnes qui semblent ne plus pouvoir être sauvées, les médecins pourraient inviter leur famille à venir leur dire au revoir, "car le patient est peut-être encore capable de les entendre", ajoute M. Chawla.

Auteur: Internet

Info: https://www.scientificamerican.com/, Rachel Nuwer on September 14, 2023 *Réanimation cardio-pulmonaire La réanimation cardio-pulmonaire consiste à effectuer des compressions thoraciques et des respirations de secours pour maintenir la circulation de l'oxygène dans le corps.

[ e.m.i ]

 

Commentaires: 0

Ajouté à la BD par miguel

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0