Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 292
Temps de recherche: 0.0452s

décès

Mourir n'est plus ce qu'il était !
Intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du CHUM, le Dr Pierre Aslanian considère son travail comme très valorisant, car il contribue à l'effort collectif de sauver des vies.
"Dans les années 50, l'arrêt définitif du coeur constituait le seul critère de la mort. Ce n'est plus le cas aujourd'hui", déclare le Dr Pierre Aslanian, intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du Centre hospitalier de l'Université de Montréal (CHUM). "Depuis l'introduction du concept de mort cérébrale, soit l'arrêt complet et définitif de toute activité du cerveau, par un comité de la Harvard Medical School en 1968, c'est l'état du cerveau qui fait pencher la balance."
La peau du patient est rosée et chaude, son coeur bat, même son thorax se soulève à un rythme régulier, puisque sa respiration est maintenue artificiellement par un appareil et, pourtant, le patient est bel et bien mort. Pour confirmer la mort cérébrale, deux médecins indépendants de l'équipe de prélèvement et de transplantation ont reproduit divers tests cliniques selon un protocole bien défini. "D'abord, il faut connaître l'étiologie du dommage au cerveau, indique Pierre Aslanian. Sans la cause, on ne peut pas conclure à une mort cérébrale. Il faut aussi s'assurer qu'il n'y a aucun facteur confondant comme des sédatifs en circulation dans le sang au moment où l'on effectue les tests."
Concrètement, pour évaluer l'état et l'évolution d'un patient, les médecins disposent d'échelles internationales standardisées, comme l'échelle de coma Glasgow et le protocole de diagnostic du décès neurologique (DDN) de Transplant Québec, grâce auxquelles on peut mesurer notamment la réponse motrice à la douleur et les réflexes du tronc cérébral, la partie inférieure du cerveau responsable de la conscience. L'absence de réflexe respiratoire est validée par un test d'apnée. En cas de doute ou s'il y a présence de facteurs confondants, le DDN doit être établi par un examen complémentaire, par exemple une angiographie cérébrale qui permet d'objectiver l'arrêt de la circulation sanguine encéphalique. Le diagnostic est sans équivoque. L'absence de circulation intracrânienne entraîne une destruction totale et irréversible du cerveau.
"La souffrance d'une famille ébranlée par la mort brutale d'un proche l'empêche souvent de comprendre ce qui se passe exactement, souligne le Dr Aslanian. Les médecins doivent bien expliquer que les organes sont maintenus en fonction de manière artificielle, mais que le patient ne peut pas se réveiller d'un décès neurologique. Son cerveau est mort !"
Toutes les semaines, l'intensiviste, qui possède 20 ans de pratique à l'unité des soins intensifs du centre hospitalier, est confronté à cette dure réalité. Cela est d'autant plus difficile que parfois le patient en état de mort cérébrale peut avoir des réflexes spinaux, mentionne le Dr Aslanian. "On le pince et il y a un mouvement, mais celui-ci n'est pas provoqué par le cerveau. Ce sont les nerfs périphériques reliés à la moelle épinière qui en sont responsables." Le professeur de clinique de la Faculté de médecine de l'Université de Montréal donne régulièrement à l'intention des infirmières et résidents en médecine du CHUM des ateliers sur ce qu'est la mort cérébrale. "Pour offrir l'option du don d'organes aux familles, il faut d'abord savoir reconnaître les donneurs potentiels, signale-t-il. Malheureusement, encore de nos jours, environ 20 % des donneurs potentiels ne le sont pas dans les hôpitaux du Québec."
L'histoire de la mort
Longtemps on a déterminé la mort d'une personne par un acte rudimentaire. Le croquemort se contentait de mordre le gros orteil du défunt pour vérifier qu'il avait réellement trépassé. L'absence de réaction de sa part confirmait définitivement son état. Jusqu'aux années 50, les médecins tâtaient le pouls et cherchaient à voir si de la condensation se formait sur un miroir placé près de la bouche et du nez. La présence ou l'absence de battements du coeur décidait du classement définitif du patient du côté des morts ou des vivants. Puis, avec la venue de la ventilation mécanique qui maintient artificiellement la respiration, on commence à suspendre l'instant de la mort. En 1968, la mort cardiovasculaire cède la place au concept de mort cérébrale, soit "la perte irrémédiable de toutes les fonctions de l'ensemble du cerveau, du tronc cérébral et des deux hémisphères", comme la définit pour la première fois le comité de l'Université Harvard.
"Le premier article scientifique sur la question présenté à la communauté médicale a été publié dans une revue neurologique française en 1959. Les médecins y décrivaient le dommage cérébral important associé à un coma profond duquel les patients ne se réveillaient pas. C'est de cette publication qu'est né le concept de mort cérébrale que les experts de Harvard ont fait connaître internationalement", raconte le Dr Aslanian en précisant que cette époque correspond aussi aux débuts de la transplantation d'organes.
"La notion du décès neurologique a complètement changé notre rapport à la mort", estime le Dr Aslanian. Bien reçu et adopté par divers organismes à l'échelle de la planète, le DDN a néanmoins été contesté sans succès à plusieurs reprises devant les tribunaux américains. "Une commission présidentielle relative aux problèmes bioéthiques et aux aspects biomédicaux en recherche a voulu en 1981 légiférer pour une définition encore plus claire du DDN", rappelle l'intensiviste. En 1995, l'Académie américaine de neurologie constate pour sa part que beaucoup de médecins retiennent des critères différents et insiste pour standardiser les pratiques.
"Même si l'on reconnaît l'intérêt d'uniformiser les façons de faire, les politiques de déclaration de mort cérébrale varient non seulement d'un pays à l'autre, mais aussi d'un État à l'autre", note Pierre Aslanian. Au Canada, en France, en Angleterre et aux États-Unis, le DDN est fait conformément aux pratiques médicales reconnues. Mais il y a certaines nuances. Ainsi, en France, le recours à l'électroencéphalogramme ou à l'angiographie est obligatoire pour attester le caractère irréversible de l'arrêt des fonctions cérébrales. Chez nous et chez nos voisins du Sud, ces tests auxiliaires sont réalisés seulement en cas de doute ou lorsque l'examen clinique ne peut être effectué.
Et puis, il y a les exceptions comme le Japon, où il se pratique très peu de transplantations à partir de donneurs cadavériques. Car, dans l'empire du Soleil-Levant, un grand malaise persiste quant au concept de mort cérébrale.

Auteur: http://www.techno-science.net/

Info: 19.04.2016

[ vérification ] [ validation ] [ historique ]

 

Commentaires: 0

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

multinationales

Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique ?

Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec "seulement" 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir.

Ces mastodontes de l’économie numérique représenteraient à eux seuls, près de 60% de nos usages numériques quotidiens. A l’heure où la France commence à prendre sérieusement conscience des enjeux de l’économie numérique, ces géants numériques ont une sacré longueur d’avance dans cette nouvelle révolution industrielle. Est-il trop tard ? Sans doute. Mais la France et l’Europe n’ont pas dit leur dernier mot.

- Qui sont vraiment ces GAFAM et NATU ? Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Cette dernière qui était censée prolonger numériquement l’économie traditionnelle commence en réalité en train de la vampiriser sérieusement. Ce qu’on a appelé l’ubérisation de l’économie en référence à la société américaine Uber qui détruit progressivement le modèle de fonctionnement des taxis pour s’approprier d’énormes parts de marché. Google est un peu la matrice du système car il touche à tout : il fournit gratuitement à chacun la boîte à outils pour naviguer dans les mondes numériques et se finance en revendant les précieuses données qu’il récolte. Apple vend une partie du matériel nécessaire pour évoluer dans ce monde numérique, mais également de la musique et des films dont il a révolutionné la distribution. Facebook est le réseau social mondial qui permet à chacun de suivre la vie et les activités des autres.

Notons qu’avec Google, Facebook est devenu une régie publicitaire mondiale qui permet de cibler de façon chirurgicale des publicités avec une audience potentielle qui se chiffre en milliard d’individus. Amazon est en passe de devenir le distributeur mondial de l’économie numérique, menaçant des géants comme Wall Mart aux Etats Unis et peut-être Carrefour ou Auchan demain. - Et les nouveaux venus ? Netflix ? Air BNB ? Telsa ? Uber ? Netflix est la plus grosse plateforme de diffusion de films et séries. Il est également producteur et en ligne va sans doute faire exploser le modèle de la télévision. Air BNB est en train d’appliquer la même punition au secteur hôtelier en permettant à chacun de louer une chambre ou une maison d’un simple clic. Ou presque. Tesla révolutionne l’énergie avec la production de voiture et de batteries électriques d’une nouvelle génération et possède aussi SpaceX, un lanceur de fusée. Quand à Uber, il révolutionne la mobilité avec les taxis. Mais pas que…

Cela sous-entend que ces acteurs ne se cantonnent pas à leur "coeur de métier" comme on dit ? Tout à fait. Ils sont si puissant financièrement qu’ils investissent dans de très nombreux domaines. N’oublions pas que Youtube qui diffuse 4 milliard de vidéos par jour appartient à Google et que Facebook en revendique près de 3 milliards chaque jour. Les audiences des plus grandes chaines de télé se comptent plutôt en millions. Amazon est connu pour être une librairie en ligne mais vend aujourd’hui presque tout sur sa plateforme, même de la micro main d’oeuvre avec sa plateforme Mechanical Turk. Google investit dans presque tout, de la médecine prédictive aux satellites, en passant par les lunettes connectées et les voitures (Google car). Et quand les chauffeurs taxis s’excitent sur Uber pop, on oublie qu’Uber s’occupe aussi de la location de voitures et de la livraison de colis. Selon le cabinet d’études FaberNovel, les Gafam se positionnent directement ou non sur les 7 industries clefs de la transformation numérique : les télécoms et l’IT, la santé, la distribution, les énergies, les média et le divertissement, la finance ainsi que le voyage et les loisirs.

Cette concentration de pouvoir technologique et financier n’est-elle pas un risque pour l’économie ? On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Ces géants disposent de nombreux atouts. Ils ont des réserves de cash gigantesques, ils ont une vision à 360 degrés de ce qui se passe aujourd’hui dans l’innovation, ils attirent les plus grands talents et se positionnent sur les nouveaux marchés issus de la transformation numérique comme l’internet des objets, la robotique, voitures, les drones…. Ils diversifient leurs activités et deviennent des prédateurs redoutables de l’économie traditionnelle.

Quelques chiffres donnent le vertige. Google contrôle 90 % de la recherche dans le monde. Apple 45 % du trafic Web issu des smartphones. Facebook 75 % des pages vues sur les réseaux sociaux aux Etats-Unis. Et si demain une pépite émerge, il est presqu’assuré que cette dernière tombera dans l’escarcelle d’un de ces géants. - Que peuvent faire les autres pays ? Il y a toujours 2 types d’attitudes devant un tel défi. Attaquer ou défendre. Ou les deux. Et sur plusieurs terrains. L’innovation et la recherche bien sûr, en essayant d’inventer non seulement des concurrents à ces mastodontes, mais aussi en explorant d’autres domaines prometteurs. L’Europe pré-technocratique avait réussi à faire des Airbus et des fusées Ariane. Elle hébergent encore de grands leaders industriels de la santé, du commerce et de la distribution. Mais ses modèles datent du 20ème siècle et clairement, le virage du numérique n’a pas été pris à temps. Inventeur du Minitel dans les années 80, la France aurait pu prendre une avance stratégique dans ce domaine mais cela aurait sans doute du se jouer au niveau européen.

Contrairement à la Chine (avec Baidu et Alibaba) ou à la Russie (Yandex, Rutube), l’Europe n’a malheureusement rien lancé de significatif dans ce domaine. - Justement n’est-ce pas au niveau continental que des leviers existent ? Certainement. S’il est difficile de mettre en place des consortium numériques à l’échelle européenne, par exemple pour concurrencer les GAFAM dans leurs fonctions stratégiques, des leviers législatifs, juridiques et fiscaux sont en revanche déjà utilisés pour attaquer les géants américains qui sont rarement respectueux des règles locales. Amazon, qui concentrait ses revenus au Luxembourg va devoir payer des impôts dans chaque pays dans lequel il évolue. Google a été condamné pour avoir favorisé ses propres services de shopping a du se plier aux exigences de la CNIL française pour mettre en place un droit à l’oubli. Mais cela sonne comme des gouttes d’eau dans l’océan et surtout cela concerne essentiellement des mesures défensives, comme si la bataille était déjà perdue. Internet,

Auteur: Internet

Info: http://www.econum.fr/gafa, 20 septembre 2015

[ transnationales ] [ puissance ] [ domination ] [ pouvoirs comprador ]

 

Commentaires: 0

fin de vie

Une nouvelle étude révèle que les survivants rapportent des "expériences de mort imminente" lucides

Chez certains patients ayant subi un arrêt cardiaque, une activité cérébrale intense pendant la réanimation cardio-pulmonaire peut être le signe d'une "expérience de mort imminente".

Que se passe-t-il lorsque nous mourons réellement, c'est-à-dire lorsque notre cœur s'arrête et que l'activité électrique de notre cerveau se stabilise ?

L'homme se pose cette question depuis des temps immémoriaux. C'est une question difficile, car les morts ne nous répondent généralement pas sur la nature de leurs expériences. Les textes religieux sont capables de fournir une multitude d'explications. Mais les scientifiques n'ont pas renoncé à apporter leurs propres réponses et ils progressent dans la compréhension du processus cérébral de transition entre la vie et la mort.

Tout récemment, ces progrès ont été rendus possibles grâce à des recherches qui ont permis d'observer le cerveau de personnes qui se trouvaient au seuil de la mort. Certaines de ces personnes ont été en mesure de raconter ce qu'elles ont vécu. Selon des résultats publiés le 14 septembre dans la revue Resuscitation, le cerveau de certains patients ayant subi un arrêt cardiaque s'est mis à fonctionner à plein régime pendant la réanimation cardio-pulmonaire, même si leur cœur s'est arrêté de battre pendant près d'une heure. Un petit groupe de participants à l'étude qui ont survécu ont pu se souvenir de l'expérience, et une personne a pu identifier un stimulus audio diffusé pendant que les médecins tentaient de la réanimer.

Les chercheurs interprètent les enregistrements cérébraux qu'ils ont effectués sur ces patients comme des marqueurs d'"expériences lucides de la mort" - une observation qui "n'avait jamais été possible auparavant", déclare l'auteur principal, Sam Parnia, professeur agrégé de médecine à la NYU Langone Health et chercheur de longue date sur ce qui arrive aux gens lorsqu'ils meurent. "Nous avons également été en mesure d'avancer une explication cohérente et mécaniste pour expliquer ce phénomène.

Les "expériences de mort remémorées" - terme que Parnia préfère à celui d'"expériences de mort imminente" pour des raisons de précision - ont été rapportées dans diverses cultures tout au long de l'histoire. Certains scientifiques occidentaux ont rejeté ces récits en les qualifiant d'hallucinations ou de rêves, mais récemment, quelques équipes de recherche ont commencé à accorder une attention plus sérieuse à ces phénomènes en les considérant comme un moyen d'étudier la conscience et de faire la lumière sur les mystères de la mort.

Dans cette nouvelle étude, Parnia et ses collègues ont cherché à trouver une signature biologique des expériences de mort dont on se souvient. Ils ont collaboré avec 25 hôpitaux, principalement aux États-Unis et au Royaume-Uni. Le personnel médical a utilisé des appareils portables pouvant être placés sur la tête des patients en situation d'urgence cardiaque afin de mesurer les niveaux d'oxygène et l'activité électrique de leur cerveau sans interférer avec leur traitement médical. Les chercheurs ont également testé les perceptions conscientes et inconscientes en plaçant des écouteurs sur les patients qui diffusaient un enregistrement répété des noms de trois fruits : banane, poire et pomme. En termes d'apprentissage inconscient, une personne qui ne se souvient pas d'avoir entendu ces noms de fruits mais à qui l'on demande de "penser à trois fruits au hasard" peut tout de même donner la bonne réponse, explique Mme Parnia. Des recherches antérieures ont montré, par exemple, que même des personnes plongées dans un coma profond peuvent apprendre inconsciemment le nom de fruits ou de villes si ces mots leur sont chuchotés à l'oreille.

Entre mai 2017 et mars 2020, 567 personnes ont subi un arrêt cardiaque dans les hôpitaux participants. Le personnel médical a réussi à recueillir des données exploitables sur l'oxygène et l'activité cérébrale de 53 de ces patients, dont la plupart présentaient un état électrique plat sur les moniteurs cérébraux électroencéphalographiques (EEG). Mais environ 40 % d'entre eux ont ensuite connu une activité électrique qui a réapparu à un moment donné avec des ondes cérébrales normales ou proches de la normale, compatibles avec la conscience. Cette activité a parfois été rétablie jusqu'à 60 minutes après la RCP (CPR*).

Sur les 567 patients, seuls 53 ont survécu. Les chercheurs ont interrogé 28 des survivants. Ils ont également interrogé 126 personnes de la communauté qui avaient subi un arrêt cardiaque, car l'échantillon de survivants de la nouvelle étude était très réduit. Près de 40 % d'entre eux ont déclaré avoir perçu l'événement sans en avoir de souvenirs précis, et 20 % ont semblé se souvenir de la mort. Dans ce dernier groupe, beaucoup ont décrit l'événement comme une "évaluation morale" de "leur vie entière et de la manière dont ils se sont comportés", explique Mme Parnia.

Lors des entretiens avec les survivants, les chercheurs ont constaté qu'une seule personne était capable de se souvenir des noms des fruits qui avaient été joués pendant la réanimation cardio-pulmonaire. M. Parnia reconnaît que cette personne aurait pu deviner les bons fruits par hasard.

Lui et ses collègues ont élaboré une hypothèse de travail pour expliquer leurs résultats. Normalement, le cerveau dispose de "systèmes de freinage" qui filtrent la plupart des éléments de la fonction cérébrale hors de notre expérience de la conscience. Cela permet aux gens d'agir efficacement dans le monde, car dans des circonstances normales, "vous ne pourriez pas fonctionner en ayant accès à toute l'activité de votre cerveau dans le domaine de la conscience", explique-t-il.

Dans le cerveau mourant, cependant, les chercheurs supposent que le système de freinage est supprimé. Les parties normalement dormantes deviennent actives et le mourant a accès à l'ensemble de sa conscience - "toutes ses pensées, tous ses souvenirs, tout ce qui a été stocké auparavant", explique M. Parnia. "Nous ne connaissons pas les avantages évolutifs de cette méthode, mais elle semble préparer les gens à passer de la vie à la mort.

Ces résultats soulèvent également des questions sur la résistance du cerveau au manque d'oxygène. Il se pourrait, selon Mme Parnia, que certaines personnes que l'on considère traditionnellement comme irrécupérables puissent en fait être ramenées à la vie. "Les médecins pensent généralement que le cerveau meurt lorsqu'il est privé d'oxygène pendant cinq à dix minutes", explique-t-il. "Nous avons pu montrer que le cerveau est assez robuste en termes de capacité à résister à la privation d'oxygène pendant des périodes prolongées, ce qui ouvre de nouvelles voies pour trouver des traitements pour les lésions cérébrales à l'avenir.

La nouvelle étude "représente un effort herculéen pour comprendre aussi objectivement que possible la nature de la fonction cérébrale telle qu'elle peut s'appliquer à la conscience et aux expériences de mort imminente pendant un arrêt cardiaque", déclare Lakhmir Chawla, médecin de l'unité de soins intensifs au Jennifer Moreno Department of Veterans Affairs Medical Center à San Diego (Californie), qui n'a pas participé à la recherche mais a publié des articles sur les pics d'activité EEG au moment de la mort chez certains patients.

Si les résultats obtenus par Parnia et ses collègues sont "frappants" d'un point de vue scientifique, "je pense que nous devrions permettre à ces données d'éclairer notre humanité", ajoute-t-il. D'une part, ces résultats devraient "obliger les cliniciens à traiter les patients qui reçoivent une RCP (CPR*) comme s'ils étaient éveillés", ce que "nous faisons rarement".

Et pour les personnes qui semblent ne plus pouvoir être sauvées, les médecins pourraient inviter leur famille à venir leur dire au revoir, "car le patient est peut-être encore capable de les entendre", ajoute M. Chawla.

Auteur: Internet

Info: https://www.scientificamerican.com/, Rachel Nuwer on September 14, 2023 *Réanimation cardio-pulmonaire La réanimation cardio-pulmonaire consiste à effectuer des compressions thoraciques et des respirations de secours pour maintenir la circulation de l'oxygène dans le corps.

[ e.m.i ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La pensée est-elle contenue dans le langage?

Suite de notre série d’été: selon les scientifiques, les mots suggèrent toujours plus que la pensée qui les a fait naître.

" Me promenant en ville, l’autre jour, j’ai entendu tout à coup un miaulement plaintif au-dessus de moi. J’ai levé les yeux. Sur le bord du toit se trouvait un petit chat. "

Il suffit de lire (ou d’écouter) ce début d’histoire pour " voir " aussitôt la scène: le toit, le petit chat, le promeneur qui le regarde. A quoi ressemble ce chat? Peu importe qu’il soit blanc ou noir, le mot renvoie à ce que tout le monde connaît: un animal à quatre pattes, une queue, des oreilles pointues, des yeux ronds, qui miaule (et parfois ronronne).

Mais sans l’existence d’un mot ­général qui désigne tous les types de chats – roux, noirs, blancs, tigrés, assis ou debout, gros ou maigrelets… –, aurait-on une idée générale de l’espèce " chat "? Notre monde mental ne serait-il pas dispersé en une myriade d’impressions, de situations, d’objets tous différents? Deux conceptions s’opposent à ce propos.

La plupart des philosophes, psychologues et linguistes, au début du XXe siècle, partagent cette idée: le langage étant le propre de l’homme, c’est lui qui donne accès à la pensée. Sans langage, il n’y aurait pas de pensée construite: nous vivrions dans un monde chaotique et brouillé fait d’impressions, de sensations, d’images fugitives.

C’est ce que pensait Ferdinand de Saussure, le père de la linguis­tique contemporaine, qui affirmait dans son Cours de linguistique générale (1916): " Philosophes et linguistes se sont toujours accordés à reconnaître que sans le secours des signes nous serions incapables de distinguer deux idées d’une façon claire et constante. Prise en elle-même, la pensée est comme une nébuleuse où rien n’est nécessairement délimité. " Et il ajoutait: " Il n’y a pas d’idées préétablies, et rien n’est distinct avant l’apparition de la langue. " Vers la même époque, le philosophe du langage Ludwig Witt­genstein était parvenu à la même conclusion: " Les limites de mon langage signifient les limites de mon monde ", écrit-il dans le Tractacus (1921). Un peu plus tard, dans Pensée et Langage (1933), le psychologue russe Lev S. Vygotski le dira à sa manière: " La pensée n’est pas seulement exprimée par les mots: elle vient à l’existence à travers les mots. "

Si le langage produit la pensée, cette théorie a de nombreuses conséquences. D’abord que la linguis­tique tient une place centrale dans la connaissance du psychisme humain et que décrypter les lois du langage revient à décrypter les lois de la pensée. Sans le mot " chat ", on ne percevrait que des cas particuliers: des chats roux, blancs ou tigrés, sans jamais comprendre qu’ils appartiennent à une même catégorie générale. Le langage donne accès à cette abstraction, déverrouille la pensée.

Mais est-on vraiment sûr que, sans l’existence du mot " chat ", notre pensée serait à ce point diffuse et inconsistante, que, privé du mot, l’on ne pourrait pas distinguer un chat d’un chien? Les recherches en psychologie cognitive, menée depuis les années 1980, allaient démontrer que les nourrissons disposent, bien avant l’apparition du langage, d’une vision du monde plus ordonnée qu’on ne le croyait jusque-là.

Ces recherches ont donné du poids aux linguistiques cognitives, apparues dans les années 1970, qui ont introduit une véritable révolution copernicienne dans la façon d’envisager les relations entre langage et pensée. Les linguistiques cognitives soutiennent en effet que les éléments constitutifs du langage – la grammaire et le lexique – dépendent de schémas mentaux préexistants. Pour le dire vite: ce n’est pas le langage qui structure la pensée, c’est la pensée qui façonne le langage. L’idée du chat précède le mot, et même un aphasique, qui a perdu l’usage du langage, n’en reconnaît pas moins l’animal.

Les conséquences de cette approche allaient être fondamentales. Tout d’abord la linguistique perdait son rôle central pour comprendre le psychisme humain. Et la psy­chologie cognitive, qui se propose de comprendre les états mentaux, devait prendre sa place.

Ainsi, pour comprendre le sens du mot " chat ", il faut d’abord comprendre le contenu de la pensée auquel le mot réfère. Pour la psychologue Eleanor Rosch (une référence essentielle pour les linguistiques cognitives), l’idée de " chat " se présente sous la forme d’une image mentale typique appelée " prototype ", correspondant à un modèle mental courant: l’animal au poil soyeux, yeux ronds, moustache, qui miaule, etc. La représentation visuelle tient une place centrale dans ce modèle mental: ce sont d’ailleurs dans les livres d’images que les enfants découvrent aujourd’hui ce qu’est une vache, un cochon ou un dinosaure.

Georges Lakoff, élève dissident de Noam Chomsky et tenant de la sémantique cognitive, soutiendra que les mots prennent sens à partir des schémas mentaux sur lesquels ils sont greffés. Voilà d’ailleurs comment s’expliquent les métaphores. Si je dis d’un homme qu’il est un " gros matou ", personne ne va le prendre pour un chat, chacun comprend que je fais appel à des cara­ctéristiques sous-jacentes des gros chats domestiques: placides, indolents, doux. Ce sont ces traits sous-jacents qui forment la trame des mots et leur donnent sens.

Ronald W. Langacker  a appliqué les mêmes principes à la grammaire. Les structures de la grammaire ne reposent pas sur les lois internes au langage, mais dérivent de catégories mentales plus pro­fondes, notamment des représen­tations spatiales. Ainsi, dans beaucoup de langues, l’expression du temps (futur, passé) est décrite en termes d’espace: on dit " après"-demain ou "avant"-hier, comme on dit que le temps est " long " ou " court ".

Ces approches psychologiques du langage ont donc renversé le rapport entre langage et pensée.

Une des conséquences majeures est que le langage n’est pas le seul " propre de l’homme "; il n’est qu’un dérivé de la capacité à produire des représentations mentales, précisément des images mentales organisées en catégories. Au moment même où les linguistiques cogni­tives prenaient de l’importante, un autre courant de pensée, la prag­matique (à ne pas confondre avec le pragmatisme, un courant philosophique américain) allait proposer une autre version des relations entre langage et pensée.

Revenons à notre chat perdu. En utilisant le mot " chat ", nul ne sait exactement quelle image l’auteur de l’histoire a vraiment en tête: quelle est pour lui sa couleur, sa taille ou sa position exacte? Le mot a la capacité de déclencher des représentations, mais il ne peut les contenir intégralement. C’est sa force et ses limites.

Selon l’approche de la pragmat­ique, le langage n’est ni le créateur de la pensée (comme le pensait Saussure) ni son reflet (comme le soutiennent les linguistiques cognitives) : il est un médiateur qui déclenche des représentations. C’est un peu comme une étiquette sur une porte qui indique ce qui se trouve à l’intérieur (chambre 23, WC…) mais ne dit rien sur la couleur des murs, la forme du lit ou la position des toilettes.

Cela a d’importantes conséquences sur la façon d’envisager les relations entre langage et pensée. Le mot ne contient pas l’idée, il ne la reflète pas non plus, mais il l’induit. Quand on communique, on ne fait qu’induire une représentation. Le procédé est économique car il n’oblige pas à tout dire: le " toit " sur lequel est perché le chat renvoie ­implicitement au toit d’une maison et non à un toit de voiture, tout le monde le comprend sans qu’il soit besoin de le dire. Tous les mots comportent de l’implicite, qu’il s’agit de décoder.

En un sens, le langage, comme outil de communication, est réducteur par rapport à la pensée qu’il représente. Mais en même temps, les mots suggèrent toujours plus que la pensée qui les a fait naître, déclenchant chez ceux qui l’écoutent une infinité de représentations possibles. 

Auteur: Internet

Info: https://www.letemps.ch/ - Jean-François Fortier août 2013

[ signifiants symboles ] [ manifestations codées ] [ tiercités ] [ contextualisation générale ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

fric

Faut-il réduire la taille des établissements bancaires ? Une stricte séparation entre banque de dépôt et banque d'investissement est-elle nécessaire ? Qu'en est-il des relations entre les pouvoirs publics et les banques ?
La Lettre des Académies, une publication commune de l'Académie royale de Belgique, l'Académie royale de Médecine de Belgique, l'Académie royale de langue et littérature françaises de Belgique, The Royal Academies for Science and the Arts of Belgium et l'Union Académique internationale, me pose la question mise en titre. Ma réponse sera publiée dans le N° 31.
Une réponse a été offerte indirectement à ces questions d'actualité, le 6 mars 2013, par Eric Holder, l'Attorney General des États-Unis, l'équivalent de notre Ministre de la justice.
Le cadre de sa déclaration était une audition du Comité judiciaire du Sénat américain. Les questions posées visaient à comprendre pourquoi aucun dirigeant d'établissement bancaire n'avait été poursuivi à la suite des événements qui avaient conduit à l'effondrement du système financier international en septembre 2008, le fait étant patent que l'origine de ce séisme se trouve au sein-même du système bancaire américain, et plus particulièrement dans l'émission de titres adossés à des prêts immobiliers résidentiels de qualité médiocre, les fameux prêts "subprime".
Répondant au Sénateur Chuck Grassley (républicain de l'Iowa), qui l'interrogeait sur l'apathie du ministère de la Justice dans la recherche de coupables, Eric Holder déclaraot ceci :
"Je crains que la taille de certains de ces établissements ne soit devenue si grande qu'il est devenu difficile de les poursuivre en justice, parce que des indications nous parviennent qui si nous les poursuivions - si nous procédions à des inculpations - cela aurait un impact négatif sur l'économie nationale, voire même sur l'économie mondiale, et il me semble que ceci est la conséquence du fait que certains de ces établissements sont devenus trop importants [...] Ceci a une influence inhibitoire sur, ou impacte, notre capacité à prendre les mesures qui seraient selon moi les plus adéquates..."
Holder ne dit pas explicitement qu'il existe entre le secteur bancaire et le ministère de la Justice un rapport de force et qu'au sein de celui-ci, le ministère de la Justice est en position défavorable, mais c'est bien ainsi que ses propos furent interprétés par les sénateurs qui l'interrogeaient. C'est également la manière dont sa réponse fut rapportée par la presse unanime.
* * *
Lorsqu'il était devenu manifeste à l'automne 2008 que certaines banques étaient à ce point stratégiques que leur chute, comme celle de Lehman Brothers qui venait d'intervenir, entraînerait celle du secteur financier tout entier, l'expression "Too Big to Fail" se répandit : trop grosse pour faire défaut. Elle s'emploie toujours, en concurrence avec l'expression officielle de "banque systémique", en référence au risque systémique : la mise en péril du système financier dans son ensemble.
En février 2013, dans une tribune libre du Financial Times, Neil Barofsky, qui avait été l'Inspecteur-général du Troubled Asset Relief Programme (TARP), le programme de sauvetage du système financier américain, employa une nouvelle expression calquée sur la première : "Too Big to Jail", trop grosse pour être mise en prison.
S'il était donc apparu en 2008 que certains établissements bancaires étaient à ce point cruciaux que leur faillite se répercuterait sur l'ensemble du système financier, il était devenu évident en 2013, et c'est ce que les propos du ministre de la Justice américain confirmaient, que le rapport de force entre ces mêmes banques et le gouvernement était tel qu'elles disposaient du pouvoir de maintenir le statu quo. Les banques systémiques disposaient désormais du pouvoir de faire obstacle à ce qu'on les empêche de mettre en péril l'ensemble du système financier, et ce pouvoir, elles l'exerçaient.
Trois approches étaient envisageables vis-à-vis des banques systémiques :
1) les démanteler, jusqu'à ce que la taille des unités recomposées soit telle que leur défaut n'entraîne plus d'effet domino ;
2) décourager ou interdire celles de leurs activités qui génèrent du risque systémique, à savoir les paris sur les variations de prix (ce qu'on désigne habituellement du terme trop vague de "spéculation").
3) accroître les réserves par rapport à leur niveau d'avant-crise, en espérant que le calcul soit cette fois fait correctement.
À chaud, à l'automne 2008, les deux premières options uniquement étaient sérieusement prises en considération, la troisième était écartée du fait de sa touchante naïveté. Seule cette dernière pourtant serait adoptée en juillet 2011 avec les normes Bâle III, qui devraient être mises en vigueur entre 2016 et 2019, du moins si les efforts des lobbies qui cherchent aujourd'hui à les bloquer devaient échouer.
Dans une approche en termes de réserves, rien n'est fait - il faut le souligner - pour endiguer le risque systémique : on s'efforce seulement d'évaluer les pertes éventuelles. Bâle III ne distingue pas non plus les risques inévitables, dus aux impondérables d'un avenir incertain, et les risques encourus délibérément par les banques quand elles font des paris sur les variations de prix.
* * *
Dans trois cas récents, les efforts du secteur bancaire pour faire obstacle à ce qu'on l'empêche de mettre à l'avenir l'ensemble du système financier en péril, furent couronnés de succès.
Un tribunal à Washington invalidait le 29 septembre 2012 des mesures prises par la CFTC (Commodity Futures Trading Commission), le régulateur américain du marché des produits dérivés, règles qui auraient plafonné le volume des positions qu'un intervenant peut prendre sur le marché à terme des matières premières, afin qu'il ne puisse à lui seul le déséquilibrer. Le secteur s'était opposé à de telles mesures, noyant la commission sous un flot d'avis défavorables, s'assurant ensuite - grâce au parti républicain - que le budget de l'organe de contrôle prévu ne soit pas voté, assignant enfin la CFTC devant les tribunaux. Cette dernière stratégie s'avérerait payante.
On avait appris quelques jours auparavant, le 24 septembre 2012, que l'IOSCO (International Organisation of Securities Commissions), organisme fédérant les régulateurs nationaux sur le marché des matières premières, et à qui le G20 avait confié le soin de réguler le marché du pétrole, jetait l'éponge. Lors de la réunion qui venait de se tenir, les contreparties : l'Agence Internationale de l'énergie, l'OPEP (Organisation des pays exportateurs de pétrole) et les compagnies Total et Shell, avaient constitué un front du refus. Les compagnies pétrolières avaient affirmé qu'en cas de réglementation du secteur, elles cesseraient de communiquer à leurs organismes de supervision les données relatives aux prix pratiqués.
Le mois précédent, le 22 août 2012, alors que la SEC (Securities and Exchange Commission), le régulateur des marchés boursiers américains, avait mis au point un ensemble de mesures en vue d'empêcher que ne se reproduise un effondrement du marché des capitaux à court terme (money market), tel celui qui l'avait dévasté en septembre 2008, elle n'était pas parvenue à réunir une majorité en son sein, l'un des membres du comité - très lié au secteur - ayant refusé son aval.
Je concluais ainsi ma chronique dans le quotidien Le Monde, où je rapportais ces trois illustrations (°) :
"La finance dispose donc des moyens de neutraliser toute tentative de réduire la nocivité de ses pratiques. Elle s'est immunisée contre les efforts engagés par la communauté pour se protéger contre un nouvel effondrement, efforts motivés bien entendu par le souci de se prémunir contre les conséquences économiques et sociales d'une telle catastrophe. Toute mesure préventive d'un nouveau désastre étant systématiquement désamorcée, celui-ci devient inéluctable".
J'avais donné pour titre à ma chronique elle-même, une citation d'Arnold J. Toynbee : "Les civilisations ne meurent pas assassinées, elles se suicident".
Tous les efforts menés en vue d'une nouvelle régulation de la finance recourent à la même stratégie : le monde financier est consulté par les autorités, se tient ensuite une négociation visant à ce que se dégage un compromis entre les exigences des uns et des autres. La condition essentielle pour qu'une telle stratégie réussisse est que l'industrie financière s'identifie à l'intérêt général, qu'elle reconnaisse et promeuve la nécessité de garantir un cadre qui maintienne la pérennité des institutions financières sans affecter pour autant la bonne santé de l'économie. Cette condition-là n'est hélas pas remplie.
John Maynard Keynes écrivait en 1926 dans un essai consacré à "La fin du laisser-faire" : "Suggérer à la City de Londres une action sociale en vue du bien public est du même ordre d'idée que discuter L'origine des espèces avec un évêque il y a soixante ans". La remarque n'a rien perdu de son actualité, et notre tolérance, à nous citoyens, face à ce scandale, toujours aussi grande, suggérant que nous nous sommes faits une raison devant un rapport de force entre le secteur bancaire et nous qui semble destiné à nous demeurer éternellement défavorable.

Auteur: Jorion Paul

Info: 13 AOÛT 2013

[ société ] [ pouvoir ] [ profit ]

 

Commentaires: 0

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Comment les pieuvres changent de couleur
Le morphing, c'était amusant. Rappelez-vous dans Terminator 2 les effets d'infographie qui permettaient au mauvais Terminator de prendre la forme et le visage de toute personne qu'il rencontrait ? La transformation à l'écran violait les règles non écrites de ce qui était prétendument possible de voir et procurait un plaisir profond et déchirant quelque part le fond du cerveau du spectateur. On pouvait presque sentir nos machines neurales se briser et se recoller les unes aux autres.
Dommage que l'effet soit devenu un cliché. De nos jours, on regarde une annonce télévisée ou un film de science-fiction et une voix intérieure dit : "Ho hum, juste un autre morph." Cependant, il y a un clip vidéo que je montre souvent aux élèves et à mes amis pour leur rappeler, ainsi qu'à moi-même, les effets de la transformation anatomique. Cette vidéo est tellement choquante que la plupart des téléspectateurs ne peuvent bien l'apprécier la première fois qu'ils la voient - alors ils demandent à la voir encore et encore et encore, jusqu'à ce que leur esprit se soit suffisamment adapté pour l'accepter.

La vidéo a été tournée en 1997 par mon ami Roger Hanlon alors qu'il faisait de la plongée sous-marine au large de l'île Grand Cayman. Roger est chercheur au Laboratoire de biologie marine de Woods Hole ; sa spécialité est l'étude des céphalopodes, une famille de créatures marines comprenant les poulpes, les calmars et les seiches. La vidéo est tournée alors qu'il nage vers le haut pour examiner un banal rocher recouvert d'algues en suspension. Soudain, étonnamment, un tiers de la roche et une masse enchevêtrée d'algues se transforme et révèle ce qu'elle est vraiment : les bras ondulants d'une pieuvre blanche brillante. Pour se protéger la créature projette de l'encre sur Roger et s'élance au loin, laissant Roger et le spectateur bouches bées.
La vedette de cette vidéo, Octopus vulgaris, est l'une des nombreuses espèces de céphalopodes capables de se métamorphoser, tout comme la pieuvre mimétique et la seiche géante australienne. Le truc est si bizarre qu'un jour j'ai suivi Roger dans l'un de ses voyages de recherche, juste pour m'assurer qu'il ne maquillait pas ça avec des trucages sophistiqués. À cette époque, j'étais accro aux céphalopodes. Mes amis ont dû s'adapter à mon obsession ; ils se sont habitués à mes fulgurances sur ces créatures. Je ne peux plus me résoudre à manger de calamars. En ce qui me concerne, les céphalopodes sont les créatures intelligentes les plus étranges sur Terre. Elles offrent le meilleur exemple de la façon dont des extraterrestres intelligents (s'ils existent) pourraient ètre vraiment différents de nous, et comment ils pourraient nous narguer avec des indices sur l'avenir potentiel de notre propre espèce.

Le morphing chez les céphalopodes fonctionne un peu de la même façon que dans l'infographie. Deux composantes sont impliquées : un changement dans l'image ou la texture visible sur la surface d'une forme et un changement dans la forme sous-jacente elle-même. Les "pixels" de la peau d'un céphalopode sont des organes appelés chromatophores. Ceux-ci peuvent se dilater et se contracter rapidement, et chacun est rempli d'un pigment d'une couleur particulière. Lorsqu'un signal nerveux provoque l'expansion d'un chromatophore rouge, le "pixel" devient rouge. Une série de mouvements nerveux provoque un déplacement de l'image - une animation - qui apparaît sur la peau du céphalopode. Quant aux formes, une pieuvre peut rapidement disposer ses bras pour en former une grande variété, comme un poisson ou un morceau de corail, et peut même soulever des marques sur sa peau pour ajouter de la texture.
Pourquoi se transformer pareillement ? L'une des raisons est le camouflage. (La pieuvre de la vidéo essaie probablement de se cacher de Roger.) Un autre est pour manger. Un des clips vidéo de Roger montre une seiche géante poursuivant un crabe. La seiche est principalement à corps mou, le crabe à armure. À l'approche de la seiche, le crabe, d'allure médiévale, prend une posture machiste, agitant ses griffes acérées vers le corps vulnérable de son ennemi.

La seiche répond avec une performance psychédélique bizarre et ingénieuse. Des images étranges, des couleurs luxueuses et des vagues successives d'éclairs ondulent et filigranes sur sa peau. C'est si incroyable que même le crabe semble désorienté ; son geste menaçant est remplacé un instant par un autre qui semble exprimer "Heuuuuh ?" C'est à ce moment que la seiche frappe entre les fissures de l'armure.
Elle utilise l'art pour chasser ! Chez certains ingénieurs chercheurs cette même manoeuvre s'appelle "esbroufer". Éblouissez votre financier potentiel avec une démonstration de votre projet, puis foncez avant que la lueur ne s'estompe.
En tant que créatures intelligentes, les céphalopodes sont peut-être les plus "étranges" que nous connaissions ; voyez-les comme une répétition générale pour le jour lointain où nous pourrions rencontrer des ET's intelligents. Les chercheurs sur les céphalopodes adorent partager les dernières nouvelles sur les pieuvres intelligentes ou les histoires émouvantes de seiches qui impliquent souvent des évasions téméraires hors des aquariums. Dans une autre vidéo de Roger, une pieuvre sur un récif corallien traverse une dangereuse étendue ouverte entre les têtes de corail. L'animal prend la posture, le dessin et la coloration d'une tête de corail, puis se tient debout comme sur sur ses orteils en pointe et se déplace lentement en terrain découvert. Les seules choses qui bougent sont les bout des bras ; le reste de l'animal semble immobile. Mais voici la partie la plus intelligente : En eau peu profonde à midi, par une journée ensoleillée et agitée, les ombres intenses et la lumière balayent tout. Non seulement le "rocher en mouvement" les imite, mais il veille à ne pas dépasser la vitesse de ces effets lumineux, pleinement conscient de son apparence dans des conditions changeantes.

En tant que chercheur qui étudie la réalité virtuelle, je peux vous dire exactement quelle émotion m'envahit lorsque je regarde les céphalopodes se transformer : la jalousie. La réalité virtuelle, un environnement informatique et graphique immersif dans lequel un humain peut "entrer" et se transformer en diverses choses, n'est que pâle approximation de l'expérience. Vous pouvez avoir un corps virtuel, ou avatar, et faire des choses comme examiner vos mains ou vous regarder dans un miroir virtuel. D'ailleurs certains des premiers avatars expérimentaux étaient en fait aquatiques, dont un qui permettait à une personne d'habiter le corps d'un homard.

Le problème, c'est que pour se transformer, les humains doivent concevoir des avatars dans les moindres détails à l'avance. Nos outils logiciels ne sont pas encore assez flexibles pour nous permettre, en réalité virtuelle, de nous imaginer sous différentes formes. Pourquoi le voudrions-nous ? Considérez les avantages existants de notre capacité à créer des sons avec notre bouche. Nous pouvons faire de nouveaux bruits et imiter les bruits existants, spontanément et instantanément. Mais quand il s'agit de communication visuelle, nous sommes paralysés. Nous pouvons mimer, nous pouvons apprendre à dessiner et à peindre, ou utiliser des logiciels de conception graphique par ordinateur. Mais nous ne pouvons pas produire des images à la vitesse à laquelle nous pouvons les imaginer.

Nos capacités vocales font partie de ce qui a permis à notre espèce de développer via le langage parlé. De même, notre capacité à dessiner des images - ainsi que les structures cérébrales nécessaires - était pré-adaptative au langage écrit. Supposons que nous ayons la capacité de nous transformer à volonté : Quel genre de langage pourrait rendre cela possible ? Serait-ce la même vieille conversation, ou serions-nous capables de nous "dire" des choses nouvelles les uns aux autres ?

Par exemple, au lieu de dire "J'ai faim ; allons chasser le crabe", vous pourriez simuler votre propre transparence pour que vos amis puissent voir votre estomac vide, ou vous transformer en jeu vidéo sur la chasse au crabe pour que vous et vos compatriotes puissiez vous entraîner un peu avant la chasse réelle. J'appelle ça une communication post symbolique. Certaines personnes pensent que la capacité de morphing ne ferait que vous donner un nouveau dictionnaire qui correspondrait aux mêmes vieilles idées, avec des avatars à la place des mots, alors que d'autres, dont moi, pensent qu'il y aura des différences fondamentales.
Il y a une autre façon d'y penser. Si les céphalopodes évoluent un jour pour devenir des créatures intelligentes et développer des civilisations, que pourraient-elles faire de cette capacité à se transformer ? Serions-nous capables de communiquer avec elles ? Peut-être offrent-elles un substitut utile à la réflexion sur une façon dont les extraterrestres intelligents, où qu'ils soient, pourraient un jour se présenter à nous. En essayant de développer de nouvelles façons de communiquer en utilisant le morphing dans la réalité virtuelle, nous faisons au moins un peu pour nous préparer à cette possibilité. Nous, les humains, pensons beaucoup de nous-mêmes en tant qu'espèce ; nous avons tendance à supposer que la façon dont nous pensons est la seule façon de penser. Peut-être devrions-nous y réfléchir à deux fois.

Auteur: Lanier Jaron

Info: http://discovermagazine.com, April 02, 2006

[ prospective ]

 

Commentaires: 0

éloge de l'indiscipline

La question de la désobéissance est au cœur de l’attentat contre le Bataclan. La tuerie a été stoppée par un commissaire de la brigade anticriminalité (BAC) qui a enfreint les consignes. À l’inverse, huit soldats de la force Sentinelle y assistaient les bras ballants, comme on le leur avait ordonné. Ces sujets très sensibles sont abordés dans le documentaire Les Ombres du Bataclan, de Francis Gillery (en ligne sur arte.tv), et dans le livre Le Procès, de Georges Fenech (Éditions du Rocher), d’après les rapports de la commission d’enquête parlementaire.

Quatre-vingt-dix morts, c’est déjà suffisamment monstrueux. Mais le bilan aurait été bien plus lourd sans l’action d’un homme qui a enfreint le protocole. Cet homme, appelons-le commis­saire X, vu qu’il a toujours tenu à garder l’anonymat. En novembre 2015, il fait partie de la brigade anticriminalité (BAC), et patrouille dans le 17e arrondissement de Paris lorsqu’il apprend, par sa radio de bord, l’attentat au Stade de France. Ni une ni deux, il décide de s’y rendre. Il est alors 21 h 25. Quelques minutes plus tard, ce sont les tirs sur les terrasses dans le 11e. Aussitôt, changement de direction. Puis c’est le Bataclan : le commissaire X y parvient à 21 h 54. Devant l’établissement, il trouve des militaires de la force Sentinelle, qui étaient là par hasard. À l’intérieur, ça tire. Il demande aux soldats d’intervenir : leur hiérarchie refuse. Il leur demande alors de lui filer leurs armes : ils leur répondent qu’ils n’ont pas le droit de s’en séparer.

Le protocole aurait exigé que le commissaire X attende sagement l’arrivée des forces d’élite. Mais ce n’est pas son choix. Il appelle sa femme pour lui dire adieu, persuadé qu’il n’en sortira pas vivant, et décide, sans demander l’autorisation de sa hiérarchie, d’entrer avec son équipier dans la salle de concert. Il abat un terroriste, ce qui contraint les deux autres à se replier à l’étage. Dès lors, il n’y aura plus aucun tir sur les spectateurs. On peut affirmer que le commissaire X a mis fin au massacre. Il faudra attendre plus de vingt minutes – durant lesquelles les terroristes n’auraient pas cessé de tirer – pour que la brigade de recherche et d’intervention (BRI) arrive au Bataclan, à 22 h 20 précisément.

Aujourd’hui, le commissaire X est célébré, à juste titre, comme un héros. Mais, selon la rigide logique hiérarchique, il pourrait être sanctionné, puisqu’il a délibérément contrevenu aux consignes. Le livre de Georges Fenech rapporte son témoignage devant la commission d’enquête parlementaire sur les attentats : "Humainement, compte tenu de ce qui se passait, on sentait bien qu’ils étaient en train d’achever les otages, on ne pouvait pas rester à l’extérieur. Un des fonctionnaires a proposé d’attendre la BRI. J’ai répondu non."

L’attitude du commissaire X est à opposer à celle des soldats de la force Sentinelle. Car il y avait non pas un ou deux, mais huit – oui, huit ! – militaires équipés de fusils d’assaut devant le Bataclan. Quand les policiers demandent à la préfecture l’autorisation de les faire intervenir, on leur répond : "Négatif, vous n’engagez pas les militaires, on n’est pas en zone de guerre." Alors, à quoi servent ces guignols en treillis ? S’ils voient une femme en train d’être violée, ils restent les bras ballants tant qu’ils ne reçoivent pas l’ordre d’intervenir ?

On a également dit qu’ils n’étaient pas formés pour ce genre d’intervention. Sans doute. Mais avec un tel raisonnement, le commissaire X ne serait jamais entré dans le Bataclan. La commis­sion d’enquête parlementaire a auditionné le général Bruno Le Ray, alors gouverneur militaire de ­Paris. Sa justification de la passivité des soldats est telle­ment hallucinante que ça vaut le coup d’en citer de larges extraits : "On n’entre pas dans une bouteille d’encre, c’est-à-dire sans savoir où l’on va, ce que l’on va faire et contre qui […] en mon âme et conscience, je n’aurais donc pas donné l’ordre à mes soldats de pénétrer dans le bâtiment sans un plan d’action prédéfini […] il est impensable de mettre des soldats en danger dans l’espoir hypothétique de sauver d’autres hommes […] ils n’ont pas vocation à se jeter dans la gueule du loup s’ils ne sont pas assurés de disposer de chances raisonnables d’accomplir leur mission."

Je pensais naïvement que les militaires étaient entraînés pour faire face à n’importe quelle situation d’urgence. Je ­découvre que non, bien au contraire. Qu’ils ne donnent ­l’assaut qu’après mûre et patiente analyse de la situation, et qu’à la condition d’être certains de ne prendre aucun risque et de réussir, cela quand bien même des gens se font canarder à quelques mètres d’eux ! Georges Fenech, lui non plus, n’en ­revient toujours pas, et n’hésite pas à écrire que "cette passivité confine à de la non-assistance à personne en danger".

Justement, c’est le coeur du sujet. Quand vous êtes huit militaires lourdement armés et que des gens se font tuer à deux pas, n’est-ce pas de la non-assistance à personne en danger que de rester passif (de surcroît en laissant de simples policiers munis de leur flingue de service aller au feu) ? Il y a les ordres, certes. Mais, dans certains cas, on a non seulement le droit, mais le devoir d’y désobéir. L’article D. ­4122–3 du Code de la défense stipule que le militaire "ne doit pas exécuter un ordre prescrivant d’accomplir un acte manifestement illégal". Ce texte a été rédigé pour éviter (ou du moins limiter) la torture ou les massacres de civils. Mais si l’ordre contrevient à l’obligation de porter secours, est-il lui aussi "manifestement illégal" ? En droit pénal, cette obligation de désobéissance porte un nom : la "théorie de la baïonnette intelligente". Un concept qui semble totalement échapper au général Bruno Le Ray.

"Ils étaient en train d’achever les otages, on ne pouvait pas rester à l’extérieur."

Il y en a d’autres qui n’ont pas attendu les ordres. Ce sont les hommes du Raid. Cette unité était alors dirigée par Jean-Michel Fauvergue : "J’étais en train de dîner avec mes hommes quand j’ai appris l’attentat. J’ai alors décidé de me rendre aussitôt, de ma propre initiative, au Bataclan. Mais je n’ai jamais été appelé officiellement." Jean-Michel Fauvergue aurait eu le temps d’avaler dessert et digestif s’il avait attendu l’ordre de sa hiérarchie. Pourquoi le Raid – unité a priori la plus compé­tente dans ce genre de situation – n’a-t-il pas été mobilisé ? Cela reste, encore aujourd’hui, un mystère. Bizarrement, le préfet de police, Michel Cadot, a décidé de confier les rênes de l’opération à la BRI, dont Georges Fenech dit qu’elle est "habituellement compétente pour neutraliser des forcenés ou des preneurs d’otages classiques". Le Raid aurait-il été plus rapide que la BRI s’il avait dirigé les opérations – sachant que plus de deux heures se sont écoulées entre l’arrivée de cette dernière et l’assaut final ? Impossible de répondre, mais, pour Jean-Michel Fauvergue, il est indéniable que "quelque chose ne va pas lorsqu’un groupe spécialisé de compétence nationale se met à la disposition d’un groupe non spécialisé de compétence locale". En tout cas, ce 13 novembre, il assume totalement de ne pas avoir attendu la bénédiction de sa hiérarchie pour intervenir : "Dans ma carrière, il m’est arrivé plein de fois de prendre des initiatives sans attendre les ordres."

Autre problème, encore lié à cette histoire d’obéissance. Dans le documentaire de Francis Gillery, on apprend l’existence d’une brigade d’intervention (BI), à ne pas confondre avec la BRI. La BI était une brigade peu médiatisée, mais d’élite, elle aussi (elle a notamment participé à l’assaut contre l’Hyper Cacher), aujourd’hui intégrée à la BRI. Le 13 novembre, six de ses membres reviennent d’un entraînement à la tour Eiffel, lorsqu’ils ont connaissance de l’attentat au Stade de France. Ils filent illico à leur QG, s’équipent et attendent les ordres, prêts à foncer. Il est environ 21 h 30. Mais c’est la consternation : la hiérarchie leur dit non, vous n’y allez pas. Alors qu’ils sont à cinq minutes des terrasses du 11e arrondissement, on leur ordonne de se rendre au 36, quai des Orfèvres, d’attendre que la BRI s’équipe, puis de s’intégrer à celle-ci. Ce qui les fait arriver au Bataclan vers 22 h 40. Alors qu’ils auraient pu y être au moins quarante-cinq minutes plus tôt, et peut-être même avant le commissaire X ! Un retard incompréhensible, quand chaque minute représente des dizaines de victimes supplémentaires. Dans Les Ombres du Bataclan, un ancien membre de la BI exprime ses regrets d’avoir obéi : "Le commandant qui a appelé pour demander l’autorisation de se rendre sur place, je pense qu’il regrette, non pas d’avoir appelé, mais d’avoir demandé l’autorisation, il aurait dû appeler pour dire on y va. Point."

Depuis, les règles ont changé : dans le même genre de situation, les soldats de la force Sentinelle pourraient intervenir, et l’unité d’élite la plus proche des lieux serait autorisée à conduire les opérations. On peut aussi tirer de cette tragédie une leçon de philosophie : ceux qui font évoluer les règles ne sont pas tant ceux qui les respectent que ceux qui les transgressent, comme l’héroïque commissaire X.

Auteur: Fischetti Antonio

Info: Charlie Hebdo, sept 2021

[ absurde administration ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste