Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1267
Temps de recherche: 0.0481s

géopolitique

L’Allemagne était [au début du 16e siècle] un pays sans unité : voilà l’essentiel. Il y avait, nombreux, forts, actifs, des Allemands, beaucoup d’Allemands parlant des dialectes voisins les uns des autres, ayant dans une large mesure des mœurs, des usages, des façons d’être et de penser communes. Ces Allemands formaient une "nation" au sens médiéval du mot. Ils n’étaient point groupés, tous, solidement, dans un État bien unifié et centralisé, corps harmonieux aux mouvements commandés par un unique cerveau.

Dans une Europe qui, partout, s’organisait autour des rois, l’Allemagne restait sans souverain national. Il n’y avait pas de roi d’Allemagne, comme il y avait, et depuis bien longtemps, un roi de France, un roi d’Angleterre, riches, bien servis, prestigieux, et sachant rallier aux heures de crise toutes les énergies du pays autour de leur personne et de leur dynastie. Il y avait un empereur, qui n’était plus qu’un nom, et un Empire qui n’était plus qu’un cadre. Dans ce cadre démesuré, le nom, le trop grand nom écrasait de son poids un homme faible, un homme pauvre — parfois un pauvre homme — qu’un vote, disputé comme un marché de foire, élevait finalement à la dignité suprême, mais impuissante.

En un temps où se révélait la valeur de l’argent, au temps décrit dans le livre classique d’Ehrenberg, l’empereur en tant que tel était un indigent. De son Empire il ne tirait plus rien de substantiel. La valeur d’une noisette, disait Granvelle — moins que, de leur évêché, certains évêques allemands. Fondus, les immenses domaines impériaux qui avaient fait la force des Saxons et des Franconiens. Concédés, aliénés, usurpés les droits régaliens, les droits de collation, tout ce qui aurait pu nourrir un budget régulier. Et cependant, plus que tout autre souverain de son temps, le prince au titre retentissant mais à qui les diètes, s’ingéniant, refusaient tout subside, aurait eu pour agir besoin d’être riche. Car, titulaire d’une dignité éminente et qui ne se transmettait pas, comme un royaume, par hérédité ; né d’un vote en faveur d’un prince chrétien qui n’était pas plus obligatoirement allemand que le pape n’était forcément italien   — l’empereur, courbé sous le poids d’une couronne lourde d’un trop lourd passé, devait courir partout, et veiller au monde en même temps qu’à l’Allemagne. Si, dans ce pays, son autorité de jour en jour périclitait — c’est que sa grandeur même empêchait d’agir ce souverain d’un autre âge. Elle le tenait enchaîné devant les véritables maîtres des pays germaniques : les princes, les villes.

Les princes avaient sur l’empereur une grande supériorité. Ils étaient les hommes d’un seul dessein. Et d’une seule terre. Ils n’avaient pas de politique mondiale à suivre, eux — pas de politique "chrétienne" à conduire. L’Italie ne les sollicitait pas. Ils ne dédaignaient point, certes, d’y faire de temps à autre un voyage fructueux. Mais ils n’allaient point là-bas, comme les empereurs, poursuivre des chimères vieillies ou d’illusoires mirages. Tandis que les Césars fabriqués à Francfort par les soins diligents de quelques-uns d’entre eux, se ruinaient en de folles et stériles aventures, une seule chose tenait les princes en souci : la fortune de leur maison, la grandeur et la richesse de leur dynastie. Précisément, à la fin du XVe siècle, au début du XVIe siècle, on les voit opérer un peu partout, en Allemagne, un vigoureux effort de concentration politique et territoriale. Plusieurs d’entre eux, profitant de circonstances favorables, de hasards heureux, s’employaient à constituer des états solides, moins morcelés qu’auparavant. Dans le Palatinat, en Wurtemberg, en Bavière, en Hesse, dans le Brandebourg et le Mecklembourg, ailleurs encore, la plupart des maisons qui, à l’époque moderne, joueront dans l’histoire allemande un rôle de premier plan, affirment dès le début du XVIe siècle une vigueur nouvelle et unifient leurs forces pour de prochaines conquêtes.

On va donc vers une Allemagne princière. On y va seulement. N’ayant point à sa tête de chef souverain vraiment digne de ce nom, l’Allemagne paraît tendre à s’organiser sous huit ou dix chefs régionaux, en autant d’états solides, bien administrés, soumis à un vouloir unique. Mais cette organisation, elle n’existe point encore. Au-dessus des princes il y a toujours l’empereur. Ils ne sont souverains que sous sa souveraineté. Et au-dessous d’eux, ou plutôt, à côté d’eux, il y a (pour ne point parler des nobles indisciplinés et pillards), les villes.

Les villes allemandes au seuil du XVIe siècle : une splendeur. Et telle, que les étrangers ne voient qu’elles lorsqu’ils visitent l’Allemagne, comme si l’éclat des cités éblouissait leurs yeux. Vingt capitales, chacune possédant en propre ses institutions, ses industries, ses arts, ses costumes, son esprit. Celles du Sud : l’Augsbourg des Fugger, porte d’entrée et de sortie du trafic italo-germain, préface pittoresque avec ses maisons peintes à fresque, du monde ultramontain. Mieux encore, Nuremberg, la patrie de Durer, de Fischer, d’Hans Sachs, de Martin Behaim, assise au pied de son Burg à mi-chemin entre Main et Danube. Mais celles du Nord aussi : l’industrieuse et réa-iste Hambourg, légère de scrupules et commençant sa magnifique ascension ; Lübeck, reine déjà déclinante de la Hanse ; Stettin, la ville du blé, et, tout au loin, Dantzig, ses vastes édifices, ses grandes églises de brique, enseignes d’une propriété sans défaillance. Sur le front oriental, Francfort-sur-l’Oder, entrepôt du trafic polonais ; Breslau, porte naturelle de la Silésie. Et à l’Ouest, sur le grand fleuve fougueux, la brillante pléiade des villes rhénanes, de Cologne à Bâle ; par-derrière, l’énorme marché francfortois ; et par-derrière encore Leipzig, un carrefour, au vrai cœur de cette Allemagne multiple. 

[…] Implantées au milieu des domaines princiers, elles [les villes] les trouent, les déchiquettent, limitent leur expansion, les empêchent de se constituer fortement. Elles-mêmes, peuvent-elles s’étendre ? Non. Se fédérer ? Non plus. Autour de leurs murailles, le plat pays : des campagnes soumises à un droit dont le droit de la ville est la négation. Là, sous des maîtres avides, des paysans incultes et grossiers, parfois misérables, prêts à se révolter et grondant sous le joug, étrangers en tout cas à la culture urbaine, si particuliers que les artistes peintres et graveurs ne se lassent pas de décrire leurs aspects sauvages, leurs mœurs primitives. Les villes veulent-elles s’entendre, collaborer ? Ce ne peut être que par-dessus de larges étendues, de vastes territoires hétérogènes qui contrastent avec elles, vigoureusement, en tout. Ces civilisations urbaines, si prestigieuses : des civilisations d’oasis. Ces villes : des prisonnières, vouées à l’isolement, et que guettent les princes, et qui se guettent l’une l’autre.

Leurs ressources, leurs richesses, à quoi vont-elles ? Aux arsenaux dont elles s’enorgueillissent, mais qui les ruinent. Aux canonniers, techniciens exigeants, qu’il faut payer très cher. Aux remparts, aux bastions sans cesse à réparer, parfois à modifier de fond en comble... Et encore, ces ressources, elles vont aux ambassades, aux missions diplomatiques lointaines, aux courriers sans cesse sur les hauts chemins et pour quelles randonnées furieuses ! Villes libres, elles payent leur liberté : trop cher. Car malgré tous les sacrifices, elles sont faibles, à la merci du prince qui s’installe sur le fleuve, en amont, en aval, pour barrer le trafic ; à la merci du hobereau qui les détrousse et les nargue, du haut de son nid d’aigle imprenable pour des milices bourgeoises, à la merci de la cité rivale, qui, rompant les accords, se retourne contre la voisine jalousée.

Faiblesse, sous des apparences de prospérité ; surprenante faiblesse politique contrastant avec tant de puissance économique. Ces cités si brillantes et qui offusquent de leur éclat nos villes françaises du temps, comme leurs bourgeois sont loin de ce sens national, de ce sens politique qui, aux époques de crise, groupe autour du roi toutes les bonnes villes de France empressées à maintenir Louis XI contre les hommes du Bien public, ou, contre les princes, Charles VIII ! Parties d’un tout bien ordonné, les cités françaises d’où la culture rayonne sur les campagnes qu’elles "urbanisent" à leur image. Les villes allemandes : des égoïsmes furieux, en lutte sans répit contre d’autres égoïsmes.

D’une telle situation, si fiers de leurs fortunes, de leur sens des affaires, de leurs belles réussites, les Allemands souffraient. Ils souffraient de ne former qu’un pays divisé, fait de pièces et de morceaux, sans chef, sans tête : un amalgame confus de villes autonomes et de dynasties plus ou moins puissants.

Auteur: Febvre Lucien

Info: Un destin : Martin Luther, PUF, 1968, pages 64 à 67

[ historique ] [ teutons ] [ renaissance ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0

pouvoir sémantique

La bataille pour le contrôle de votre esprit

Dans son roman dystopique classique 1984, George Orwell a écrit : "Si vous voulez une image du futur, imaginez une botte piétinant un visage humain - pour toujours." Cette image frappante a servi de symbole puissant pour le totalitarisme au 20e siècle. Mais comme l'a récemment observé Caylan Ford, avec l'émergence des passeports de santé numériques dans l'État de sécurité biomédicale, le nouveau symbole de la répression totalitaire n'est "pas une botte, mais un algorithme : sans émotion, imperméable à tout appel, façonnant silencieusement la biomasse.

Ces nouveaux mécanismes de surveillance et de contrôle numériques ne seront pas moins oppressifs parce que plus virtuels que physiques. Les applications de traçage des contacts, par exemple, ont proliféré avec au moins 120 applications diverses utilisées dans 71 États différents, et 60 autres mesures numériques de traçage des contacts ont été utilisées dans 38 pays. Rien ne prouve actuellement que les applications de recherche des contacts ou autres méthodes de surveillance numérique ont contribué à ralentir la propagation du covid ; mais comme pour beaucoup de nos politiques de lutte contre les pandémies, cela ne semble pas avoir dissuadé leur utilisation.

D'autres technologies de pointe ont été déployées dans le cadre de ce qu'un écrivain a appelé, avec un clin d'œil à Orwell, "réflexe de la piétaille", pour décrire la propension des gouvernements à abuser des pouvoirs d'urgence. Vingt-deux pays ont utilisé des drones de surveillance pour repérer les contrevenants aux règles du covid, d'autres ont déployé des technologies de reconnaissance faciale, vingt-huit pays ont eu recours à la censure d'Internet et treize pays ont eu recours à la coupure d'Internet pour gérer les populations pendant le covid. Au total, trente-deux pays ont eu recours à l'armée ou à des engins militaires pour faire respecter les règles, ce qui a entraîné des pertes humaines. En Angola, par exemple, la police a tiré et tué plusieurs citoyens alors qu'elle imposait un confinement.

Orwell a exploré le pouvoir que le langage a de façonner notre pensée, et notamment la capacité d'un langage négligé ou dégradé à la déformer. Il a exprimé ces préoccupations non seulement dans ses romans Animal Farm et 1984, mais aussi dans son essai classique, "Politics and the English Language", où il affirme que "si la pensée corrompt le langage, le langage peut aussi corrompre la pensée".

Le régime totalitaire décrit dans 1984 exige des citoyens qu'ils communiquent en Newspeak, une langue soigneusement contrôlée, à la grammaire simplifiée et au vocabulaire restreint, conçue pour limiter la capacité de l'individu à penser ou à exprimer des concepts subversifs tels que l'identité personnelle, l'expression personnelle et le libre arbitre. Avec cette abâtardissement du langage, des pensées complètes sont réduites à des termes simples ne véhiculant qu'un sens simpliste.  

Cette novlangue (newspeak)  élimine la possibilité de nuance, rendant impossible la considération et la communication des nuances de sens. Le Parti a également l'intention, avec les mots courts du Newspeak, de rendre le discours physiquement automatique et donc de rendre le discours largement inconscient, ce qui diminue encore la possibilité d'une pensée véritablement critique. Dans le  roman, le personnage Syme évoque son travail de rédaction de la dernière édition du dictionnaire du Newspeak :

"D'ici 2050 - probablement plus tôt - toute connaissance réelle de l'Oldspeak [anglais standard] aura disparu. Toute la littérature du passé aura été détruite. Chaucer, Shakespeare, Milton, Byron - n'existeront plus que dans des versions en novlangue, pas seulement transformées en quelque chose de différent, mais en réalité contradictoires avec ce qu'ils étaient. Même la littérature du Parti changera. Même les slogans changeront. Comment peut-on avoir un slogan comme "La liberté, c'est de l'esclavage" alors que le concept de liberté a été aboli ? Tout le climat de la pensée en sera différent. En fait, il n'y aura pas de pensée, telle que nous l'entendons aujourd'hui. L'orthodoxie signifie ne pas penser - ne pas avoir besoin de penser. L'orthodoxie, c'est l'inconscience."

Plusieurs termes dénigrants ont été déployés de manière répétée pendant la pandémie, des phrases dont la seule fonction était d'empêcher toute possibilité de pensée critique. Il s'agit, entre autres, des mots "négationniste du virus", "anti-vax" et "théoricien de la conspiration". Certains commentateurs vont sans doute déformer ce livre, et en particulier ce chapitre, en utilisant ces termes et d'autres similaires - des raccourcis tout faits qui évitent aux critiques la peine de lire le livre ou d'examiner de manière critique mes preuves ou mes arguments. Un bref commentaire sur chacun de ces termes peut être utile pour illustrer leur fonctionnement.

Le premier terme, "négationniste du covidien", nécessite peu d'attention. Ceux qui lancent cette accusation à toute personne critiquant notre réponse à la pandémie assimilent imprudemment le covid à l'Holocauste, ce qui suggère que l'antisémitisme continue d'infecter le discours à droite comme à gauche. Nous n'avons pas besoin de nous attarder sur cette phrase.

L'épithète " anti-vax ", déployé pour caractériser toute personne qui soulève des questions sur la campagne de vaccination de masse ou sur la sécurité et l'efficacité des vaccins covidés, fonctionne de la même manière comme un frein à la conversation plutôt que comme une étiquette descriptive précise. Lorsque les gens me demandent si je suis anti-vax parce que je conteste le mandat de vaccination, je ne peux que répondre que la question a autant de sens pour moi que la question "Dr. Kheriaty, êtes-vous 'pro-médication' ou 'anti-médication' ?". La réponse est évidemment contingente et nuancée : quel médicament, pour quel patient ou population de patients, dans quelles circonstances et pour quelles indications ? Il n'existe clairement pas de médicament, ni de vaccin d'ailleurs, qui soit toujours bon pour tout le monde, en toute circonstance et tout le temps.

En ce qui concerne le terme "conspirationniste", Agamben note que son utilisation sans discernement "témoigne d'une surprenante ignorance historique". Car quiconque est familier avec l'histoire sait que les récits des historiens retracent et reconstruisent les actions d'individus, de groupes et de factions travaillant dans un but commun pour atteindre leurs objectifs en utilisant tous les moyens disponibles. Il cite trois exemples parmi les milliers que compte l'histoire.

En 415 avant J.-C., Alcibiade déploya son influence et son argent pour convaincre les Athéniens de se lancer dans une expédition en Sicile, entreprise qui se révéla désastreuse et marqua la fin de la suprématie athénienne. En représailles, les ennemis d'Alcibiade engagent de faux témoins et conspirent contre lui pour le condamner à mort. 

En 1799, Napoléon Bonaparte viole son serment de fidélité à la Constitution de la République, renverse le directoire par un coup d'État, s'arroge les pleins pouvoirs et met fin à la Révolution. Quelques jours auparavant, il avait rencontré ses co-conspirateurs pour affiner leur stratégie contre l'opposition anticipée du Conseil des Cinq-Cents.

Plus près de nous, il mentionne la marche sur Rome de 25 000 fascistes italiens en octobre 1922. On sait que Mussolini prépara la marche avec trois collaborateurs, qu'il prit contact avec le Premier ministre et des personnalités puissantes du monde des affaires (certains affirment même que Mussolini rencontra secrètement le roi pour explorer d'éventuelles allégeances). Les fascistes avaient d’ailleurs répété leur occupation de Rome par une occupation militaire d'Ancône deux mois auparavant. 

D'innombrables autres exemples, du meurtre de Jules César à la révolution bolchévique, viendront à l'esprit de tout étudiant en histoire. Dans tous ces cas, des individus se réunissent en groupes ou en partis pour élaborer des stratégies et des tactiques, anticiper les obstacles, puis agir résolument pour atteindre leurs objectifs. Agamben reconnaît que cela ne signifie pas qu'il soit toujours nécessaire de recourir aux "conspirations" pour expliquer les événements historiques. "Mais quiconque qualifierait de "théoricien de la conspiration" un historien qui tenterait de reconstituer en détail les complots qui ont déclenché de tels événements ferait très certainement preuve de sa propre ignorance, voire de son idiotie."

Quiconque mentionnant "The Great Reset" en 2019 était accusé d'adhérer à une théorie du complot - du moins jusqu'à ce que le fondateur et président exécutif du Forum économique mondial, Klaus Schwab, publie en 2020 un livre exposant l'agenda du WEF avec le titre utile, Covid-19 : The Great Reset. Après de nouvelles révélations sur l'hypothèse de la fuite dans un laboratoire, le financement par les États-Unis de la recherche sur le principe du gain de fonction à l'Institut de virologie de Wuhan, les questions de sécurité des vaccins volontairement supprimés, et la censure coordonnée des médias et les campagnes de diffamation du gouvernement contre les voix dissidentes, il semble que la seule différence entre une théorie du complot et une nouvelle crédible aura été d'environ six mois.

Auteur: Kheriaty Aaron

Info: The Brownstone Institute, mai 2022

[ propagande numérique ] [ complotisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

gafam

"Beaucoup de ficelles invisibles dans la tech nous agitent comme des marionnettes."

Ancien ingénieur de Google, Tristan Harris dénonce les pratiques de son ancien employeur et des grands groupes de la Silicon Valley. Il exhorte les chefs d'États et citoyens à exercer un contre-pouvoir contre leur influence nocive. Cet ancien ingénieur employé de Google, spécialiste en éthique en technologies, alerte depuis plusieurs années le monde des technologies sur les dérives qu'il a contribué à créer. Avec un certain succès. Son initiative "déconnexionniste" Time Well Spent a fait de lui un speaker remarqué et invité par les PDG de la tech. Désormais, il vise les citoyens. À l'occasion de sa tournée européenne, des couloirs de Bruxelles à l'Elysée, en passant par le MAIF Social Club. Le Figaro l'a rencontré.

- Pourquoi êtes-vous parti en guerre contre les réseaux sociaux et les géants du Web?

- TH Ces entreprises sont devenues les acteurs les plus puissants au monde, plus que les États. Nous sommes 2 milliards à être sur Facebook, soit davantage de fidèles qu'en compte le christianisme. 1,5 milliard sur YouTube chaque mois, soit plus de fidèles qu'en compte l'Islam. Et à partir du moment où nous éteignons l'alarme de nos smartphones - que nous consultons en moyenne 150 fois par jour - nos pensées vont être perturbées par des pensées que nous n'avons pas choisies, mais que les entreprises technologiques nous soumettent. En ouvrant Instagram, on observe que ses amis se sont amusés sans vous. Cette idée ne vous serait jamais venue sans qu'un acteur des technologies ne l'ait faite advenir.

- En quoi est-ce si grave? Les réseaux sociaux finissent par construire une réalité sociale alternative. Cela pose des problèmes de santé publique, notamment chez les plus jeunes qui sont sans cesse soumis à des images de leurs amis montrés sous leur meilleur jour et ont une vision déformée de la normalité. Cela pose aussi des problèmes de polarisation: les réseaux sociaux ont tendance à mettre en avant les comportements extrêmes, ce qui pose un troisième problème, cette fois-ci démocratique, car cela influence l'opinion. La question relève enfin de l'antitrust: ces entreprises ont un pouvoir inégalable avec toutes les données qu'elles manipulent chaque jour. "Non seulement Facebook sait quelle photo de votre ex-petite amie vous regardez sur Instagram, mais aussi quels messages vous écrivez sur WhatsApp."

- Les concepteurs de ces technologies sont-ils conscients d'exercer un tel pouvoir?

- Non! Il y a beaucoup de personnes qui ont une conscience dans la Silicon Valley et s'inquiètent des conséquences de leur travail. Mais si on y réfléchit bien, quand on a entre 20 et 30 ans, qu'on est un jeune ingénieur qui n'a jamais rien fait d'autre que coder et qu'on débarque chez Google, on pense avant tout à toutes les choses incroyables que l'on peut réaliser avec son travail. Pas aux instabilités géopolitiques que ces outils peuvent permettre de créer. Les employés de ces grandes entreprises ne réalisent pas leur pouvoir.

- N'est-ce pas la faute d'une culture d'entreprise qui déresponsabilise ses employés? - Ces entreprises font en sorte que les employés n'aient pas une image "globale" de l'impact de leur travail. Je pense que des comparaisons historiques peuvent être faites avec des régimes autoritaires. J'ai beaucoup étudié le fonctionnement des cultes et j'y vois aussi des similitudes. Quand Facebook répète sans cesse cette devise, "nous aidons le monde à être plus connecté", cela devient performatif et on ne voit plus que cela.

- Les employés de Facebook sont payés très cher pour ne pas se poser de questions.

- De la même façon, ils ne parlent pas d'un problème d'addiction aux technologies mais d'"engagement". Et ils ne disent pas à leurs ingénieurs de concevoir des outils de manipulation des esprits mais des outils pour "augmenter l'engagement sur de la publicité ciblée", car aucun ne voudrait travailler pour eux sinon. Pour reprendre l'écrivain Upton Sinclair, vous ne pouvez pas demander à des gens de se poser des questions quand leur salaire dépend du fait de ne pas se les poser. Et les employés de Facebook sont payés très cher pour ne pas se poser de questions.

- N'avez-vous pas l'impression d'utiliser une rhétorique de la peur parfois exagérée à l'égard des technologies?

- Je suis d'accord avec ceux qui me critiquent pour défendre un modèle de la peur! (rires) Parce que fondamentalement, je m'intéresse à la question du pouvoir, et qu'il y a une sorte de vérité dérangeante dans la Silicon Valley. Plusieurs PDG comme Eric Schmidt (ex-Google) ou Mark Zuckerberg (Facebook) ont déclaré que la vie privée était morte. Aujourd'hui, avec une intelligence artificielle entraînée, je peux en effet établir votre profil psychologique en étudiant vos clics, vous identifier à travers votre géolocalisation dans moins de cinq lieux, mesurer votre taux de stress ou d'excitation avec la reconnaissance faciale. Nous allons vivre dans un monde où de plus en plus de technologies vont intercepter des signaux de ce que nous pensons avant même que nous n'ayons conscience de le penser, et nous manipuler.

- Avez-vous l'impression que vos idées sont entendues par le grand public?

- Les gens n'ont pas conscience de l'ampleur de ce que l'on peut déjà faire avec de la publicité ciblée. Il est facile de se dire que nous sommes informés ou éduqués, et que cela ne nous arrive pas à nous, plus malins que les autres. Je veux éveiller les consciences là-dessus: absolument tout le monde, sans exception, est influencé par des ressorts qu'il ne voit pas. Exactement comme dans les tours de magie.

- Comment cela fonctionne-t-il concrètement?

- "Absolument tout le monde, sans exception, est influencé par des ressorts qu'il ne voit pas". Il y a beaucoup de "dark patterns" dans les technologies, c'est-à-dire des ficelles invisibles qui nous agitent comme des marionnettes. Elles reposent sur la captation d'attention par les biais cognitifs, l'excitation... Par exemple, nous vérifions sans cesse les notifications des téléphones en espérant y voir leurs jolies couleurs vives, nous scrollons car il y a toujours de la nouveauté, nous regardons la prochaine vidéo YouTube car elle est bien suggérée...

- Imaginons maintenant que vous vouliez quitter Facebook: pour vous garder, Facebook pourrait envoyer une notification à l'un de vos amis qui a pris une photo de vous, et lui demander "Veux-tu taguer cette personne?". En général, cette question s'assortit d'un gros bouton bleu marqué "OUI" pour que l'ami clique dessus. Il suffit ensuite à Facebook de vous envoyer un mail pour vous dire "Tel ami vous a tagué sur telle photo" et cela vous incite à revenir. Toute l'industrie de la tech utilise ces ressorts.

- N'est-ce pas seulement une certaine élite qui peut savoir comment échapper à ce type de manipulation?

- Complètement, et c'est bien pour cela que nous voulons forcer les entreprises à changer directement leurs pratiques pour le plus grand nombre. Nous ne pouvons pas souhaiter un monde où seulement 1% de personnes savent comment paramétrer leur téléphone en noir&blanc pour ne plus être autant sollicité par les boutons rouges des notifications, ou savent comment régler leurs paramètres. Nous devons faire en sorte que le design de l'attention soit vertueux par défaut, que les modèles économiques de ces entreprises reposent moins sur le temps passé. Google vient de le faire et cela établit un précédent qui pourrait pousser Apple à faire de même.

- Peut-on vraiment avoir confiance quand ces entreprises prétendent nous guérir de l'addiction ou des manipulations qu'elles ont elles-mêmes créées ?"

- Pour moi, c'est le rôle de Facebook de veiller à ce qu'une élection ne soit pas manipulée, et le rôle de Google de restreindre notre addiction. Pour autant, nous ne devons pas les croire sur parole, car ils ont toujours un pouvoir considérable. Facebook est comme un prêtre qui écouterait les confessions de 2 milliards d'individus, sauf que la plupart ne savent même pas qu'ils passent à confesse! Non seulement ils savent quelle photo de votre ex-petite amie vous regardez sur Instagram, mais aussi quels messages vous écrivez sur WhatsApp. Avec leurs traceurs sur plus d'un tiers des sites internet, ils savent que vous songez à changer d'assureur avant même que vous ayez franchi le cap. Ils savent aussi ce que vous allez voter. Et ils vendent ce savoir à des marques pour qu'au confessionnal, on vous suggère telle ou telle action. Je ne dis pas que Facebook et son confessionnal virtuel ne devraient pas exister, mais je dis qu'il ne devrait pas avoir un modèle économique qui ait autant de pouvoir. L'Europe va sombrer si nous ne changeons pas ce système.

Auteur: Harris Tristan

Info: Interview d'Elisa Braun, le Figaro, 31/05/2018

[ big brother ] [ PNL ] [ culture de l'epic fail ] [ captage de l'attention ]

 

Commentaires: 0

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

mémorisation

Ce qu'il se passe dans notre cerveau quand on se rappelle un souvenir

La mémoire n'est pas assurée par une partie spécifique du cerveau, mais plutôt par des connexions entre les neurones.

(Photo : Les engrammes, connexions entre des neurones actifs, façonnent nos souvenirs.) 

La mémoire est une aptitude essentielle qui nous permet d'intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n'est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

Le processus de la mémoire débute par l'encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu'un texte que vous venez de lire, par exemple. 

 Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l'adaptation du comportement en fonction des expériences passées. L'oubli survient en cas d'absence d'accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d'un souvenir dans le cerveau.

L'engramme, un concept ancien réétudié

Les prémices de la compréhension de la mémoire en tant que modification durable du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de cent ans par le biologiste allemand Richard Semon. C'est lui qui nomme et définit l'engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l'expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l'activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

Un réseau de neurones qui se renforce

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu'est un engramme. Fondamentalement, la création d'un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l'apprentissage. Les connexions entre les neurones se produisent au niveau d'une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble: c'est l'engramme proprement dit.

Ainsi, lorsqu'une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d'ailleurs pas spécifiques à la mémoire, et en plus d'intégrer l'engramme, ils continuent d'interagir au sein de réseaux différents pour remplir d'autres fonctions. 

Le stockage d'un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu'un schéma d'activité neuronale qui s'est produit pendant l'apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir.

Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l'odeur de la lavande déclenche l'activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu'à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu'il existe mais qu'il ne peut plus être activé par un stimulus externe

(Image : Les états dynamiques de l’engramme, de l'apprentissage à l'oubli. Document fourni par l'auteur)

Encodage, consolidation et rappel, les étapes clés du souvenir

Pendant l'apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d'être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recruté dans la formation d'un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l'emportent et deviennent des cellules d'engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l'engramme.

Pendant la consolidation, l'engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l'activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l'on observe une réactivation des neurones impliqués. 

En présence dans notre environnement d'éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir: c'est le rappel. Ce processus implique la réactivation de l'engramme. Pendant le rappel, les neurones qui étaient actifs lors de l'apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l'engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d'autres peuvent se perdre.

Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l'événement par rapport à comment il s'est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d'être racontées ou rappelées.

Pourquoi les souvenirs changent-ils?

L'engramme n'est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d'émotion qu'on lui associe. On peut alors en perdre les détails pour ne garder qu'une sensation positive ou négative selon l'importance qu'a ce souvenir pour nous. Prenons l'exemple d'un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l'heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l'oubli, c'est un phénomène généralement défini comme l'absence de manifestation comportementale d'un souvenir, même s'il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu'on vous demande la date de décès de Vercingétorix: vous avez appris à l'école qu'il s'agit de 46 av. J.-C., mais vous l'avez oubliée par la suite car elle n'avait peut-être plus d'utilité dans votre vie.

Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

L'oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d'Alzheimer. Même si les informations sont d'une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d'y accéder. Selon cette perspective, l'oubli peut alors résulter soit d'une dégradation totale de l'engramme, entraînant une indisponibilité de la mémoire, soit d'un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu'il y ait des modifications synaptiques au niveau d'un engramme, ce qui le déstabilise et augmente alors la probabilité d'oubli.

Un espoir pour retrouver les souvenirs disparus

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l'engramme. Des engrammes " silencieux " ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l'environnement ne le peuvent pas.

Ces résultats suggèrent que l'oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu'à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l'activité directe des neurones formant l'engramme à différentes étapes de sa formation. Grâce à l'activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l'engramme. Cette connectivité correspond au fait que l'on peut associer l'activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement.

Ainsi nous pouvons suivre l'engramme au cours des processus d'apprentissage, de consolidation, de rappel et d'oubli et étudier sa dynamique. À long terme, l'objectif serait d'exploiter ces résultats afin de mieux appréhender l'acquisition, le stockage et l'utilisation de l'information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d'autres dysfonctionnements cognitifs.   

 

Auteur: Villet Maxime

Info: https://www.slate.fr/story, 7 mai 2024

[ déformation mémorielle ] [ itération ]

 

Commentaires: 0

Ajouté à la BD par miguel