Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 99
Temps de recherche: 0.0712s

émoi

Les émotions et leurs expressions ont-elles varié à travers le temps? Exprimait-on de la même manière la joie au Moyen-Age qu’aujourd’hui? La colère et la douleur? Après leurs très remarquées Histoire du corps et Histoire de la virilité, parues au Seuil, les historiens Alain Corbin, Jean-Jacques Courtine et GV dirigent cette fois une ambitieuse et passionnante Histoire des émotions en trois volumes.

Cette somme d’articles réunit les meilleurs spécialistes mais s’adresse à un large public et se lit comme un formidable récit. Les premiers volumes paraissent aujourd’hui. Ils nous emmènent de l’Antiquité au Moyen Age, et jusqu’à la veille de la Révolution. Le troisième, qui couvrira la période moderne, est annoncé pour 2017. GV revient sur cette passionnante évolution.

- Le Temps: En vous lisant, on découvre que les émotions sont culturellement construites et varient selon les époques…

- GV :
 L’émotion est un phénomène central par lequel nous pouvons préciser les univers culturels et sociaux. Dans cette étude collective, nous avons traversé le temps, de la Grèce antique à l’époque contemporaine. Mais nous avons aussi cherché à dessiner une géographie de l’émotionnel au sein d’une même société. Au XVIIe siècle, par exemple, le monde populaire n’a pas le même régime émotionnel que celui de la cour… Dans l’Antiquité non plus. Prenez Sénèque. Lorsqu’il décrit l’univers émotionnel de la romanité, il dit que l’homme libre, le citoyen, maîtrise ses émotions. Ce qui est moins le cas, selon lui, de la femme, encore moins de l’esclave ou du barbare. Il établit donc une gradation entre la fermeté et la trop grande sensibilité. Il dessine une hiérarchie.

– Comment évolue la notion d’émotion à travers l’histoire?

– Le mot n’apparaît en français qu’au XVIe siècle. D’abord, on décrit essentiellement l’émotion par des caractéristiques physiques. Pour parler d’un tremblement de terre, on dira que "la Terre a reçu de l’émotion". Au XVIIe, il y a une centration sur les "humeurs corporelles" ou les "esprits". La tristesse est ainsi décrite comme le reflux des humeurs vers l’intérieur du corps. Mais bientôt on ne se satisfait plus de ces images "physiques". L’univers psychique se construit, avec ses logiques et ses spécificités…

On assiste au développement d’une délicatesse progressive, dans la seconde moitié du XVIIe siècle. L’histoire des émotions se lit aussi à travers les mots employés. "Emotion" et "passion" sont d’abord synonymes. Puis "émotion" prend la notion de "choc". Enfin, la notion de "sentiment" se crée, beaucoup plus douce, obscure et fermée.

– Est-ce que notre époque ose exprimer ses émotions?

– L’homme se montre beaucoup plus qu’auparavant susceptible d’être sensible, à l’écoute, et atteint par l’autre. C’est le propre des sociétés compassionnelles, qui sont aussi victimaires. Nous sommes en empathie. D’un autre côté, l’attention à l’autre fait que l’on reste sur sa réserve, pour ne pas le troubler. Par exemple, ceux qui ont connu l’atrocité des camps de concentration ont eu du mal à témoigner de leurs souffrances à leurs proches. On pourrait parler d’un système schizophrénique: il faut montrer sa compassion, mais si on le fait trop, on court le risque de troubler l’autre.

Le XXe siècle, de manière caricaturale, c’est une montée de l’individualisme. Le fait d’être plus centré sur soi et plus attentif sur ce qui se passe à l’intérieur de soi, avec des phénomènes qui vont jusqu’à l’hypocondrie. Notre frontière devient plus fragile, on a l’impression d’être davantage bousculé… Plus le régime émotionnel monte, plus émerge en parallèle une insécurité diffuse. Nos sociétés sécrètent davantage d’anxiété qu’auparavant.

– A quoi s’ajoute la question du terrorisme et des attentats…

– C’est très frappant: nous sommes dans des sociétés qui tolèrent de moins en moins la violence, des sociétés "douces". Si la torture devait se pratiquer, elle devrait le faire sans laisser de traces physiques. Sinon, ce serait insupportable pour l’opinion. Mais les adversaires de cette société, que font-ils pour créer de la panique, de l’inquiétude? Ils montrent la violence, ils la multiplient sur les écrans. C’est un paradoxe. Nous voulons effacer la violence, mais nos ennemis la mettent en scène. Autre paradoxe, le terroriste, s’il entend incarner la terreur, ne doit pas afficher de sentiments. Il ne doit pas montrer qu’il peut être atteint, qu’il peut avoir peur. Cela soulève aussi la question du trauma, très importante aujourd’hui. Comment l’émotion peut voyager à l’intérieur de nous-même pour créer de la subversion. Notre époque s’en méfie.

– Si on ressent de plus en plus à l’époque moderne, il faut aussi apprendre à cacher ses émotions pour réussir…

– A l’époque de la royauté, la cour en est un magnifique exemple. Pour vous imposer dans ce système, il faut à tout prix cacher ce que vous éprouvez. Il faut conduire des tactiques du secret. La modernité crée cela. On ne montre pas, on calcule. Les vieux barons du Moyen Age n’y auraient rien compris. A leur époque, on devait manifester la douleur, les émotions, de manière violente.

– Justement, l’expression de la colère a-t-elle varié à travers les âges?

– Dans l’Antiquité et au Moyen Age, le pouvoir pouvait parfaitement exprimer sa colère de manière abrupte, tranchée, en l’imposant à autrui. Mais le pouvoir d’une société démocratique ne peut pas être colérique. Il doit négocier, car la colère apparaît comme la manifestation d’une non-maîtrise. De manière plus générale, on assiste à une stigmatisation plus aiguë de tout ce qui peut apparaître comme un débordement. La psychanalyse est passée par là. Tout ce qui fait émerger un inconscient perturbateur est considéré comme peu acceptable. Il faut être "cool". Une forme de maîtrise faite de sérénité, pas de rigidité.

– Qu’en est-il de l’expression du plaisir et de la jouissance?

– La première position chrétienne consiste à adopter une attitude très réservée vis-à-vis du plaisir. Se laisser aller à l’amour terrestre, c’est oublier l’amour divin. Mais, après Saint-Augustin, l’amour pour Dieu devient plus sensible. A la Renaissance, les poètes invitent à vivre les joies de l’instant, souvenez-vous de Ronsard. La modernité est en germe. Elle se traduira par le triomphe du présent et de la jouissance qu’il peut comporter. Aujourd’hui, la publicité en témoigne. Pour vendre un déodorant, on nous montre une femme qui exulte et danse sur une table, dans des gestes toujours harmonieux, mais exprimant un bonheur intense.

– Sur quels documents se base-t-on pour dresser une histoire des émotions?

– Sur toutes les représentations des émotions à travers l’art, la statuaire ou la peinture. Mais les textes littéraires sont également très importants. Les mémoires et les correspondances aussi, je pense aux lettres de Madame de Sévigné, qui mettent en scène de manière inusitée l’amour filial. La littérature médicale, quant à elle, nous apprend beaucoup sur la façon dont on prend en compte les tempéraments, pensez à la mélancolie. Enfin, la littérature juridique, sur le viol notamment, permet de définir le statut de la victime, la reconnaissance ou non de son émotion.

Pour l’Antiquité et le Haut Moyen Age, les traces laissées dans les tombes sont éclairantes. Nous publions un article de Bruno Dumézil, qui rappelle que l’on a retrouvé un instrument de musique dans la tombe d’un guerrier barbare. C’est le signe d’une sensibilité, qui va à l’encontre des idées reçues. Mais il est très difficile de coller au plus près de l’émotion ressentie. Nous travaillons sur les traces, les vestiges, les indices… Nous devons rester prudents. 

Auteur: Vigarello Georges

Info: Sur Letemps.ch. oct 2016. Interview de Julien Burri. A propos d'Histoire des émotions, vol 1. "De l’Antiquité aux Lumières", 552 p.; vol 2. "Des Lumières à la fin du XIXe siècle", 480 p. sous la direction d’Alain Corbin, Jean-Jacques Courtine, GV, Seuil.

[ larmes ] [ rapports humains ] [ pathos diachronique ] [ apparences ]

 

Commentaires: 0

Ajouté à la BD par miguel

chaînon manquant

L'HUMANITÉ AURAIT ELLE FRÔLÉ L'EXTINCTION ?

"1 280 individus seulement : l'humanité a failli disparaître il y a près d'un million d'années

Une étude parue dans Science révèle que population humaine pourrait s'être maintenue à environ 1 300 individus pendant une centaine de milliers d'années. Une "presque extinction" qui pourrait avoir joué un rôle majeur dans l'évolution des hommes modernes et de parents disparus, les Néandertaliens et Dénisoviens.

Il y a près d’un million d’années, un événement dévastateur a presque anéanti nos ancêtres. Les données génomiques de 3 154 humains modernes suggèrent qu'à ce moment, la population aurait été réduite d’environ 100 000 à seulement 1 280 individus reproducteurs — soit un déclin démographique d'ampleur (98,7 %) sur une durée de 117 000 ans, qui aurait pu conduire l’humanité à l’extinction.

Le fait que vous puissiez lire cet article, et que la population mondiale atteigne aujourd'hui les plus de 8 milliards (chiffres de novembre 2022), montre bien que cela n'a pas été le cas. Mais les résultats de cette récente étude, publiée dans la revue Science le 31 août 2023, permettraient d'expliquer l'écart déjà observé entre les archives fossiles humaines d'Afrique et d'Eurasie durant le Pléistocène.

La génétique pour comprendre l'évolution de la lignée humaine

Les datations récentes situent les plus anciens Homo sapiens il y a environ 300 000 ans, en Afrique. Seulement, avec si peu de fossiles datant de cette époque parvenus jusqu'à nous, la manière dont la lignée humaine a évolué avant l'émergence de l'espèce reste plutôt incertaine.

Pour en savoir plus sur cette très secrète période, proche de l’évolution de l’Homme moderne, une équipe a étudié le génome de plus de 3 150 humains actuels. Des individus issus de dix populations africaines et de quarante populations non africaines, plus précisément.

Elle a pour cela développé un nouvel outil analytique, le "processus de coalescence rapide en temps infinitésimal" (FitCoal). Grossièrement, le FitCoal leur a permis, en examinant la diversité des séquences génétiques observées chez les descendants et comment elles ont divergé au fil du temps, de déduire la taille des groupes composant leurs lointains ancêtres.

Leurs résultats ont ainsi révélé un "goulot d'étranglement démographique" important il y a environ 930 000 à 813 000 ans, c'est-à-dire un épisode de réduction sévère de la population — suivi d'une nouvelle expansion démographique, d'où les termes de "goulot d'étranglement".

Un risque élevé d'extinction lié aux changements climatiques ?

Dans l'étude de l'évolution d'une espèce, les goulots d'étranglement démographiques liés à une guerre, une famine ou encore une crise climatique, ne sont pas rares. La baisse de la diversité génétique qui en résulte peut même être retracée jusqu’à la descendance des survivants.

C’est ainsi que les scientifiques ont pu en déduire qu'un tel phénomène s'est produit plus récemment, il y a environ 7 000 ans, dans la population humaine de l’hémisphère nord.

Toutefois, le cas du goulot d'étranglement bien plus ancien semble avoir été d'une gravité particulièrement exceptionnelle, puisque le groupe a alors perdu 65,85 % de sa diversité génétique et environ 98,7 % de sa population reproductrice, selon les données. Pendant plus ou moins 117 000 ans, cette dernière aurait été limitée à environ 1 280 individus.

Nos ancêtres ont connu un goulot d'étranglement démographique si grave pendant très longtemps qu'ils ont été confrontés à un risque élevé d'extinction. — Wangjie Hu, coauteur principal de l'étude de l'École de médecine du Mont Sinaï à New York (États-Unis) interrogé par LiveScience.

S'il est aujourd'hui difficile d'établir avec certitude les différents facteurs qui ont mené à ce goulot d'étranglement, un événement majeur semble coïncider dans les datations : la transition du milieu du Pléistocène (il y a entre 1,25 et 0,7 million d’années), où la Terre s'est vue sévèrement refroidie en raison de l'allongement des cycles glaciaires et interglaciaires.

Les glaciers ont émergé, les températures des océans ont diminué… et de longues sécheresses ont touché l'Afrique et en Eurasie. Pour les populations humaines luttant alors pour leur survie, ces conditions plus que défavorables auraient pu entraîner famines et conflits. La disparition d'autres espèces, sources de nourritures, pourrait aussi avoir contribué à leur déclin.

Encore une fois, les conséquences de ces bouleversements climatiques ne peuvent être constatées, tant les fossiles et les artefacts humains de cette période sont relativement rares. Peut-être, parce que la population était si faible durant cette fameuse période.

Cette donnée permet en tout cas d'enfin expliquer chronologiquement "l'écart entre les archives fossiles africaines et eurasiennes [...] au début de l'âge de pierre". "[Cet écart] coïncide avec la période proposée de perte significative de preuves fossiles", explique en effet l'anthropologue Giorgio Manzi de l'université Sapienza de Rome (Italie), coauteur principal de l'étude dans un communiqué.

Un changement de génome et une divergence des hominidés

Ce goulot d'étranglement pourrait aussi avoir contribué à une caractéristique du génome humain : la fusion de deux chromosomes en un seul, le chromosome 2. Les autres hominidés encore vivants, dont les grands singes, en possèdent en effet 24 paires, nous, 23. Cet événement de spéciation semble d'ailleurs avoir contribué à ce que les humains prennent une voie évolutive différente. Expliquons.

Des recherches ont déjà suggéré que le dernier ancêtre commun, partagé par les Hommes modernes (Homo Sapiens), les Néandertaliens (Homo neanderthalensis) et les Dénisoviens (Homo denisovensis), vivait il y a environ 765 000 à 550 000 ans… soit à peu en même temps que le phénomène décrit.

Si dernier ancêtre commun a vécu pendant ou peu après le goulot d'étranglement, celui-ci aurait pu jouer un rôle dans la division des groupes d'hominidés, suggèrent les chercheurs : la population pourrait s'être séparée en de petits groupes survivants, qui, au fil du temps, auraient développé des caractéristiques suffisamment importantes pour que les différents groupes deviennent distincts — avec d'une part l'Homme moderne, d'autre part l'Homme de Néandertal et l'Homme de Denisova.

Or, c'est aussi il y a environ 900 000 à 740 000 ans, que les deux chromosomes anciens semblent avoir convergé. Et puisque tout cela coïncide, les nouvelles découvertes suggèrent finalement que la quasi-éradication de l'homme pourrait avoir un lien avec ce changement majeur dans le génome humain.

En outre, "puisque les Néandertaliens et les Dénisoviens partagent cette fusion avec nous, elle a dû se produire avant que nos lignées ne se séparent", suggère à nos confrères Chris Stringer, paléoanthropologue au Musée d'histoire naturelle de Londres (Angleterre) qui n'a pas participé à l'étude.

"Brosser un tableau complet de l'évolution humaine"

Si la lutte pour la survie, il y a environ 930 000 à 813 000 ans, semble avoir joué un rôle dans la formation des chromosomes de l'Homme moderne, l'inverse est-il vrai ?

L'équipe suggère plutôt qu'un climat plus hospitalier il y a environ 813 000 ans, ainsi que la maîtrise du feu, sont des facteurs cruciaux qui pourraient avoir permis à nos ancêtres de rebondir. De plus amples recherches seront nécessaires pour y voir plus clair, ainsi que pour établir si la sélection naturelle qui a eu lieu durant cette période a accéléré l'évolution du cerveau humain.

Ces résultats ne sont qu'un début. — Haipeng Li, généticien théorique des populations et biologiste informatique de l'Académie chinoise des sciences, coauteur principal dans le communiqué.

Les objectifs futurs de ces connaissances visent à brosser un tableau plus complet de l'évolution humaine au cours de cette période de transition entre le Pléistocène précoce et le Pléistocène moyen, ce qui permettra à son tour de continuer à percer le mystère de l'ascendance et de l'évolution de l'homme primitif.

Auteur: Internet

Info: https://www.science.org, 31 aout 2023, trad et résumé Mathilde Ragot

[ paléolithique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

géopolitique

L’Allemagne était [au début du 16e siècle] un pays sans unité : voilà l’essentiel. Il y avait, nombreux, forts, actifs, des Allemands, beaucoup d’Allemands parlant des dialectes voisins les uns des autres, ayant dans une large mesure des mœurs, des usages, des façons d’être et de penser communes. Ces Allemands formaient une "nation" au sens médiéval du mot. Ils n’étaient point groupés, tous, solidement, dans un État bien unifié et centralisé, corps harmonieux aux mouvements commandés par un unique cerveau.

Dans une Europe qui, partout, s’organisait autour des rois, l’Allemagne restait sans souverain national. Il n’y avait pas de roi d’Allemagne, comme il y avait, et depuis bien longtemps, un roi de France, un roi d’Angleterre, riches, bien servis, prestigieux, et sachant rallier aux heures de crise toutes les énergies du pays autour de leur personne et de leur dynastie. Il y avait un empereur, qui n’était plus qu’un nom, et un Empire qui n’était plus qu’un cadre. Dans ce cadre démesuré, le nom, le trop grand nom écrasait de son poids un homme faible, un homme pauvre — parfois un pauvre homme — qu’un vote, disputé comme un marché de foire, élevait finalement à la dignité suprême, mais impuissante.

En un temps où se révélait la valeur de l’argent, au temps décrit dans le livre classique d’Ehrenberg, l’empereur en tant que tel était un indigent. De son Empire il ne tirait plus rien de substantiel. La valeur d’une noisette, disait Granvelle — moins que, de leur évêché, certains évêques allemands. Fondus, les immenses domaines impériaux qui avaient fait la force des Saxons et des Franconiens. Concédés, aliénés, usurpés les droits régaliens, les droits de collation, tout ce qui aurait pu nourrir un budget régulier. Et cependant, plus que tout autre souverain de son temps, le prince au titre retentissant mais à qui les diètes, s’ingéniant, refusaient tout subside, aurait eu pour agir besoin d’être riche. Car, titulaire d’une dignité éminente et qui ne se transmettait pas, comme un royaume, par hérédité ; né d’un vote en faveur d’un prince chrétien qui n’était pas plus obligatoirement allemand que le pape n’était forcément italien   — l’empereur, courbé sous le poids d’une couronne lourde d’un trop lourd passé, devait courir partout, et veiller au monde en même temps qu’à l’Allemagne. Si, dans ce pays, son autorité de jour en jour périclitait — c’est que sa grandeur même empêchait d’agir ce souverain d’un autre âge. Elle le tenait enchaîné devant les véritables maîtres des pays germaniques : les princes, les villes.

Les princes avaient sur l’empereur une grande supériorité. Ils étaient les hommes d’un seul dessein. Et d’une seule terre. Ils n’avaient pas de politique mondiale à suivre, eux — pas de politique "chrétienne" à conduire. L’Italie ne les sollicitait pas. Ils ne dédaignaient point, certes, d’y faire de temps à autre un voyage fructueux. Mais ils n’allaient point là-bas, comme les empereurs, poursuivre des chimères vieillies ou d’illusoires mirages. Tandis que les Césars fabriqués à Francfort par les soins diligents de quelques-uns d’entre eux, se ruinaient en de folles et stériles aventures, une seule chose tenait les princes en souci : la fortune de leur maison, la grandeur et la richesse de leur dynastie. Précisément, à la fin du XVe siècle, au début du XVIe siècle, on les voit opérer un peu partout, en Allemagne, un vigoureux effort de concentration politique et territoriale. Plusieurs d’entre eux, profitant de circonstances favorables, de hasards heureux, s’employaient à constituer des états solides, moins morcelés qu’auparavant. Dans le Palatinat, en Wurtemberg, en Bavière, en Hesse, dans le Brandebourg et le Mecklembourg, ailleurs encore, la plupart des maisons qui, à l’époque moderne, joueront dans l’histoire allemande un rôle de premier plan, affirment dès le début du XVIe siècle une vigueur nouvelle et unifient leurs forces pour de prochaines conquêtes.

On va donc vers une Allemagne princière. On y va seulement. N’ayant point à sa tête de chef souverain vraiment digne de ce nom, l’Allemagne paraît tendre à s’organiser sous huit ou dix chefs régionaux, en autant d’états solides, bien administrés, soumis à un vouloir unique. Mais cette organisation, elle n’existe point encore. Au-dessus des princes il y a toujours l’empereur. Ils ne sont souverains que sous sa souveraineté. Et au-dessous d’eux, ou plutôt, à côté d’eux, il y a (pour ne point parler des nobles indisciplinés et pillards), les villes.

Les villes allemandes au seuil du XVIe siècle : une splendeur. Et telle, que les étrangers ne voient qu’elles lorsqu’ils visitent l’Allemagne, comme si l’éclat des cités éblouissait leurs yeux. Vingt capitales, chacune possédant en propre ses institutions, ses industries, ses arts, ses costumes, son esprit. Celles du Sud : l’Augsbourg des Fugger, porte d’entrée et de sortie du trafic italo-germain, préface pittoresque avec ses maisons peintes à fresque, du monde ultramontain. Mieux encore, Nuremberg, la patrie de Durer, de Fischer, d’Hans Sachs, de Martin Behaim, assise au pied de son Burg à mi-chemin entre Main et Danube. Mais celles du Nord aussi : l’industrieuse et réa-iste Hambourg, légère de scrupules et commençant sa magnifique ascension ; Lübeck, reine déjà déclinante de la Hanse ; Stettin, la ville du blé, et, tout au loin, Dantzig, ses vastes édifices, ses grandes églises de brique, enseignes d’une propriété sans défaillance. Sur le front oriental, Francfort-sur-l’Oder, entrepôt du trafic polonais ; Breslau, porte naturelle de la Silésie. Et à l’Ouest, sur le grand fleuve fougueux, la brillante pléiade des villes rhénanes, de Cologne à Bâle ; par-derrière, l’énorme marché francfortois ; et par-derrière encore Leipzig, un carrefour, au vrai cœur de cette Allemagne multiple. 

[…] Implantées au milieu des domaines princiers, elles [les villes] les trouent, les déchiquettent, limitent leur expansion, les empêchent de se constituer fortement. Elles-mêmes, peuvent-elles s’étendre ? Non. Se fédérer ? Non plus. Autour de leurs murailles, le plat pays : des campagnes soumises à un droit dont le droit de la ville est la négation. Là, sous des maîtres avides, des paysans incultes et grossiers, parfois misérables, prêts à se révolter et grondant sous le joug, étrangers en tout cas à la culture urbaine, si particuliers que les artistes peintres et graveurs ne se lassent pas de décrire leurs aspects sauvages, leurs mœurs primitives. Les villes veulent-elles s’entendre, collaborer ? Ce ne peut être que par-dessus de larges étendues, de vastes territoires hétérogènes qui contrastent avec elles, vigoureusement, en tout. Ces civilisations urbaines, si prestigieuses : des civilisations d’oasis. Ces villes : des prisonnières, vouées à l’isolement, et que guettent les princes, et qui se guettent l’une l’autre.

Leurs ressources, leurs richesses, à quoi vont-elles ? Aux arsenaux dont elles s’enorgueillissent, mais qui les ruinent. Aux canonniers, techniciens exigeants, qu’il faut payer très cher. Aux remparts, aux bastions sans cesse à réparer, parfois à modifier de fond en comble... Et encore, ces ressources, elles vont aux ambassades, aux missions diplomatiques lointaines, aux courriers sans cesse sur les hauts chemins et pour quelles randonnées furieuses ! Villes libres, elles payent leur liberté : trop cher. Car malgré tous les sacrifices, elles sont faibles, à la merci du prince qui s’installe sur le fleuve, en amont, en aval, pour barrer le trafic ; à la merci du hobereau qui les détrousse et les nargue, du haut de son nid d’aigle imprenable pour des milices bourgeoises, à la merci de la cité rivale, qui, rompant les accords, se retourne contre la voisine jalousée.

Faiblesse, sous des apparences de prospérité ; surprenante faiblesse politique contrastant avec tant de puissance économique. Ces cités si brillantes et qui offusquent de leur éclat nos villes françaises du temps, comme leurs bourgeois sont loin de ce sens national, de ce sens politique qui, aux époques de crise, groupe autour du roi toutes les bonnes villes de France empressées à maintenir Louis XI contre les hommes du Bien public, ou, contre les princes, Charles VIII ! Parties d’un tout bien ordonné, les cités françaises d’où la culture rayonne sur les campagnes qu’elles "urbanisent" à leur image. Les villes allemandes : des égoïsmes furieux, en lutte sans répit contre d’autres égoïsmes.

D’une telle situation, si fiers de leurs fortunes, de leur sens des affaires, de leurs belles réussites, les Allemands souffraient. Ils souffraient de ne former qu’un pays divisé, fait de pièces et de morceaux, sans chef, sans tête : un amalgame confus de villes autonomes et de dynasties plus ou moins puissants.

Auteur: Febvre Lucien

Info: Un destin : Martin Luther, PUF, 1968, pages 64 à 67

[ historique ] [ teutons ] [ renaissance ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

passéistes

Alors que la revue Philitt publie un recueil de ses meilleures contributions, son directeur explique la démarche de l’antimoderne, et en quoi elle se distingue de celle du conservateur ou du réactionnaire .

FIGAROVOX : - Dans l’introduction de votre recueil "Résister à la modernité", vous reprenez l’apostrophe de Rimbaud "être absolument moderne" pour l’inverser "être absolument antimoderne". Qu’entendez-vous par antimoderne? Est-il possible de rejeter la modernité en bloc?

M. GIROUX :  - Les antimodernes renvoient à une tradition précise très bien thématisée par Antoine Compagnon dans un livre paru en 2005 Les antimodernes: De Joseph de Maistre à Roland Barthes. Il est essentiel de comprendre que les antimodernes sont des modernes. Ce sont, comme dit Compagnon, des modernes "déniaisés du moderne", des modernes "contrariés".

Car, en réalité, il n’y a d’anti-modernes que dans le monde moderne, époque dont la datation précise varie selon les écrivains. Certains disent que le monde moderne commence avec la révolution scientifique de Galilée (Michel Henry), d’autres avec la Réforme protestante (Joseph de Maistre), d’autres encore avec la Révolution industrielle (Günther Anders).

Charles Péguy, lui, fait commencer le "monde moderne" en 1881. Les antimodernes sont ceux qui identifient dans leur époque une forme de déclin spirituel et de diminution de l’homme. Les antimodernes sont paradoxaux car ils allient souvent une critique de l’idéologie du progrès avec une grande modernité esthétique. Baudelaire, Péguy, Bernanos détestent leur époque mais l’expriment à travers des formes littéraires renouvelées.

D’un point de vue politique, les anti-modernes sont encore ambivalents car ils sont souvent engagés dans les aventures politiques de leur temps. On peut aussi ajouter qu’ils sont très individualistes alors qu’il y a chez eux une critique permanente de l’individualisme. En résumé, les antimodernes sont, malgré eux, partie prenante de la modernité.

FIGAROVOX : - En quoi l’antimoderne se distingue-t-il du réactionnaire ou du traditionaliste?

M. GIROUX : - Joseph de Maistre, qui est le père de la réaction, est souvent considéré comme un antimoderne pour des raisons à la fois esthétiques et philosophiques. Sa langue est brillante et moderne, tant et si bien que Robert Triomphe disait de lui qu’il était un "Voltaire retourné". De même, Maistre, bien que contre-révolutionnaire estime que la "contre-révolution ne sera pas une révolution contraire mais le contraire de la révolution".

La Révolution est pour lui un châtiment qui doit purifier le peuple français par le sang. Il entérine la marche de l’histoire et un retour à l’ordre ancien n’a pas de sens à ses yeux. Selon moi, il y a presque un malentendu sur la notion de réactionnaire si l’on considère que Maistre l’initie. Aujourd’hui, le mot "réactionnaire" est dévoyé et ne renvoie à aucune réalité. On accuse confusément des personnalités d’être "réactionnaires" alors que ce sont, en gros, des libéraux conservateurs nostalgiques d’un passé récent, souvent celui de la France sous le Général de Gaulle.

Les traditionalistes à la Louis de Bonald ou les tenants de la Tradition à la René Guénon renvoient à des modes de pensée différents. Bonald est un doctrinal, précurseur de la sociologie française, qui n’a pas le charme esthétique d’un Maistre. De ce point de vue, c’est précisément parce qu’il n’est pas moderne qu’il n’est pas antimoderne.

Guénon, quant à lui, estime que l’histoire de l’humanité est une longue dégradation depuis un Âge d’or immémorial. Son logiciel mental est indépendant des catégories modernes. Il cherche moins à formuler une critique antimoderne qu’à asséner que la modernité est une anti-Tradition.

FIGAROVOX : - Vous critiquez l’homo reactus, c’est-à-dire le réactionnaire qui fait de l’anti-politiquement correct un réflexe. Pourquoi? N’est-il pas un peu snob que de vouloir trier entre les bons et les mauvais antimodernes? L’union contre le progressisme n’exige-t-elle pas de faire front?

M. GIROUX : - Homo reactus, néologisme inventé en référence à l’Homo festivus de Philippe Muray, n’est pas un réactionnaire au sens stricte. Si l’on considère que Joseph de Maistre est un réactionnaire - et nous avons vu que c’était déjà problématique - alors Homo reactus n’est pas un réactionnaire.

Homo reactus désigne plutôt une certaine frange des journalistes et des intellectuels qui ont fait du politiquement incorrect un argument commercial et une fin en soi. Homo reactus est politiquement incorrect, non parce qu’il défend une vision du monde profonde, mais par principe, pour montrer que, surtout, il n’est "pas-de-gauche".

Homo reactus, contrairement aux antimodernes, n’est pas du tout scandalisé par le monde tel qu’il est, il s’en accommode parfaitement et ne cherche pas à renverser la table. Comme son nom l’indique, Homo reactus réagit, mais il ne porte pas de discours positif. C’est un homme du ressentiment, tel qu’il a été thématisé par Nietzsche. Rien à voir donc avec les antimodernes dont la radicalité philosophique et esthétique bouleversent le sens commun.

FIGAROVX : - Vous nous faites découvrir énormément d’auteurs… Charles Péguy, Dostoïevski, Georges Bernanos, Léon Bloy, Soljenitsyne, Baudelaire, Guénon, Chesterton: quel est le point commun de tous ces écrivains ?

M. GIROUX : - Ce qui permet de rapprocher les antimodernes, tant ils différent sur de nombreux points quand on les prend individuellement, c’est leur ethos, c’est-à-dire leur tempérament. Ils sont habités par une conviction profonde: le monde qui est le nôtre a quelque chose de scandaleux. Le monde moderne est à la fois laid, bête et inique.

Le développement de la technique défigure la surface de la terre et avilit l’homme, les modes de vie contemporains encouragent un rapport utilitariste à autrui et mettent en berne la spiritualité, l’hégémonie du capitalisme aboutit à une nouvelle forme de servitude. Cet état de fait est la raison de la colère des antimodernes. Et ils ont en commun de ne pas transiger avec le monde tel qu’il est, de ne jamais "s’habituer", pour reprendre une terminologie de Péguy.

Leur vitupération, si elle peut être le signe d’un certain pessimisme, n’est pas pour autant une invitation au désespoir. Au contraire, l’antimoderne est travaillé par l’espérance et c’est de cette inadéquation entre la réalité et leur idéal que naît leur souffrance ainsi que leur inépuisable volonté d’en découdre.

FIGAROVOX : - Votre revue laisse une grande part à la littérature. En quoi celle-ci est-elle un antidote à la modernité?

M. GIROUX : - La littérature est une manière unique, non théorique, de rendre compte de la réalité. En cela, la littérature s’oppose à la démarche des sciences sociales. Alors que ces dernières réduisent la réalité à des entités objectives, évaluées selon des méthodes quantitatives, la littérature tire sa légitimité de la subjectivité qui la produit.

Ce serait une erreur, par exemple, de réduire l’œuvre de Balzac à une entreprise réaliste, voire naturaliste, de glorifier la Comédie humaine seulement parce que, comme on l’entend souvent, elle concurrencerait l’état-civil. Il y a chez Balzac plus qu’une description réaliste de la société française du XIXe siècle: il y a aussi la magie de la peau de chagrin ou le charisme faustien d’un Vautrin. Dostoïevski, qui avait beaucoup lu Balzac, avait compris cela.

Son œuvre, si elle a une dimension sociologique, est une aussi une plongée inquiétante dans les bas-fonds de la psyché humaine, une tentative de dévoilement du mystère profond de l’existence (Dieu, l’âme, la liberté). La littérature est intrinsèquement antimoderne dans la mesure où elle cherche à préserver l’existence de la vie intérieure. D’une certaine manière, on peut dire que le naturalisme - qui voulait donner à la littérature un statut scientifique - est une entreprise non-littéraire. La réduction sociologique de la littérature entraîne sa propre destruction.

FIGAROVOX : - Vous écrivez que le moderne se caractérise par la haine du secret et prescrivez contre le culte de la transparence et de l’exhibition la noblesse de la dissimulation. Pourquoi le moderne est-il hostile au secret? En quoi celui-ci est-il précieux à la civilisation?

M. GIROUX : - Le moderne ne croit pas qu’il existe une dimension cachée de l’existence, quelque chose qui échappe à une description objective. La modernité s’est en partie construite sur la dénonciation de certaines "illusions métaphysiques". Les grands mouvements scientistes de la fin du XIXe siècle sont la caricature de cette idéologie matérialiste: la nature de l’être est matérielle et rien n’existe qui ne puisse s’expliquer par des méthodes scientifiques.

Dès lors, ce qui n’est pas démontrable rationnellement mais qui renvoie à un autre type de convictions (la croyance, la foi, l’intuition etc.) est d’emblée exclu de la réalité. Le moderne est hostile au "secret" car il ne le comprend pas et préfère s’en moquer en l’accusant de relever d’une forme de superstition.

Michel Henry, ce grand philosophe malheureusement peu connu, estimait que la tradition philosophique occidentale avait été incapable de penser l’intériorité de la vie car elle fonctionnait selon le paradigme de la représentation, du voir, de la monstration.

Or, pour Henry, l’essence de la vie consistait à ne pas se montrer, à reposer dans le secret. Cette occultation de la vie est aux yeux de Henry la forme moderne de la barbarie.

Auteur: Giroux Matthieu

Info: sur https://www.lefigaro.fr, interview d'Eugénie Bastié, Publié le 23/01/2021

[ fermeture rationaliste ] [ penseurs ] [ réalité transposée ] [ codage du réel ] [ apriorisme aveugle ] [ tour d'horizon ]

 
Commentaires: 1
Ajouté à la BD par miguel

volatiles

Cette découverte scientifique est restée cachée dans un tiroir de musée pendant des décennies.  

Les oiseaux que nous allons rencontrer ne ressemblent à rien de ce que vous avez déjà vu.

Federico Degrange : Ils utilisent leur bec comme une hache pour tuer leurs proies.

Lichtman : Oh, mon Dieu.

Daniel Ksepka : Imaginez la plus grande chose que vous ayez jamais vue en vie en train de voler.

James Hansford : Ils sont colossaux. Ils pèsent environ 1 900 livres.

Alicia Grealy : Les œufs auraient été environ 150 fois plus gros qu'un œuf de poule.

Ksepka : Nous parlons donc de plumes d'environ deux pieds, ce qui est... c'est une grande plume.

Anusuya Chinsamy-Turan : La plupart des gens, vous savez, pensent à l'autruche - et ils pensent que c'est grand. Mais en fait, il y avait de vrais géants à une époque.

Lichtman : Nous parlons d'oiseaux qui pesaient autant qu'une voiture de sport, d'oiseaux qui étaient les plus grands prédateurs de leur époque, parcourant la jungle et dévorant des animaux de la taille d'un petit cheval, d'oiseaux si gargantuesques qu'on pouvait les confondre avec un avion.

Pourtant, ces oiseaux sont passés sous le radar de la paléontologie, en tout cas si on compare avec de nombreux dinosaures. Ces géants ailés sont mystérieux et les scientifiques en apprennent chaque jour un peu plus sur eux.

Au cours des quatre prochains épisodes de Science, vite fait, je vais vous les présenter. Nous partons à la recherche des oiseaux les plus extrêmes qui aient jamais existé. Bienvenue dans la première partie d'une série de quatre épisodes sur les vrais grands oiseaux.

- Bonjour, je m'appelle Daniel Ksepka.

Lichtman : Dan est un paléontologue aviaire.

Ksepka : Et je suis conservateur des sciences au Musée Bruce.

Lichtman : Quelle est votre relation avec les grands oiseaux disparus ?

Ksepka : Je les aime et ils m'aiment.

[CLIP : bruits d'océan]

Lichtman : Ok, je veux que vous fermiez les yeux. Dan va planter le décor du premier monstre que nous allons rencontrer.

Ksepka : Imaginez que vous vous trouvez en Caroline du Sud, il y a 27 millions d'années. Vous regardez la mer.

[CLIP : bruit de tempête]

Ksepka : C'est une mer agitée. Et puis, juste suspendu dans les airs, vous savez, bloquant le soleil... se déploie la plus grande chose que vous ayez jamais vue vivante en train de voler, comme un double albatros - avec une envergure de plus de 6 mètres. Elle est magnifique, et vous survole. C'est probablement un grand moment de votre vie, vous savez, l'émerveillement de voir ça.

Lichtman : Cet oiseau s'appelle Pelagornis sandersi. Il n'a pas de nom commun.

Ksepka : Oh, je l'appelle simplement Pelagornis. 

Lichtman : Dan a été le premier à décrire scientifiquement le fossile. Et nous verrons pourquoi il l'a appelé P. sandersi dans une minute. L'histoire commence lorsque ce fossile est entré dans sa vie, sans crier gare.

Ksepka : Pelagornis était un accident de chance et de fortune.

Lichtman : Dan n'a pas trouvé le fossile. Il avait été déterré en Caroline du Sud dans les années 1980, bien avant que Dan ne pose les yeux dessus.

Ksepka : Ils faisaient des fouilles à l'aéroport de Charleston et quelqu'un est tombé sur des os. Les travaux ont été interrompus.

Lichtman : Et il a fait appel à des renforts. Le regretté Al Sanders, paléontologue au musée local de Charleston.

Ksepka : Il est venu avec une équipe et ils ont ramassé ce qui avait été trouvé. Et puis, vous savez, j'aurais pensé que quiconque aurait trouvé cela se serait arrêté net et en aurait fait sa priorité parce que c'était, vous savez, le plus grand oiseau volant de tous les temps.

Lichtman : C'est du moins ce qu'aurait fait un paléontologue aviaire. Mais Al Sanders était plutôt un spécialiste des fossiles de baleines. Il a donc ramené le fossile au musée et l'a mis de côté.

Ksepka : Et Al l'a rangé dans un tiroir au fond de ce genre d'armoire dans le musée.

Lichtman : Et il est resté là pendant une trentaine d'années. Un jour, Al a parlé à Dan des ossements.  

Ksepka : Oui, et je ne m'attendais pas à voir le plus grand oiseau jamais vu dans un tiroir quand j'y suis allé. J'aurais été content avec un canard ou quelque chose comme ça.

Lichtman : Dans ce tiroir qui prenait la poussière se trouvait un fossile vieux d'environ 27 millions d'années qui ne ressemblait à rien de ce que Dan avait vu auparavant.

Ksepka : J'ai sorti l'os de l'aile, je l'ai posé sur le sol, je me suis allongé à côté et j'ai pris une photo avec mon téléphone portable parce qu'il était plus long que mon bras - c'était l'un des trois os.

Lichtman : Dan l'a baptisé Pelagornis sandersi en l'honneur d'Al Sanders, inconscient conservateur de cette découverte colossale. Dan a entrepris de comprendre tout ce qu'il pouvait sur cet oiseau. Et il s'est rendu compte que l'envergure de l'oiseau n'était pas la seule chose étonnante à son sujet. L'oiseau n'était pas seulement grand. Il était bizarre.

Ksepka : Je n'arrivais pas à croire le crâne. Il ne ressemble pas du tout à un oiseau. Il ressemble presque à un petit alligator. Avec un bec d'un pied et demi de long, contenant des mâchoires, avec des sortes de fausses dents.

Lichtman : Elles sont fausses parce qu'elles ne sont pas faites de ce dont sont faites nos dents : de la dentine et de l'émail. Mais elles ont toujours du mordant.

Ksepka : Oui, ce sont en fait des projections d'os, de petites pointes d'os dont la taille varie. Il y a donc une petite, une moyenne et une grande dans l'ordre, et elles ondulent selon ce schéma.

Lichtman : Et c'était probablement parfaits pour percer et retenir des objets glissants...

Ksepka : Donc, quelque chose comme un poisson ou un calmar une fois attrapé.

Lichtman : Outre les fausses dents de poisson, les os de l'épaule de l'oiseau étaient également étranges. Les omoplates de l'oiseau étaient minuscules. L'articulation de l'épaule et l'os qui s'y rattache avaient une forme inhabituelle.

Ksepka : Il ne semble pas qu'elle puisse vraiment fonctionner comme un oiseau normal. Cet oiseau ne pouvait donc pas lever son aile au-dessus du niveau de son dos. Il ne bat donc pas comme une mouette. Ou comme un oiseau chanteur.

Lichtman : Imaginez un cardinal décollant du sol, poussant ses ailes vers le haut et vers le bas, vite et fort. Ce mastodonte se contente probablement de déployer ses ailes de 20 pieds et de laisser le vent faire le travail.

Ksepka : C'est comme un cerf-volant géant. Il s'est donc probablement élevé dans les airs, soit en faisant face au vent, soit en prenant un départ un peu maladroit, soit en utilisant l'élévation à son avantage...

Lichtman : Et une fois que cet oiseau était en l'air, Dan pense qu'il pouvait probablement s'élever sur de grandes distances.

Ksepka : Je ne serais pas surpris que le Pelagornis puisse traverser l'Atlantique et s'arrêter en Afrique ou en Europe, puis revenir dans le cadre de sa migration saisonnière.

Lichtman : Cette espèce, Pelagornis sandersi, n'a été trouvée qu'à Charleston, mais ses proches - les autres oiseaux de cette bande de fausses dents - sont présents partout.

Ksepka : On les trouve partout dans le monde. Nous avons trouvé des fossiles en Antarctique, en Nouvelle-Zélande, dans l'État de Washington et dans l'Oregon, en Europe, en Afrique, en Amérique du Sud. On en trouve littéralement sur tous les continents.

Lichtman : Entre sa taille gigantesque et ses dents, Pelagornis est peut-être l'un des oiseaux les plus étranges de l'histoire de la Terre. Et la question qui me vient à l'esprit est la suivante : comment cet oiseau est-il apparu ? Dan pense que l'apparition de ce groupe - les pélagornithidés - est peut-être liée à la disparition d'autres créatures volantes étranges et géantes.

Ksepka : Dans le cas des pélagornithidés, ce rôle particulier serait rempli par des reptiles volants au Crétacé. Certaines de ces espèces sont bien plus grandes que Pelagornis et disparaissent lors de la même extinction que les dinosaures nonaviens, ce qui permet à un nouveau groupe d'explorer le rôle d'animal volant de très grande taille. Et les pélagornithidés sont le premier groupe à s'en emparer.

Lichtman : Ils se sont engouffrés dans une niche ouverte. C'est ce que m'ont dit de nombreux chercheurs spécialisés dans les grands oiseaux avec lesquels je me suis entretenu pour cette série : ces oiseaux géants sont entrés en scène en partie parce que l'extinction massive a éliminé la concurrence. Et il ne s'agit pas seulement des dinosaures : d'autres reptiles et les premiers oiseaux se sont également éteints. Les survivants ont donc eu accès à des ressources et à des écosystèmes qui n'existaient pas auparavant. Au fil des ans, j'ai beaucoup entendu parler de la radiation des mammifères, qui ont connu leur heure de gloire après la disparition des dinosaures. Mais dans un monde post-dinosaures, les oiseaux ont également déployé leurs ailes et se sont spécialisés.

Ksepka : Une spectaculaire diffusion des oiseaux s'est produite au cours des quelques millions d'années qui ont suivi cette extinction massive. Les ancêtres des oiseaux modernes ont donc la possibilité d'explorer des habitats arboricoles, prédateurs ou aquatiques pour la première fois. Et ils deviennent vraiment - ils deviennent un peu sauvages.

Lichtman : Pelagornis n'est qu'un début. Nous avons d'autres oiseaux sauvages à rencontrer dans les prochains épisodes : des oiseaux qui se sont élevés tel le phénix après l'extinction des dinosaures et qui sont devenus différents de tous les oiseaux encore en vie aujourd'hui.

Ksepka : Par exemple, les oiseaux-éléphants étaient peut-être les plus grands oiseaux qui aient jamais vécu.

Alicia Grealy : Oui, certains pouvaient peser jusqu'à une tonne. C'est pour cela qu'on les appelle les oiseaux-éléphants, n'est-ce pas ?

Lichtman : C'est ce que nous verrons dans le prochain épisode de cette série en quatre parties.

Auteur: Internet

Info: Flora Lichtman, 31 mai 2023. Emission de radio, repris par https://www.scientificamerican.com/

[ oryctographie ]

 

Commentaires: 0

Ajouté à la BD par miguel

exo-contact

Rice News : - Comment un professeur des religions comparées devient-il un expert des OVNIs ? 

JK : - Eh bien, personne n'est expert de ceci. Personne. C'est la première chose à savoir. Pour ma part, je réfléchis et écris sur le phénomène OVNI depuis 2004 environ. J'y ai d'abord été confronté parce que j'y étais obligé :  on le retrouvait tout simplement partout dans les sources historiques et ethnographiques avec lesquelles je travaillais pour une grande histoire des courants spirituels alternatifs dans la contre-culture californienne que j'écrivais à l'époque. Mes propres intérêts ont définitivement commencé là, à l'Institut Esalen.

Les gens supposaient alors couramment que le phénomène OVNI n'était pas sérieux ou qu'il s'agissait d'une sorte de truc "californien". Mais ce n'est tout simplement pas vrai, et ne l'a jamais été. Certaines des rencontres modernes les plus documentées et les plus spectaculaires ont eu lieu autour de sites militaires nucléaires et dans des cultures et des lieux comme le Brésil, la France, le Nouveau-Mexique - au cours de l'été 1945, à quelques kilomètres du site de la bombe atomique Trinity récemment irradiée et une semaine seulement après les bombardements d'Hiroshima et de Nagasaki - et la Nouvelle-Angleterre. Plus récemment on peut voir un grand mélange quant à l'appréciation de cette problématique : par exemple les militant des droits civiques, rien que ça. L'armée et les services de renseignement américains, son exploration spatiale aussi, le colonialisme occidental, les cosmologies indigènes américaines, avec une religion noire importante - la Nation of Islam. Les zones frontalières entre États-Unis et Mexique, l'Amérique latine, les relations américano-soviétiques et maintenant américano-russes, l'OTAN, les industries aérospatiales et aéronautiques, les courants ésotériques et mystiques occidentaux, la littérature de science-fiction et l'histoire des sciences ont tous été impliqués. Et ce n'est qu'un début.

Étudier convenablement le phénomène ovni, c'est en fait étudier à peu près tout. C'est aussi se heurter, durement, à la prise de conscience que l'ordre institutionnel ou universitaire de la connaissance dans lequel nous travaillons et pensons aujourd'hui - un ordre qui sépare effectivement les sciences des humanités - n'est tout simplement pas utile, et ne reflète certainement pas la réalité que nous essayons de comprendre. La difficile vérité est que le phénomène OVNI présente à la fois un aspect "matériel" objectif (pensez aux vidéos et photographies d'avions de chasse, aux prétendus méta-matériaux, aux méthodes de propulsion apparemment avancées et aux marques d'atterrissage) et un aspect "humain" subjectif (pensez aux rencontres rapprochées, aux observations visuelles multiples et coordonnées, aux états de conscience altérés, aux manifestations visionnaires, souvent de type baroque ou science-fictionnel, et aux enlèvements traumatiques ou transcendants vécus). Et les deux côtés - les dimensions matérielles et mentales - sont incroyablement importants pour avoir une idée de l'ensemble du tableau.

Bien sûr, on peut découper le phénomène ovni en deux catégories, "scientifique" et "humaniste", mais on ne le comprendra jamais en procédant ainsi. C'est, en fin de compte, la raison pour laquelle je pense que le sujet est si incroyablement important : il a le pouvoir particulier de défier, ou simplement d'effacer, notre ordre actuel de connaissance et ses divisions arbitraires. Quel que soit ce "ça", il ne se comporte tout simplement pas selon nos règles et hypothèses.  

RN : - Quelle est donc votre évaluation globale de ce nouveau rapport ?

JK : - Eh bien, j'ai un truc positif à dire, avec une forte critique. La chose positive est la suivante : La récente publication, ainsi que la fuite de la vidéo radar datant de décembre 2017 qui a été si efficacement rapportée dans le New York Times par mes collègues Leslie Kean, Ralph Blumenthal et Helene Cooper, a fondamentalement changé la conversation publique autour du sujet. Les chercheurs sérieux ne sont plus regardés avec autant de mépris, et les débunkers dogmatiques n'ont plus le dessus - si jamais ils l'ont vraiment eu.

En outre, et c'est tout aussi important, des gens de tous horizons qui se sont tus jusque-là, sortent maintenant de leur placard et prennent la parole. Pour ne prendre qu'un petit exemple, Miles O'Brien, le correspondant scientifique de PBS, a reconnu devant la caméra il y a quelques jours avoir été témoin d'un OVNI avec un comportement fondamentalement identique à celui des objets rapportés dans le document. Bref le point le plus fondamental de l'interview d'O'Brien est que la publication du gouvernement constitue une sorte de "tournant" dans la conversation publique. 

RN : - OK, quelle est la critique alors ?

JK : - La mauvaise nouvelle concerne la nature de cette "révélation " erratique et classifié de données - le refus du gouvernement de libérer la marchandise, pour ainsi dire, et de donner aux chercheurs sérieux un accès complet à toutes les données. Toutes les données. En procédant de la sorte, ils essaient essentiellement de contrôler le récit. Mon souci peut être résumé par cette sagesse populaire "si vous n'avez qu'un marteau, vous ne verrez que des clous". Dans ce contexte, vu que les données sont collectées par des professionnels de l'armée dont le but premier est de protéger l'État-nation contre les intrus ou les ennemis, le phénomène UAP ou OVNI est inévitablement présenté en termes de "menaces" potentielles. Je veux dire, mon Dieu, les vidéos que nous regardons ont été prises par les systèmes radar d'avions de chasse avancés conçus pour faire une seule chose : abattre un objet ennemi. Faut-il s'étonner que ces objets filmés soient présentés, littéralement et métaphoriquement, comme des menaces ?

RN : - Et sont-ils vraiment des menaces ? Nous n'en avons aucune idée.

JK : - Dans la culture populaire américaine, dans le cinéma et la science-fiction, ce que j'appelle la "mythologie de l'invasion de la guerre froide" a été dominante jusqu'à très récemment. Dans cette mythologie, l'OVNI est considéré comme une invasion "extraterrestre" qui doit être combattue ou à laquelle doivent résister les citoyens patriotes et craignant Dieu. Pensez, par exemple, au roman de 1898 de H.G. Wells "La guerre des mondes", une histoire d'invasion, soit dit en passant, inspirée par le colonialisme britannique. Ou, du côté américain, "Independence Day" en 1996. Ce n'est que récemment que les écrivains et les cinéastes ont commencé à s'éloigner de cette mythologie de l'invasion de la guerre froide pour s'orienter vers quelque chose de beaucoup plus positif, et franchement plus fidèle à ce que nous voyons réellement dans les cas de rencontre et de contact, si nous les étudions vraiment au lieu de simplement supposer des choses à leur sujet. Comme le récent film d'un réalisateur canadien, assez significatif en ce sens - "Arrival" sorti en 2016. 

Ce film frise la profondeur, car il tourne avec amour et contemplation autour de la transformation paranormale de son personnage central, une linguiste humaniste douée, le Dr Louise Banks. En effet, dans les faits historiques, les témoins humains sont souvent radicalement transformés par leurs rencontres, souvent de manière extrêmement positive, mais aussi difficile.

Ces rencontres, par exemple, peuvent être de nature profondément spirituelle, et je ne veux pas dire "bonnes" ou "agréables". Les gens éprouvent de la crainte, de la peur, de l'étrangeté et une terreur absolue ; le psychiatre de Harvard John Mack a appelé cela à juste titre "choc ontologique". Ils font l'expérience, soit pendant l'événement lui-même, soit plus tard, de nouvelles capacités étonnantes - pensez à la télépathie et, oui, à la précognition. Et ils adoptent de nouvelles visions du monde, beaucoup plus cosmiques.

Ainsi, dans le film, le Dr Louise Banks développe la capacité de précognition : Elle se "souvient" de la mort précoce et tragique de sa fille, pas encore née, alors qu'elle apprend progressivement que le temps, comme la grammaire de la langue extraterrestre qu'elle déchiffre, est circulaire et non linéaire. Cette idée de l'espace-temps est d'ailleurs bien connue des humanistes, de la philosophie grecque antique à Nietzsche.

Ce où je veux en venir ? Que nous devrions aborder le phénomène OVNI beaucoup plus comme "Arrival" et beaucoup moins comme "La Guerre des Mondes". Mais nous n'y arrivons pas. Au lieu de cela, nous parlons encore et encore de "menaces" potentielles et promulguons des mesures de sécurité et de secret sans fin. Et ensuite nous nous demandons pourquoi personne ne comprend cela ? En conséquence de ces actions, les témoins humains, leurs observations, leurs transformations et leurs traumatismes sont ignorés avec arrogance et dédaignés comme étant "anecdotiques" et donc indignes d'être étudiés.

J'avoue que je méprise l'aspect narquois de ce mot - anecdotique - et la façon dont il empêche une enquête complète. Toute expérience humaine, après tout, est techniquement "anecdotique". En ce sens, je suis moi aussi une "anecdote". Vous aussi. Nous le sommes tous. Et pourtant, il n'y a pas de science ou de mathématiques, pas de littérature, de langue, d'art ou de religion, et certainement pas d'OVNI, sans ce sujet humain, sans ce témoin anecdotique, ce penseur ou ce voyant. Alors pourquoi ne parlons-nous pas des expériences de ces témoins humains et de la façon dont ce phénomène semble déclencher ou catalyser l'imagination humaine de manière fantastique ? Pourquoi ne voyons-nous pas avec empathie ces drames, soi-disant imaginaires, comme des signes significatifs au lieu de les ignorer avec arrogance comme de l'écume neurologique ? Pourquoi ne parlons-nous pas de ce qu'il advient des pilotes terrifiés, des professionnels de l'armée désorientés, ou des citoyens confus qui voient ces choses, parfois de très près et de manière très personnelle ? Cela ne fait-il pas également partie du phénomène OVNI ? Pourquoi détournons-nous le regard ? Et de quoi ?

RN : - Ce serait le sujet d'une nouvelle conversation. Comment voulez-vous conclure ?

JK : On a jamais fini avec ça. J'aimerais conclure en mettant l'accent sur le fait que la pièce de technologie la plus sophistiquée sur terre pour détecter des présences non humaines ou surhumaines n'est pas un ordinateur quantique ou un système de radar militaire avancé. C'est le corps, le cerveau et l'être humain évolué. Je voudrais également suggérer que l'humain détecte d'étranges présences humanoïdes dans le ciel et l'environnement non pas depuis quelques années ou quelques décennies, mais depuis des millénaires. Tout ce que nous avons à faire est d'ouvrir nos yeux et regarder. Il suffit de ranger notre marteau et de regarder attentivement l'histoire, nos littératures et, surtout, nos religions.

Ainsi au sein de cette nouvelle grande toile humaniste et historique, ce que nous rencontrons dans le ciel et voyons du sol aujourd'hui, pourra prendre des significations fondamentalement nouvelles, et d'autres futurs potentiels. Je ne prétends pas savoir ce que cela impliquera - et ne crois certainement pas non plus aux mythologies régnantes, qu'elles soient politiques, séculaires ou religieuses - mais je parie qu'elles auront très peu à voir avec l'évaluation de ces "menaces". C'est la vieille mythologie de la guerre froide qu'il est temps de dépasser, et bien au-delà.

RN : Vous parlez de l'absence de toute limite.

JK : Oui. Il n'y en a aucune.

Auteur: Kripal Jeffrey

Info: Entretien avec Katharine Shilcut sur " how to think about the UFO phenomenon" http://news.rice.edu/ - June 30, 2021

[ US paranoïa ] [ rencontre du 3e type ]

 

Commentaires: 0

Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

épistémologie

Le premier chapitre de l’ouvrage montre que la période grecque est déterminante pour les développements ultérieurs de la connaissance, elle a posé certains principes fondamentaux qui seront discutés jusqu’à nos jours. En synthétisant les apports de penseurs grecs d’Héraclite et Parménide, de Socrate à Platon, Aristote et Épicure, Martine Bocquet pointe qu’à cette époque le signe (séméïon) est secondaire, il est considéré comme un signe de la nature que l’on peut interpréter (symptôme de maladies, foudre, etc.). Il s’oppose au mot qui, lui, repose sur une relation conventionnelle. Martine Bocquet montre qu’Aristote est important pour la sémiotique, de Deely en particulier. Réaffirmant l’importance du rapport sensible au monde, face à Platon, il a placé le séméïon au fondement de la connaissance et orienté ses recherches vers la relation comme catégorie discursive (pp. 33-45), notion qui sera au cœur des discussions des scoliastes.

Le chapitre deux montre l’évolution importante des notions de signe et de relation à la période latine médiévale et scolastique. Suivant l’étude de Deely, Martine Bocquet souligne le rôle d’Augustin d’Hippone. En traduisant le séméïon grec en signum, il a proposé la première formulation générale du signe qui subsume l’opposition entre nature et culture entre lesquelles il fonctionne comme une interface (p. 65, 68). Bien qu’elle demeure imparfaite, l’approche d’Augustin pose d’une part les fondements d’une théorie relationnelle de la connaissance ; d’autre part, en maintenant une distinction entre signe naturel (signum naturale, séméïon) et signe conventionnel (signum datum), elle ouvre sur une conception de la communication, tout à fait intéressante, engageant tous les êtres vivants (animaux, plantes) (p. 67, 69). D’une autre façon, la problématisation de la relation apparaît tout aussi importante à cette période. En distinguant, chez Aristote, la relatio secundum dici (relation transcendantale) — relation exprimée par le discours — et la relatio secundum esse (relation ontologique) — relation en tant qu’entité particulière (p. 70) — Boèce permet de concevoir l’existence de relations ontologiques, indépendantes de la pensée (p. 73) — fondamentales chez Poinsot, Peirce et Deely. Cette distinction aura son incidence puisqu’elle posera les termes de la querelle des universaux, tournant épistémologique majeur de l’histoire des connaissances.

Initiée par Pierre Abélard, la "querelle des universaux" est abordée par Martine Bocquet au chapitre trois et apparaît comme le point pivot de l’ouvrage (pp. 107-112) dans la mesure où elle aura une incidence sur le rapport au monde et à la connaissance. La dispute, qui porte sur la nature de l’objectivité et du statut de réalité des entités dépendantes ou non de la pensée, par le biais de la catégorie aristotélicienne de relation, et, par extension, de celle de signe, oppose les réalistes aux nominalistes.

Les penseurs dits "réalistes", parmi lesquels Thomas d’Aquin, Roger Bacon, Duns Scot, considèrent que le signe est constitué d’une relation indépendante de la pensée, dite ontologique, à la nature. Le traitement de Martine Bocquet montre clairement que Deely se retrouve dans la pensée de ces auteurs, dont il a avant tout souligné la contribution à la sémiotique de Peirce : (i) le signe subsume l’activité cognitive (pp. 80-81) (ii) la relation de signe est dans tous les cas triadique (p. 82), (iii) les signes se constituent de manière dynamique, ce qui leur permet d’agir (sémiosis) et de jouer un rôle dans l’expérience et la connaissance (pp. 83-86).

Martine Bocquet met particulièrement en évidence la pensée de Jean Poinsot (Jean de St-Thomas), en soulignant son influence sur Deely. L’originalité de ce dernier est d’avoir considéré Poinsot comme le précurseur d’une sémiotique voisine de celle de Peirce, plus ontologique encore. Pour le résumer en quelques points, Poinsot défend avant tout que la nature et la réalité du signe sont ontologiques (secundum esse), c’est-à-dire que le signe est une relation dont le véhicule est indifférent à ce qu’il communique (p. 102). Ce point est essentiel car il permet de doter le signe d’une nature proprement relationnelle : (i) il pointe vers autre chose (une autre réalité physique ou psychique), (ii) il permet d’articuler la subjectivité et l’intersubjectivité et (iii) opère la médiation entre les choses (indépendantes de la pensée) et les objets (dépendants de la pensée) (pp. 105-106) ; ce que la représentation, où l’objet pointe vers lui-même, n’autorise pas. Le point de vue de Poinsot est déterminant, car les nombreux retours vers sa pensée réalisés tout au long de l’ouvrage, montrent que c’est au prisme de ces principes que Deely réévaluait les pensées modernes.

De l’autre côté, les "nominalistes" comme Guillaume d’Ockham considèrent que la réalité est extra mentale, que seules les causes externes sont réelles, et qu’en conséquence, les relations intersubjectives n’existent que dans la pensée. Malgré l’intervention des successeurs d’Ockham qui, contrairement à celui-ci, admettront le signe, divisé en deux entités — signes instrumentaux (physiques, accessibles aux sens) et signes formels (concepts) — à partir de 1400 environ, les concepts (signes formels) seront considérés comme des représentations (p. 91). Martine Bocquet montre bien que le principe nominaliste, souvent simplifié, sera largement adopté par les sciences empiriques qu’il permettra de développer, mais cela, et c’est l’enjeu de la démarche de Deely, au détriment du rapport entre le monde et les sens.

Dans le quatrième chapitre consacré à la modernité, Martine Bocquet montre comment Deely a pointé les problèmes et les limites posés par l’héritage du nominalisme, en mettant notamment en perspective les travaux des empiristes (John Locke, David Hume), puis ceux de Kant, avec les propositions de Poinsot. Elle montre d’emblée que le rationalisme de Descartes, où la raison est indépendante et supérieure à la perception, conduira à renégocier la place de la perception dans la connaissance. En concevant les qualités des sens comme des images mentales, les modernes renversent l’ordre de la perception sensorielle reconnu par les scoliastes, les qualités sensorielles (couleurs, odeurs, sons) autrefois premières sont reléguées au second plan (p. 117). Les empiristes (John Locke, George Berkeley, David Hume) contribueront à considérer l’ensemble des sensations comme des images mentales, ils ne seront alors plus capables de s’extraire de la subjectivité (p. 121-124). À ce titre, Martine Bocquet porte à notre attention que Deely avait bien montré que l’empirisme et le rationalisme éludaient la description du phénomène de cognition.

L’approche de Kant apparaît dans l’ouvrage comme point culminant, ou synthèse, de la pensée moderne. En suivant les pas de Deely, Martine Bocquet prend le soin de mettre son travail en perspective avec la pensée de Poinsot, ce qui permet de réaffirmer sa pertinence dans le projet sémiotique de Deely. Kant a eu le mérite d’envisager des relations objectives. Toutefois, en limitant la cognition aux représentations, il la sépare de la signification, c’est-à-dire du supplément de sens contenu dans l’objectivité (au sens de Poinsot), et se coupe de l’expérience de l’environnement sensible qui permet à l’homme de connaître et de constituer le monde (pp. 130-131). Martine Bocquet insiste sur le fait que, selon Deely, la pensée kantienne est lourde de conséquences puisqu’en inversant les concepts d’objectivité et de subjectivité, elle enferme l’individu dans sa propre pensée (p. 134), reléguant la communication au rang d’illusion.

Le dernier chapitre de l’ouvrage est consacré aux chercheurs post-modernes, qui ont marqué la fin du modernisme et opéré un retour vers le signe. On y trouve notamment les apports d’Hegel et de Darwin, entre autres, qui ont permis d’affirmer le rôle concret de la relation ontologique dans la cognition, et la prise des facultés cognitives avec l’environnement physique. Martine Bocquet consacre une grande partie du chapitre à la sémiotique en tant que discipline, ce qui lui permet de réaffirmer l’ancrage de Deely dans l’héritage peircien qui est ici clairement distingué des modèles de Saussure et Eco.

Martine Bocquet rappelle d’abord que la pensée de Peirce s’inspire des réalistes (d’Aquin, Duns Scot) et considère donc que les produits de la pensée sont bien réels, et non de simples constructions des sens. La sémiotique qu’il développe appréhende la signification comme un parcours de pensée dynamique entre expérience et cognition. Dans son modèle ternaire, présenté en détail, la relation de tiercité caractérise le fonctionnement de la cognition humaine depuis la perception d’indices jusqu’à la constitution d’un système de signification ; elle est propre à l’homme qui peut se référer à la réalité mais aussi évoquer des choses imaginées (p. 146). L’intérêt de ce modèle est de permettre d’envisager que les non-humains utilisent aussi des signes, possibilité envisagée par Peirce dans sa « grande vision », doctrine qui selon Bocquet fascine Deely. Ce projet consistait à étendre la sémiotique au vivant, considérant que l’action des signes est enracinée dans toutes les choses du monde. Il ouvre sur un vaste champ de recherche abordé en conclusion, sur lequel nous reviendrons.

Contrairement à la sémiotique peircienne, Bocquet montre que John Deely considère que la sémiologie de Saussure, reposant sur le signe linguistique, est limitée car elle ne s’occupe que des signes conventionnels, culturels. De ce fait, elle se montre non seulement incapable d’approcher le signe naturel mais elle court aussi le risque de faire de la réalité une construction de l’esprit (idéalisme). En dépit d’un substrat peircien partagé, la même critique sera adressée à la théorie des codes d’Eco puis, plus loin dans la conclusion de Martine Bocquet (pp. 171-172), au structuralisme (Greimas, Lévi-Strauss). En somme, ces sémiotiques sont très efficaces pour étudier les systèmes de signes spécifiquement humains, mais, enfermées dans le langage et la culture, elles sont incapables de traiter les signes naturels, toute tentative révèle leur idéalisme. À cet endroit, l’auteure met bien en évidence l’opposition irréductible entre, d’un côté, ces théories qui ne rendent compte ni du signe naturel ni de la reconnaissance des phénomènes de la nature, et de l’autre, la posture de Deely qui défend l’idée que les données des sens ne sont jamais déconnectées et que la perception comprend une structure d’objectivité car les relations sont réelles (p. 165). Finalement, au travers de l’ouvrage, Bocquet montre que Deely prônait un retour à l’universalité du signe.

La conclusion du livre indique que Deely plaçait le signe et la sémiotique au cœur d’une pensée postmoderne capable de rétablir le dialogue entre les sciences dures et les sciences de la communication. Ce dialogue répondrait à la nécessité de comprendre l’action des signes autant dans la nature que dans la culture. Pour concrétiser cela, Deely propose un retour au réalisme oublié des scoliastes latins pour réviser les théories des modernes afin de renouer le lien avec la nature, en tenant compte des entités dépendantes et indépendantes de la pensée (p. 168).

Cette posture s’inscrirait, selon Martine Bocquet, dans un projet sémioéthique au sein duquel l’homme prendrait conscience de ses responsabilités vis-à-vis de la nature. Finalement, la solution à adopter correspond à la "grande vision" de Peirce, introduite en amont, c’est-à-dire une doctrine des signes qui, d’une part, intègre l’ensemble de la connaissance humaine du sensoriel aux interactions sociales et à la culture et, d’autre part, étend la sémiotique à l’ensemble du monde vivant, considéré comme un réseau de significations entre humains et non-humains, et noué sur une relation ontologique présente dans toute chose (pp. 169-170). Mis en application dans les années 1960, ce projet a donné lieu à un ensemble de sémiotiques spécifiques étudiant aussi bien le vivant, comme la physiosémiotique, la phytosémiotique, la zoosémiotique, la biosémiotique, que l’homme avec l’anthroposémiotique. Nous soulignons que certaines de ces disciplines sont aujourd’hui émergentes pour répondre aux questions environnementales actuelles en termes de climat, de cohabitation entre espèces et d’habitabilité du monde.

La restitution des travaux de Deely par Martine Bocquet semble tout à fait pertinente pour les sciences de la communication. Tout d’abord, parce que la démarche historique de Deely invitant à réévaluer nos acquis au prisme de modèles plus anciens, parfois moins connus, est tout à fait d’actualité et nécessaire dans notre réseau de recherche pluridisciplinaire. Ensuite, du fait de la structure détaillée du livre de Martine Bocquet qui permettra autant aux étudiants qu’aux chercheurs de trouver une formulation des concepts et des problèmes qui sous-tendent encore le domaine de la communication.

D’autre part, le grand intérêt de l’ouvrage réside dans le parti pris épistémologique de la sémiotique de Deely. En adoptant la relation ontologique de Poinsot, présente en creux chez Peirce, Deely ouvre des perspectives importantes pour le champ des sciences de la communication puisqu’il attire notre attention sur un concept universel de signe capable de réaffirmer la place du sensible dans la communication et de problématiser les interactions entre humains et non-humains. À ce titre, la pensée de Deely rapportée par Martine Bocquet est tout à fait en phase avec la recherche de ces quinze dernières années où différentes disciplines ont cherché à étudier la signification au-delà des particularités entre humains mais aussi entre êtres vivants, soit en adoptant un point de vue ontologique soit en intégrant les sciences physiques ou cognitives. Citons par exemple la biosémiotique, la zoosémiotique mais aussi l’anthropologie de la nature de Philippe Descola, "l’anthropologie au-delà de l’humain" d’Eduardo Kohn, la sémiophysique de René Thom et Jean Petitot ou encore la sémiotique cognitive.

Auteur: Chatenet Ludovic

Info: résumé critique de : Martine Bocquet, Sur les traces du signe avec John Deely : une histoire de la sémiotique Limoges, Éditions Lambert Lucas, 2019, 200 p.

[ panorama sémiologique ] [ anthropocentrisme ] [ xénolinguistique ] [ philologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste