Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 49
Temps de recherche: 0.0614s

particules élémentaires

Les imprévisibles effets de l'interaction forte continuent de surprendre les physiciens

Après plus d'un siècle de collision de particules, les physiciens ont une assez bonne idée de ce qui se passe au cœur de l'atome. Les électrons bourdonnent dans des nuages probabilistes autour d'un noyau de protons et de neutrons, chacun contenant un trio de particules bizarres appelées quarks. La force qui maintient tous les quarks ensemble pour former le noyau est la force forte, la bien nommée. C'est cette interaction forte qui doit être surmontée pour diviser l'atome. Et cette puissante force lie les quarks ensemble si étroitement qu'aucun quark n'a jamais été repéré en solo.

Ces caractéristiques des quarks, dont beaucoup peuvent être expliquées dans un cours de sciences au lycée, ont été établies comme des faits expérimentaux. Et pourtant, d'un point de vue théorique, les physiciens ne peuvent pas vraiment les expliquer.

Il est vrai qu'il existe une théorie de la force forte, et c'est un joyau de la physique moderne. Elle se nomme chromodynamique quantique (QCD), " chromo " faisant référence à un aspect des quarks appelé poétiquement " couleur ". Entre autres choses, la QCD décrit comment la force forte s'intensifie lorsque les quarks se séparent et s'affaiblit lorsqu'ils se rassemblent, un peu comme une bande élastique. Cette propriété est exactement à l'opposé du comportement de forces plus familières comme le magnétisme, et sa découverte dans les années 1970 a valu des prix Nobel. D'un point de vue mathématique, les quarks ont été largement démystifiés.

Cependant, les mathématiques fonctionnent mieux lorsque la force entre les particules est relativement faible, ce qui laisse beaucoup à désirer d'un point de vue expérimental. Les prédictions de la CDQ furent confirmées de manière spectaculaire lors d'expériences menées dans des collisionneurs qui rapprochèrent suffisamment les quarks pour que la force forte entre eux se relâche. Mais lorsque les quarks sont libres d'être eux-mêmes, comme c'est le cas dans le noyau, ils s'éloignent les uns des autres et exercent des pressions sur leurs liens de confinement, et la force forte devient si puissante que les calculs stylo papier sont mis en échec. Dans ces conditions, les quarks forment des protons, des neutrons et une multitude d'autres particules à deux ou trois quarks, généralement appelées hadrons, mais personne ne peut calculer pourquoi cela se produit.

Pour comprendre les bizarreries dont les quarks sont capables, les physiciens ne peuvent que lancer des simulations numériques de force brute (qui ont fait des progrès remarquables ces dernières années) ou regarder les particules ricocher dans de bonnes expériences de collisionnement à l'ancienne. Ainsi, près de 60 ans après que les physiciens aient formalisé le quark, la particule continue de surprendre.

Quoi de neuf et digne de mention

Pas plus tard que l'été dernier, la collaboration du LHCb au Grand collisionneur de hadrons en Europe a repéré des signes de deux variétés jusqu'alors inédites de quarks, les tétraquarks, furtivement observés à travers les tunnels souterrains du collisionneur. Cataloguer la diversité des comportements des quarks aide les physiciens à affiner leurs modèles pour simplifier les complexités de la force forte en fournissant de nouveaux exemples de phénomènes que la théorie doit rendre compte.

Les tétraquarks ont été découverts pour la première fois au LHC à l'été 2014, après plus d'une décennie d'indices selon lesquels les quarks pourraient former ces quatuors, ainsi que des groupes de deux ou trois. Cette découverte a alimenté un débat qui s'est enflammé malgré une question apparemment ésotérique: faut-il considérer quatre quarks comme une "molécule" formée de deux hadrons doubles quarks faiblement attirés connus sous le nom de mésons, ou s'assemblent-ils en paires plus inhabituelles connues sous le nom de diquarks?

Au cours des années qui suivirent, les physiciens des particules accumulèrent des preuves de l'existence d'une petite ménagerie de tétraquarks exotiques et de " pentaquarks " à cinq quarks. Un groupe se détacha en 2021, un tétraquark " à double charme " qui vécut des milliers de fois plus longtemps que ses frères exotiques (à 12 sextillionièmes de seconde comme le Methuselah). Il a prouvé qu'une variété de quark — le quark charme — pouvait former des paires plus résistantes que la plupart des suppositions ou des calculs minutieux l'avaient prédit.

À peu près à la même époque, les chercheurs ont mis au point une nouvelle façon de tamiser le maelström qui suit une collision proton-proton à la recherche d'indices de rencontres fortuites entre des composites de quarks. Ces brefs rendez-vous permettent de déterminer si un couple donné de hadrons attire ou repousse, une prédiction hors de portée du QCD. En 2021, les physiciens ont utilisé cette technique de "femtoscopie" pour apprendre ce qui se passe lorsqu'un proton s'approche d'une paire de quarks " étranges ". Cette découverte pourrait améliorer les théories sur ce qui se passe à l'intérieur des étoiles à neutrons.

L'année dernière, les physiciens ont appris que même les quarks de l'atome d'hélium, très étudié, cachent des secrets. Les atomes d'hélium dénudés ont inauguré le domaine de la physique nucléaire en 1909, lorsque Ernest Rutherford (ou plutôt ses jeunes collaborateurs) les projeta sur une feuille d'or et découvrit le noyau. Aujourd'hui, les atomes d'hélium sont devenus la cible de projectiles encore plus petits. Au début de l'année 2023, une équipe a tiré un flux d'électrons sur des noyaux d'hélium (composés de deux protons et de deux neutrons) et a été déconcertée de constater que les cibles remplies de quarks gonflaient bien plus que ce que la CDQ leur avait laissé supposer.








Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 19 fev 2024

[ fermions ] [ bosons ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

amélioration

Le progrès est devenu le moyen de l'aliénation
Cela fait des décennies, sinon un siècle ou deux, que des gens cherchent le mot, l'ont "sur le bout de la langue", qu'il leur échappe, leur laissant une vive et chagrine frustration - sans le mot, comment dire la chose ?
Comment donner et nommer la raison du désarroi, de la révolte, du deuil et pour finir du découragement et d'une indifférence sans fond. Comme si l'on avait été amputé d'une partie du cerveau : amnésie, zone blanche dans la matière grise.
La politique, en tout cas la politique démocratique, commence avec les mots et l'usage des mots ; elle consiste pour une part prépondérante à nommer les choses et donc à les nommer du mot juste, avec une exactitude flaubertienne. Nommer une chose, c'est former une idée. Les idées ont des conséquences qui s'ensuivent inévitablement.
La plus grande part du travail d'élaboration de la novlangue, dans 1984, consiste non pas à créer, mais à supprimer des mots, et donc des idées - de mauvaises idées, des idées nocives du point du vue du Parti -, et donc toute velléité d'action en conséquence de ces mots formulant de mauvaises idées.
Nous sommes tombés sur "regrès", il y a fort peu de temps, un bon et vieux mot de français, tombé en désuétude comme on dit, bon pour le dictionnaire des obsolètes qui est le cimetière des mots. Et des idées. Et de leurs conséquences, bonnes ou mauvaises. Un mot "oublié" ?
Difficile de croire que le mot "regrès", antonyme du "progrès" ait disparu par hasard de la langue et des têtes. Le mouvement historique de l'idéologie à un moment quelconque du XIXe siècle a décidé que désormais, il n'y aurait plus que du progrès, et que le mot de regrès n'aurait pas plus d'usage que la plus grande part du vocabulaire du cheval aujourd'hui disparu avec l'animal et ses multiples usages qui entretenaient une telle familiarité entre lui et l'homme d'autrefois.
Ainsi les victimes du Progrès, de sa rançon et de ses dégâts, n'auraient plus de mot pour se plaindre. Ils seraient juste des arriérés et des réactionnaires : le camp du mal et des maudits voués aux poubelles de l'histoire. Si vous trouvez que l'on enfonce des portes ouvertes, vous avez raison. L'étonnant est qu'il faille encore les enfoncer.
Place au Tout-Progrès donc. Le mot lui-même n'avait à l'origine nulle connotation positive. Il désignait simplement une avancée, une progression. Même les plus acharnés progressistes concéderont que l'avancée - le progrès - d'un mal, du chaos climatique, d'une épidémie, d'une famine ou de tout autre phénomène négatif n'est ni un petit pas ni un grand bond en avant pour l'humanité. Surtout lorsqu'elle se juge elle-même, par la voix de ses autorités scientifiques, politiques, religieuses et morales, au bord du gouffre.
Ce qui a rendu le progrès si positif et impératif, c'est son alliance avec le pouvoir, énoncée par Bacon, le philosophe anglais, à l'aube de la pensée scientifique et rationaliste moderne : "Savoir c'est pouvoir". Cette alliance dont la bourgeoisie marchande et industrielle a été l'agente et la bénéficiaire principale a conquis le monde. Le pouvoir va au savoir comme l'argent à l'argent. Le pouvoir va au pouvoir.
Le progrès est l'arme du pouvoir sur les sans pouvoirs
Et c'est la leçon qu'en tire Marx dans La Guerre civile en France. Les sans pouvoirs ne peuvent pas se "réapproprier" un mode de production qui exige à la fois des capitaux gigantesques et une hiérarchie implacable. L'organisation scientifique de la société exige des scientifiques à sa tête : on ne gère pas cette société ni une centrale nucléaire en assemblée générale, avec démocratie directe et rotation des tâches. Ceux qui savent, décident, quel que soit l'habillage de leur pouvoir.
Contrairement à ce que s'imaginait Tocqueville dans une page célèbre, sur le caractère "providentiel" du progrès scientifique et démocratique, entrelacé dans son esprit, le progrès scientifique est d'abord celui du pouvoir sur les sans pouvoirs.
Certes, une technicienne aux commandes d'un drone, peut exterminer un guerrier viriliste, à distance et sans risque. Mais cela ne signifie aucun progrès de l'égalité des conditions. Simplement un progrès de l'inégalité des armements et des classes sociales.
C'est cette avance scientifique qui a éliminé des peuples multiples là-bas, des classes multiples ici et prolongé l'emprise étatique dans tous les recoins du pays, de la société et des (in)dividus par l'emprise numérique.
Chaque progrès de la puissance technologique se paye d'un regrès de la condition humaine et de l'émancipation sociale. C'est désormais un truisme que les machines, les robots et l'automation éliminent l'homme de la production et de la reproduction. Les machines éliminent l'homme des rapports humains (sexuels, sociaux, familiaux) ; elles l'éliminent de lui-même. A quoi bon vivre ? Elles le font tellement mieux que lui.
Non seulement le mot de "Progrès" - connoté à tort positivement - s'est emparé du monopole idéologique de l'ère technologique, mais cette coalition de collabos de la machine, scientifiques transhumanistes, entrepreneurs high tech, penseurs queers et autres avatars de la French theory, s'est elle-même emparé du monopole du mot "Progrès" et des idées associées. Double monopole donc, et double escroquerie sémantique.
Ces progressistes au plan technologique sont des régressistes au plan social et humain. Ce qu'en langage commun on nomme des réactionnaires, des partisans de la pire régression sociale et humaine. Cette réaction politique - mais toujours à l'avant-garde technoscientifique - trouve son expression dans le futurisme italien (Marinetti) (1), dans le communisme russe (Trotsky notamment), dans le fascisme et le nazisme, tous mouvements d'ingénieurs des hommes et des âmes, visant le modelage de l'homme nouveau, de l'Ubermensch, du cyborg, de l'homme bionique, à partir de la pâte humaine, hybridée d'implants et d'interfaces.
Le fascisme, le nazisme et le communisme n'ont succombé que face au surcroît de puissance technoscientifique des USA (nucléaire, informatique, fusées, etc.). Mais l'essence du mouvement, la volonté de puissance technoscientifique, s'est réincarnée et amplifiée à travers de nouvelles enveloppes politiques.
Dès 1945, Norbert Wiener mettait au point la cybernétique, la " machine à gouverner " et " l'usine automatisée ", c'est-à-dire la fourmilière technologique avec ses rouages et ses connexions, ses insectes sociaux-mécaniques, ex-humains. Son disciple, Kevin Warwick, déclare aujourd'hui : " Il y aura des gens implantés, hybridés et ceux-ci domineront le monde. Les autres qui ne le seront pas, ne seront pas plus utiles que nos vaches actuelles gardées au pré. " (2)
Ceux qui ne le croient pas, ne croyaient pas Mein Kampf en 1933. C'est ce techno-totalitarisme, ce " fascisme " de notre temps que nous combattons, nous, luddites et animaux politiques, et nous vous appelons à l'aide.
Brisons la machine.

Auteur: PMO

Info:

[ décadence ]

 

Commentaires: 0

rapports humains

Le bruit en moi c’est moi qui l’invente le son je ne l’ai jamais entendu à la naissance J'écris pour que vous, lecteur entendant puisse comprendre mes émotions. La surdité c’est plus compliqué que ça. Suffit pas de parler plus fort (entre nous, ça ne me sert à rien), Suffit pas de se rapprocher de moi et baisser la tête vers le bas (c’est pire parce que je dois "descendre" physiquement pour être à votre niveau), Suffit pas de ne pas bouger le corps, mais dodeliner de la tête, çela n’aide pas non plus… (j’essaie de faire avec mais des fois avec la fatigue donc je laisse tomber), Lecteur entendant, si vous n’articulez pas, que vous me regardez pas, je ne peux pas comprendre ce que vous me dites. Pardon si je pète un câble, mais j’ai beau faire des efforts, mais parfois c’est sur-humain ce que les entendants me demandent. Ne pas comprendre une conversation "ping-pong" ça arrive souvent, oui parce que ça va très vite, et moi le temps que je comprenne… C’est à retardement, c’est très pénible d’arriver après. Mais surtout c’est nul d’avoir un train voire un wagon de retard dans la conversation : j’ai l’air bête au final, et je n’aime pas ça. Ces derniers temps, c’est devenu un moment pénible pour moi. J’ai de plus de plus de mal à suivre les conversations. Bien souvent, j’acquiesce de façon à rassurer la personne et je n’ai pas forcément compris. Je ne le dis pas forcément à chaque fois. Ce serait trop pénible. Pour elle, pour lui, pour eux, pour moi. Je suis arrivée à un stade de ma vie, où je n’ai plus envie de me prendre la tête à essayer de comprendre ce qui se passe autour de moi. Essayer de choper les mots qui sortent de la bouche des personnes, les reconstituer dans mon cerveau, analyser la phrase pour ensuite réagir. Je suis fatiguée de cet exercice. J’aimerais que ce soit fluide, ne plus penser, que les choses viennent toutes seules. Moi qui étais tout le temps à l’affût pour ne pas être en décalage avec les autres, j’ai presque envie de me renfermer dans ma coquille. De ne plus penser. Je suis fatiguée d’essayer de comprendre les personnes qui m’entourent, d’essayer de les décrypter pour savoir si ça va bien ou mal. Après tout, ça pourrait m’être égal mais l’intérêt est de pouvoir échanger, de rire, pas d’être renfermée dans sa bulle. On vit dans un monde auditif et pas visuel. Fatiguée d’avoir un temps de retard dans les conversations.Fatiguée d’anticiper le vocabulaire de chacun, pour justement ne pas avoir ce temps de retard à cause de l’analyse que je vais faire dans mon cerveau pour reconstituer cette phrase qui vient d’être dite. Fatiguée de faire preuve de souplesse pour être au top. Apprendre à lâcher-prise. Apprendre à gérer cette frustration à laquelle je suis trop habituée, frustration de ne pas comprendre ce qui se passe autour de moi. Je pourrais me laisser aller, mais ce n’est pas la vie que j’ai choisie, pas d’être en recul, isolée. Il faudrait que l’effort vienne de l’autre côté aussi, que les situations soient moins compliquées, plus simples. Je suis bien consciente que les gens qui m’entourent n’ont pas forcément conscience de l’effort qui est fait tous les jours, qu’ils n’ont pas conscience que c’est bien plus subtil que cela, que la surdité est un handicap sournois qui peut vous isoler très vite. En particulier avec une personne c’est plus simple sinon c’est l’engouffrement. Pour être plus confortable: je choisis être avec 1 ou 2 maxi pas plus c’est moins fatiguant plus – Plus je prends l’âge, je suis fatiguée labialement. Etre avec les Entendants vous force à vous battre, à vous faire accepter, à vous faire comprendre à ceux qui n’ont pas de problème que le monde n’est pas parfait… L'univers de la surdité reste, pour moi, un long combat. Pour les Entendants qui croisent ma vie , existe un malaise elle provoque des quiproquos qui sont à l'origine d'une immense déchirure. Ce manque de patience et cette révolte au quotidien. Nous devons marcher sur des œufs pour ne pas froisser ou couper le fil, le fil si sensible et de si courte durée qui nous relie aux Entendants et de jour en jour, il faut refaire ces efforts épuisants pour convaincre que nous ne sommes pas des personnes venues d'ailleurs qui bricolent des mots, des phrases. Pour parvenir à me faire comprendre. Il faut oser, ruser, séduire, persévérer, emmurée complètement dans ce silence 24h sur 24, l'oreille morte, absente, détachée du corps, déconnectée. Rien que des vagues de sensations, de choses ne peuvent définir ce que peut être le son d'un souffle, d'une vibration, si peu de détails que perçoit notre corps pour tenter de saisir ce que parler veut dire. Heureusement, là, les yeux se multiplient : l'œil qui me sauve, l'œil qui remplace l'oreille, l'œil qui épie, qui guette le mouvement de secours dans les mauvaises passes. Là j'essaie de déchiffrer rapidement, tel un rapace, l'œil et le cerveau branchés en ligne directe S.O.S. ! Ma vue représente pour moi le guide, le troisième œil, œil qui sauve mon humeur, mon honneur, le respect de moi même. Ce regard se veut perçant comme un laser, qui se glisse sur les visage, les scrute pour déchiffrer leurs messages. Les Entendants se lassent rapidement. Trop d'efforts pour peu de choses à dire mais pour moi, en attente de cette communication, je me sens par moments complètement impuissante. Cette impression douloureuse avec la peur de craquer, avec l'envie de hurler aux autres: faites cet effort qui donne un sens à ma vie silencieuse. Torture consentante, malgré moi : je dois accepter ce jumeau insupportable qui d'un regard, chaque matin, me frôle à nouveau et me marche sur le pied pour bien me montrer sa présence. Le silence… Film muet d'avant-guerre où les personnes se déplacent avec des gestes saccadés, avec des mimiques ridicules pour ne pas lasser le spectateur de cette pantomime. Rire, truchement du geste inhabituel, provocateur, loin du réel. Montrer sa présence sans bruit. Et puis moi petit poisson dans un bocal. Je les vois se tortiller, la bouche grande ouverte, les yeux bien ronds sortant des orbites. J'ai l'impression que je suis une bête curieuse dont on doit faire attention. Instinctivement, je les sens parler trop fort, avec beaucoup d'efforts. Une démarche inhabituelle. Je souris, leur visage se détend. Ils se sentent mieux dans cette approche de la communication. Ils soufflent, heureux que je saisisse au vol ces mots qu'ils échangent peu à peu. Mon instinct me dit qu'ils se fatiguent. Un petit mot gentil et hop ! terminé. Très court, beaucoup trop court le moment, les moments d'explication ou par malchance se glissent malicieux des quiproquos. Je ne peux pas toujours faire face. Je me sens menacée et par pudeur pour eux, je m'excuse pour ne pas les blesser. Jeu de ping-pong où j’essaie avec acrobatie de garder la balle dans mon camp le plus longtemps dans ce jeu de mots qui par moments me trouble. Chaque expression de leurs bouches, au fil de leurs lèvres, où je dois comme un funambule garder l'équilibre. Mon œil s'attache à cette partie du corps d'où sortent ces mots qui me sont absents à l’oreille et dans cette bouche, seul espoir de converser, dans ce double jeu, mon rôle est important. Je dois mettre à l'aise doucement, sans agresser mon interlocuteur. La lecture labiale n'est pas toujours… Car sur les lèvres il arrive que je ne détecte pas le sens de leurs propos. Là je bafouille un peu en essayant par de grands efforts de reprendre espoir. Je garde mon sang-froid, et essaie de mon mieux à raccrocher les mots. Je les oblige à parler et j'improvise dans le sens de la conversation avec tact pour éviter les dérapages, le vide. Le réflexe de reculer pour mieux voir les mots car seul mon œil est vigilant comme un radar. Il détecte la pensée avant le mot. Inquiète comme un oiseau de proie ou jolie Dame Blanche, les grands yeux bien ouverts pour mieux me diriger sans trébucher dans le regard des autres.

Auteur: Aurélie de La Selle

Info: Mail à Mg, oct 2016

[ hypoacousie ] [ handicap ] [ infirmité ] [ sourde ] [ témoignage ]

 

Commentaires: 0

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

humanisme

En recevant la distinction dont votre libre Académie a bien voulu m'honorer, ma gratitude était d'autant plus profonde que je mesurais à quel point cette récompense dépassait mes mérites personnels. Tout homme et, à plus forte raison, tout artiste, désire être reconnu. Je le désire aussi. Mais il ne m'a pas été possible d'apprendre votre décision sans comparer son retentissement à ce que je suis réellement. Comment un homme presque jeune, riche de ses seuls doutes et d'une œuvre encore en chantier, habitué à vivre dans la solitude du travail ou dans les retraites de l'amitié, n'aurait-il pas appris avec une sorte de panique un arrêt qui le portait d'un coup, seul et réduit à lui-même, au centre d'une lumière crue ? De quel cœur aussi pouvait-il recevoir cet honneur à l'heure où, en Europe, d'autres écrivains, parmi les plus grands, sont réduits au silence, et dans le temps même où sa terre natale connaît un malheur incessant ? J'ai connu ce désarroi et ce trouble intérieur. Pour retrouver la paix, il m'a fallu, en somme, me mettre en règle avec un sort trop généreux. Et, puisque je ne pouvais m'égaler à lui en m'appuyant sur mes seuls mérites, je n'ai rien trouvé d'autre pour m'aider que ce qui m'a soutenu, dans les circonstances les plus contraires, tout au long de ma vie : l'idée que je me fais de mon art et du rôle de l'écrivain. Permettez seulement que, dans un sentiment de reconnaissance et d'amitié, je vous dise, aussi simplement que je le pourrai, quelle est cette idée.

Je ne puis vivre personnellement sans mon art. Mais je n'ai jamais placé cet art au-dessus de tout. S'il m'est nécessaire au contraire, c'est qu'il ne se sépare de personne et me permet de vivre, tel que je suis, au niveau de tous. L'art n'est pas à mes yeux une réjouissance solitaire. Il est un moyen d'émouvoir le plus grand nombre d'hommes en leur offrant une image privilégiée des souffrances et des joies communes. Il oblige donc l'artiste à ne pas s'isoler; il le soumet à la vérité la plus humble et la plus universelle. Et celui qui, souvent, a choisi son destin d'artiste parce qu'il se sentait différent apprend bien vite qu'il ne nourrira son art, et sa différence, qu'en avouant sa ressemblance avec tous. L'artiste se forge dans cet aller-retour perpétuel de lui aux autres, à mi-chemin de la beauté dont il ne peut se passer et de la communauté à laquelle il ne peut s'arracher. C'est pourquoi les vrais artistes ne méprisent rien; ils s'obligent à comprendre au lieu de juger. Et, s'ils ont un parti à prendre en ce monde, ce ne peut être que celui d'une société où, selon le grand mot de Nietzsche, ne régnera plus le juge, mais le créateur, qu'il soit travailleur ou intellectuel. Le rôle de l'écrivain, du même coup, ne se sépare pas de devoirs difficiles. Par définition, il ne peut se mettre aujourd'hui au service de ceux qui font l'histoire : il est au service de ceux qui la subissent. Ou, sinon, le voici seul et privé de son art. Toutes les armées de la tyrannie avec leurs millions d'hommes ne l'enlèveront pas à la solitude, même et surtout s'il consent à prendre leur pas. Mais le silence d'un prisonnier inconnu, abandonné aux humiliations à l'autre bout du monde, suffit à retirer l'écrivain de l'exil, chaque fois, du moins, qu'il parvient, au milieu des privilèges de la liberté, à ne pas oublier ce silence et à le faire retentir par les moyens de l'art. Aucun de nous n'est assez grand pour une pareille vocation. Mais, dans toutes les circonstances de sa vie, obscur ou provisoirement célèbre, jeté dans les fers de la tyrannie ou libre pour un temps de s'exprimer, l'écrivain peut retrouver le sentiment d'une communauté vivante qui le justifiera, à la seule condition qu'il accepte, autant qu'il peut, les deux charges qui font la grandeur de son métier : le service de la vérité et celui de la liberté. Puisque sa vocation est de réunir le plus grand nombre d'hommes possible, elle ne peut s'accommoder du mensonge et de la servitude qui, là où ils règnent, font proliférer les solitudes. Quelles que soient nos infirmités personnelles, la noblesse de notre métier s'enracinera toujours dans deux engagements difficiles à maintenir- le refus de mentir sur ce que l'on sait et la résistance à l'oppression. Pendant plus de vingt ans d'une histoire démentielle, perdu sans secours, comme tous les hommes de mon âge, dans les convulsions du temps, j'ai été soutenu ainsi par le sentiment obscur qu'écrire était aujourd'hui un honneur, parce que cet acte obligeait, et obligeait à ne pas écrire seulement. Il m'obligeait particulièrement à porter, tel que j'étais et selon mes forces, avec tous ceux qui vivaient la même histoire, le malheur et l'espérance que nous partagions. Ces hommes, nés au début de la Première Guerre mondiale, qui ont eu vingt ans au moment où s'installaient à la fois le pouvoir hitlérien et les premiers procès révolutionnaires, qui ont été confrontés ensuite, pour parfaire leur éducation, à la guerre d'Espagne, à la Seconde Guerre mondiale, à l'univers concentrationnaire, à l'Europe de la torture et des prisons, doivent aujourd'hui élever leurs fils et leurs œuvres dans un monde menacé de destruction nucléaire. Personne, je suppose, ne peut leur demander d'être optimistes. Et je suis même d'avis que nous devons comprendre, sans cesser de lutter contre eux, l'erreur de ceux qui, par une surenchère de désespoir, ont revendiqué le droit au déshonneur, et se sont rués dans les nihilismes de l'époque. Mais il reste que la plupart d'entre nous, dans mon pays et en Europe, ont refusé ce nihilisme et se sont mis à la recherche d'une légitimité. Il leur a fallu se forger un art de vivre par temps de catastrophe, pour naître une seconde fois, et lutter ensuite, à visage découvert, contre l'instinct de mort à l'œuvre dans notre histoire. Chaque génération, sans doute, se croit vouée à refaire le monde. La mienne sait pourtant qu'elle ne le refera pas. Mais sa tâche est peut-être plus grande. Elle consiste à empêcher que le monde se défasse. Héritière d'une histoire corrompue où se mêlent les révolutions déchues, les techniques devenues folles, les dieux morts et les idéologies exténuées, où de médiocres pouvoirs peuvent aujourd'hui tout détruire mais ne savent plus convaincre, où l'intelligence s'est abaissée jusqu'à se faire la servante de la haine et de l'oppression, cette génération a dû, en elle-même et autour d'elle, restaurer à partir de ses seules négations un peu de ce qui fait la dignité de vivre et de mourir. Devant un monde menacé de désintégration, où nos grands inquisiteurs risquent d'établir pour toujours les royaumes de la mort, elle sait qu'elle devrait, dans une sorte de course folle contre la montre, restaurer entre les nations une paix qui ne soit pas celle de la servitude, réconcilier à nouveau travail et culture, et refaire avec tous les hommes une arche d'alliance. Il n'est pas sûr qu'elle puisse jamais accomplir cette tâche immense, mais il est sûr que, partout dans le monde, elle tient déjà son double pari de vérité et de liberté, et, à l'occasion, sait mourir sans haine pour lui. C'est elle qui mérite d'être saluée et encouragée partout où elle se trouve, et surtout là où elle se sacrifie. C'est sur elle, en tout cas, que, certain de votre accord profond, je voudrais reporter l'honneur que vous venez de me faire. Du même coup, après avoir dit la noblesse du métier d'écrire, j'aurais remis l'écrivain à sa vraie place, n'ayant d'autres titres que ceux qu'il partage avec ses compagnons de lutte, vulnérable mais entêté, injuste et passionné de justice, construisant son œuvre sans honte ni orgueil à la vue de tous, toujours partagé entre la douleur et la beauté, et voué enfin à tirer de son être double les créations qu'il essaie obstinément d'édifier dans le mouvement destructeur de l'histoire. Qui, après cela, pourrait attendre de lui des solutions toutes faites et de belles morales ? La vérité est mystérieuse, fuyante, toujours à conquérir. La liberté est dangereuse, dure à vivre autant qu'exaltante. Nous devons marcher vers ces deux buts, péniblement, mais résolument, certains d'avance de nos défaillances sur un si long chemin. Quel écrivain dès lors oserait, dans la bonne conscience, se faire prêcheur de vertu ?

Quant à moi, il me faut dire une fois de plus que je ne suis rien de tout cela. Je n'ai jamais pu renoncer à la lumière, au bonheur d'être, à la vie libre où j'ai grandi. Mais bien que cette nostalgie explique beaucoup de mes erreurs et de mes fautes, elle m'a aidé sans doute à mieux comprendre mon métier, elle m'aide encore à me tenir, aveuglément, auprès de tous ces hommes silencieux qui ne supportent dans le monde la vie qui leur est faite que par le souvenir ou le retour de brefs et libres bonheurs. Ramené ainsi à ce que je suis réellement, à mes limites, à mes dettes, comme à ma foi difficile, je me sens plus libre de vous montrer, pour finir, l'étendue et la générosité de la distinction que vous venez de m'accorder, plus libre de vous dire aussi que je voudrais la recevoir comme un hommage rendu à tous ceux qui, partageant le même combat, n'en ont reçu aucun privilège, mais ont connu au contraire malheur et persécution. Il me restera alors à vous en remercier, du fond du cœur, et à vous faire publiquement, en témoignage personnel de gratitude, la même et ancienne promesse de fidélité que chaque artiste vrai, chaque jour, se fait à lui-même, dans le silence.

Auteur: Camus Albert

Info: Pour sa réception du Nobel en 1957, in "Discours de Suède", Folio-Gallimard

[ écriture ]

 

Commentaires: 0

Ajouté à la BD par miguel

volatiles

Cette découverte scientifique est restée cachée dans un tiroir de musée pendant des décennies.  

Les oiseaux que nous allons rencontrer ne ressemblent à rien de ce que vous avez déjà vu.

Federico Degrange : Ils utilisent leur bec comme une hache pour tuer leurs proies.

Lichtman : Oh, mon Dieu.

Daniel Ksepka : Imaginez la plus grande chose que vous ayez jamais vue en vie en train de voler.

James Hansford : Ils sont colossaux. Ils pèsent environ 1 900 livres.

Alicia Grealy : Les œufs auraient été environ 150 fois plus gros qu'un œuf de poule.

Ksepka : Nous parlons donc de plumes d'environ deux pieds, ce qui est... c'est une grande plume.

Anusuya Chinsamy-Turan : La plupart des gens, vous savez, pensent à l'autruche - et ils pensent que c'est grand. Mais en fait, il y avait de vrais géants à une époque.

Lichtman : Nous parlons d'oiseaux qui pesaient autant qu'une voiture de sport, d'oiseaux qui étaient les plus grands prédateurs de leur époque, parcourant la jungle et dévorant des animaux de la taille d'un petit cheval, d'oiseaux si gargantuesques qu'on pouvait les confondre avec un avion.

Pourtant, ces oiseaux sont passés sous le radar de la paléontologie, en tout cas si on compare avec de nombreux dinosaures. Ces géants ailés sont mystérieux et les scientifiques en apprennent chaque jour un peu plus sur eux.

Au cours des quatre prochains épisodes de Science, vite fait, je vais vous les présenter. Nous partons à la recherche des oiseaux les plus extrêmes qui aient jamais existé. Bienvenue dans la première partie d'une série de quatre épisodes sur les vrais grands oiseaux.

- Bonjour, je m'appelle Daniel Ksepka.

Lichtman : Dan est un paléontologue aviaire.

Ksepka : Et je suis conservateur des sciences au Musée Bruce.

Lichtman : Quelle est votre relation avec les grands oiseaux disparus ?

Ksepka : Je les aime et ils m'aiment.

[CLIP : bruits d'océan]

Lichtman : Ok, je veux que vous fermiez les yeux. Dan va planter le décor du premier monstre que nous allons rencontrer.

Ksepka : Imaginez que vous vous trouvez en Caroline du Sud, il y a 27 millions d'années. Vous regardez la mer.

[CLIP : bruit de tempête]

Ksepka : C'est une mer agitée. Et puis, juste suspendu dans les airs, vous savez, bloquant le soleil... se déploie la plus grande chose que vous ayez jamais vue vivante en train de voler, comme un double albatros - avec une envergure de plus de 6 mètres. Elle est magnifique, et vous survole. C'est probablement un grand moment de votre vie, vous savez, l'émerveillement de voir ça.

Lichtman : Cet oiseau s'appelle Pelagornis sandersi. Il n'a pas de nom commun.

Ksepka : Oh, je l'appelle simplement Pelagornis. 

Lichtman : Dan a été le premier à décrire scientifiquement le fossile. Et nous verrons pourquoi il l'a appelé P. sandersi dans une minute. L'histoire commence lorsque ce fossile est entré dans sa vie, sans crier gare.

Ksepka : Pelagornis était un accident de chance et de fortune.

Lichtman : Dan n'a pas trouvé le fossile. Il avait été déterré en Caroline du Sud dans les années 1980, bien avant que Dan ne pose les yeux dessus.

Ksepka : Ils faisaient des fouilles à l'aéroport de Charleston et quelqu'un est tombé sur des os. Les travaux ont été interrompus.

Lichtman : Et il a fait appel à des renforts. Le regretté Al Sanders, paléontologue au musée local de Charleston.

Ksepka : Il est venu avec une équipe et ils ont ramassé ce qui avait été trouvé. Et puis, vous savez, j'aurais pensé que quiconque aurait trouvé cela se serait arrêté net et en aurait fait sa priorité parce que c'était, vous savez, le plus grand oiseau volant de tous les temps.

Lichtman : C'est du moins ce qu'aurait fait un paléontologue aviaire. Mais Al Sanders était plutôt un spécialiste des fossiles de baleines. Il a donc ramené le fossile au musée et l'a mis de côté.

Ksepka : Et Al l'a rangé dans un tiroir au fond de ce genre d'armoire dans le musée.

Lichtman : Et il est resté là pendant une trentaine d'années. Un jour, Al a parlé à Dan des ossements.  

Ksepka : Oui, et je ne m'attendais pas à voir le plus grand oiseau jamais vu dans un tiroir quand j'y suis allé. J'aurais été content avec un canard ou quelque chose comme ça.

Lichtman : Dans ce tiroir qui prenait la poussière se trouvait un fossile vieux d'environ 27 millions d'années qui ne ressemblait à rien de ce que Dan avait vu auparavant.

Ksepka : J'ai sorti l'os de l'aile, je l'ai posé sur le sol, je me suis allongé à côté et j'ai pris une photo avec mon téléphone portable parce qu'il était plus long que mon bras - c'était l'un des trois os.

Lichtman : Dan l'a baptisé Pelagornis sandersi en l'honneur d'Al Sanders, inconscient conservateur de cette découverte colossale. Dan a entrepris de comprendre tout ce qu'il pouvait sur cet oiseau. Et il s'est rendu compte que l'envergure de l'oiseau n'était pas la seule chose étonnante à son sujet. L'oiseau n'était pas seulement grand. Il était bizarre.

Ksepka : Je n'arrivais pas à croire le crâne. Il ne ressemble pas du tout à un oiseau. Il ressemble presque à un petit alligator. Avec un bec d'un pied et demi de long, contenant des mâchoires, avec des sortes de fausses dents.

Lichtman : Elles sont fausses parce qu'elles ne sont pas faites de ce dont sont faites nos dents : de la dentine et de l'émail. Mais elles ont toujours du mordant.

Ksepka : Oui, ce sont en fait des projections d'os, de petites pointes d'os dont la taille varie. Il y a donc une petite, une moyenne et une grande dans l'ordre, et elles ondulent selon ce schéma.

Lichtman : Et c'était probablement parfaits pour percer et retenir des objets glissants...

Ksepka : Donc, quelque chose comme un poisson ou un calmar une fois attrapé.

Lichtman : Outre les fausses dents de poisson, les os de l'épaule de l'oiseau étaient également étranges. Les omoplates de l'oiseau étaient minuscules. L'articulation de l'épaule et l'os qui s'y rattache avaient une forme inhabituelle.

Ksepka : Il ne semble pas qu'elle puisse vraiment fonctionner comme un oiseau normal. Cet oiseau ne pouvait donc pas lever son aile au-dessus du niveau de son dos. Il ne bat donc pas comme une mouette. Ou comme un oiseau chanteur.

Lichtman : Imaginez un cardinal décollant du sol, poussant ses ailes vers le haut et vers le bas, vite et fort. Ce mastodonte se contente probablement de déployer ses ailes de 20 pieds et de laisser le vent faire le travail.

Ksepka : C'est comme un cerf-volant géant. Il s'est donc probablement élevé dans les airs, soit en faisant face au vent, soit en prenant un départ un peu maladroit, soit en utilisant l'élévation à son avantage...

Lichtman : Et une fois que cet oiseau était en l'air, Dan pense qu'il pouvait probablement s'élever sur de grandes distances.

Ksepka : Je ne serais pas surpris que le Pelagornis puisse traverser l'Atlantique et s'arrêter en Afrique ou en Europe, puis revenir dans le cadre de sa migration saisonnière.

Lichtman : Cette espèce, Pelagornis sandersi, n'a été trouvée qu'à Charleston, mais ses proches - les autres oiseaux de cette bande de fausses dents - sont présents partout.

Ksepka : On les trouve partout dans le monde. Nous avons trouvé des fossiles en Antarctique, en Nouvelle-Zélande, dans l'État de Washington et dans l'Oregon, en Europe, en Afrique, en Amérique du Sud. On en trouve littéralement sur tous les continents.

Lichtman : Entre sa taille gigantesque et ses dents, Pelagornis est peut-être l'un des oiseaux les plus étranges de l'histoire de la Terre. Et la question qui me vient à l'esprit est la suivante : comment cet oiseau est-il apparu ? Dan pense que l'apparition de ce groupe - les pélagornithidés - est peut-être liée à la disparition d'autres créatures volantes étranges et géantes.

Ksepka : Dans le cas des pélagornithidés, ce rôle particulier serait rempli par des reptiles volants au Crétacé. Certaines de ces espèces sont bien plus grandes que Pelagornis et disparaissent lors de la même extinction que les dinosaures nonaviens, ce qui permet à un nouveau groupe d'explorer le rôle d'animal volant de très grande taille. Et les pélagornithidés sont le premier groupe à s'en emparer.

Lichtman : Ils se sont engouffrés dans une niche ouverte. C'est ce que m'ont dit de nombreux chercheurs spécialisés dans les grands oiseaux avec lesquels je me suis entretenu pour cette série : ces oiseaux géants sont entrés en scène en partie parce que l'extinction massive a éliminé la concurrence. Et il ne s'agit pas seulement des dinosaures : d'autres reptiles et les premiers oiseaux se sont également éteints. Les survivants ont donc eu accès à des ressources et à des écosystèmes qui n'existaient pas auparavant. Au fil des ans, j'ai beaucoup entendu parler de la radiation des mammifères, qui ont connu leur heure de gloire après la disparition des dinosaures. Mais dans un monde post-dinosaures, les oiseaux ont également déployé leurs ailes et se sont spécialisés.

Ksepka : Une spectaculaire diffusion des oiseaux s'est produite au cours des quelques millions d'années qui ont suivi cette extinction massive. Les ancêtres des oiseaux modernes ont donc la possibilité d'explorer des habitats arboricoles, prédateurs ou aquatiques pour la première fois. Et ils deviennent vraiment - ils deviennent un peu sauvages.

Lichtman : Pelagornis n'est qu'un début. Nous avons d'autres oiseaux sauvages à rencontrer dans les prochains épisodes : des oiseaux qui se sont élevés tel le phénix après l'extinction des dinosaures et qui sont devenus différents de tous les oiseaux encore en vie aujourd'hui.

Ksepka : Par exemple, les oiseaux-éléphants étaient peut-être les plus grands oiseaux qui aient jamais vécu.

Alicia Grealy : Oui, certains pouvaient peser jusqu'à une tonne. C'est pour cela qu'on les appelle les oiseaux-éléphants, n'est-ce pas ?

Lichtman : C'est ce que nous verrons dans le prochain épisode de cette série en quatre parties.

Auteur: Internet

Info: Flora Lichtman, 31 mai 2023. Emission de radio, repris par https://www.scientificamerican.com/

[ oryctographie ]

 

Commentaires: 0

Ajouté à la BD par miguel

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel