Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 323
Temps de recherche: 0.0535s

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Pour entamer cette chaîne (approche d'une systématique des pensées) nous voulons partir de la création du signe (voir la chaîne évolution de la lecture) parce que nous sommes acquis à l'idée de C.S. Peirce comme quoi il n'est pas de pensée sans signe.

Ensuite se pose la question de la clarté ; l'idée étant qu'il faudrait, dans l'absolu, qu'on puisse expliquer notre cheminement à un Bonobo (voire à un aveugle sourd muet) pour, petit à petit et avec beaucoup de temps, la développer plus avant. Parce qu'à y regarder de près, ça ne s'est pas passé différemment pour l'homme. Moi ou toi lecteur, sommes "assis" sur quelques dizaines de milliers d'années de développement et d'accumulation d'un processus comme celui-ci.

On imagine d'abord la domestication du feu qu'on suppose couplée d'une manière ou d'une autre au développement d'un langage, c'est à dire de "conventions" quand à la signification de gestes ou de sons proférés par le groupe - ce qu'il se passe chez l'animal depuis lurette. Et il y a ce saut incroyable - tout aussi extraordinaire que la maîtrise du feu - avec l'apparition des conventions écrites (ici on imagine un bipède en train de tracer un trait sur la roche avec le charbon de l'extrémité d'une branche à demi consumée - ce qui ramène aussi aux pigments de l'encre noire d'imprimerie, encore de nos jours à base de suie. Le feu est toujours là). Conventions écrites "externes" qui correspondent à l'apparition d'une conscience humaine tribale et donc en même temps à une forme d'isolement solipsiste de son espèce, début d'une manière de "séparation formelle" d'avec les autres mammifères. Passons. Où que ce soit ces conventions, traces/signes/mots, seront d'abord beaucoup utilisées sous forme de listes/inventaires, bien plus que comme supports d'histoires, ces dernières restant principalement orales. Allons vite ici et constatons les quelques milliers d'années de développement des langages "écrits" et l'apparition subséquente de recueils (alphabets, lexiques, dictionnaires "interlangues", etc) apportent et rassemblent tout un arsenal idiomatique qui précède/accompagne l'émergences des concepts, mots-concepts, idées, notions... "Representamen" étant la terminologie usée par C.S. Peirce pour cerner une "entité sémiotique" qui est en réalité un carrefour sémantique. Au-delà de l'alphabet font surface ces "machins bizarres", accommodables quasiment à toutes les sauces, les mots. Voyez plutôt. Nous sommes ici dans l'idée du "mot univers", ou, vu de l'autre bout de la lorgnette, du "terme monade". Le signe originel est devenu immense.

Continuons à grande vitesse. La civilisation des mots et des nombres a aussi fait émerger la logique formelle et ses développements mathématiques et puis, grâce à la musique et au puissant instinct de Jean-Sébastien Bach, une logique plus profonde, quasiment mécanique, utilisée dans le développement contrapuntique de ses fugues - elles-mêmes pensées de manière symétriques - ou graphiques - par le maître, si j'ai bien saisi ce qu'on en dit. Une symétrie très bien exposée par Anton Webern (qui, à la suite du traité de l'harmonie de Schoenberg, enfonçait ainsi un clou définitif dans l'extension théorique du système tonal), avec ses 4 parties renversables : l'original (vérité), le renversement de l'original (mensonge), le miroir de l'original (vérité pessimiste) et le renversement du miroir de l'original (mensonge optimiste). Les mots entre parenthèses sont ici de notre crû, afin transférer l'idée dans le langage. 1) motif original 2) miroir de l'original (rétrograde) 3) inversion de l'original (intervalles) 4) miroir du renversement de l'original. Lien vers les 4 exemples graphiques sur portée musicale. Tout ceci a base de concordances, c'est à dire d'imitations et de répétitions de motifs, car le désordre n'est pas le fondement du fonctionnement d'un système tonal - 12 demi-tons tempérés avec une gamme centrale à 7 notes - déjà fortement établi depuis les grecs.

On notera au passage que toute notion d'ordre ne s'impose que subjectivement par rapport à un chaos (désordre). Suivant où l'on se situe le désordre va être libérateur ou... dérangeant. L'ordre réconfortant... ou assommant.  Ici on a envie de penser aux fonctionnalités de la tétravalence du carbone, sur base de quatre valeurs de vérités, qui engendre, une fois appliqué au mathématiques, une logique formelle beaucoup plus puissante que celle du tiers exclus. (Qui représente les bases du calcul quantique) 4 valeurs auxquelles nous appliquerons la triade de C.S. Peirce ; objet (representamen - mot - concept) - interprétant (récepteur - raisonneur - arbitre des élégances) - signe (média utilisé - écrit - visuel - sonore - mélange).

Nous voilà avec une base à sept pôles, (l'homme en son centre, tout comme au centre du représentamen), déclinable ad infinitum, et que nous allons nous amuser à mettre en concordance avec le développement - très primitif à ce jour - de nos représentations et d'une pensée articulée. Mais avant cela nous allons nous intéresser à l'homme et à son fonctionnement de récepteur-émetteur. Comment fonctionne la bio-machine qui se situe au centre de ce jeu ? Comment définir les paramètres qui nous concernent en ce domaine, nous autres lecteurs, surfeurs, écrivains... pauvres mammifères évolués et instables. Donc, dans une certaine mesure, libres. C.S. Peirce, et d'autres, nous indiquent quelques pistes.

Auteur: Mg

Info: 12 nov. 2019

[ mathématiques mystiques ] [ septénaire ] [ sociolinguistique ] [ pré-mémétique ] [ théandrie ]

 
Mis dans la chaine
Commentaires: 2
Ajouté à la BD par miguel

élément sémantique structurant

(FLP) - Bonjour, peux-tu m'expliquer la notion de "point de capiton" de Jacques Lacan ?

(Gemini Bard) - Le point de capiton est un concept central dans la théorie psychanalytique de Jacques Lacan. Il s'agit d'un élément crucial qui permet de stabiliser le sens et de donner une cohérence au discours. Emprunté au vocabulaire du matelassage, le terme "point de capiton" désigne le point où l'aiguille du matelassier s'enfonce dans le tissu et en ressort, laissant une marque durable. Lacan utilise cette métaphore pour illustrer la manière dont certains éléments du discours s'accrochent et fixent le sens, le stabilisent et lui donnent une structure.

Le point de capiton n'est pas un élément statique, mais plutôt un point de fuite, un lieu d'articulation où le sens se déploie et se reconfigure. Il peut s'agir d'un mot, d'une phrase, d'un objet, d'un événement, ou même d'une croyance ou d'un idéal.

Le point de capiton joue un rôle important dans la construction du sujet. Il permet au sujet de s'identifier à un certain discours, de se positionner dans le monde et de donner du sens à ses expériences.

Cependant, le point de capiton est également fragile et peut être remis en question. Dans la psychose, par exemple, le point de capiton peut s'effondrer, ce qui entraîne une fragmentation du discours et une perte de sens.

Voici quelques points clés à retenir à propos du point de capiton :

Stabilisation du sens: Le point de capiton permet de stabiliser le sens et de donner une cohérence au discours.

Point de fuite: Le point de capiton n'est pas un élément statique, mais plutôt un point de fuite où le sens se déploie et se reconfigure.

Construction du sujet: Le point de capiton joue un rôle important dans la construction du sujet.

Fragilité: Le point de capiton est également fragile et peut être remis en question.

Le point de capiton est un concept complexe et multidimensionnel qui a fait l'objet de nombreuses interprétations et débats au sein de la psychanalyse lacanienne.

(FLP) - Merci. J'y vois une correspondance, voire même une analogie avec le terme de saillance utilisé en PNL et plus largement en linguistique. Non ?

(Gemini Bard) Effectivement, il existe une certaine correspondance entre le concept de point de capiton de Lacan et celui de saillance en PNL et en linguistique.

La saillance désigne la qualité de ce qui est saillant, c'est-à-dire proéminent, marquant, qui attire l'attention. Elle se réfère aux éléments du discours qui se distinguent du reste et qui ont tendance à avoir une plus grande influence sur la compréhension et l'interprétation de ce discours.

Comme le point de capiton, la saillance joue un rôle important dans la structuration du sens. En effet, les éléments saillants permettent de hiérarchiser les informations, de créer des liens entre les différentes parties du discours et de guider l'attention de l'auditeur.

Voici quelques points de convergence entre les deux concepts :

Stabilisation du sens: Le point de capiton et la saillance contribuent tous deux à stabiliser le sens et à donner une cohérence au discours.

Attraction de l'attention: Le point de capiton et la saillance attirent tous deux l'attention de l'auditeur ou du lecteur.

Organisation du discours: Le point de capiton et la saillance contribuent tous deux à l'organisation du discours et à la création de liens entre les différentes parties du discours.

Cependant, il existe également des différences entre les deux concepts :

- Nature: Le point de capiton est un concept plus psychanalytique, tandis que la saillance est un concept plus linguistique et cognitif.

- Focalisé: Le point de capiton est généralement focalisé sur un élément unique, tandis que la saillance peut porter sur plusieurs éléments du discours.

- Inconscient: Le point de capiton est souvent inconscient, tandis que la saillance peut être consciente ou inconsciente.

En conclusion, le point de capiton et la saillance sont deux concepts distincts mais qui partagent certaines similitudes. Ils permettent tous deux de comprendre comment le sens est construit et structuré dans le discours.

(FLP) - Merci. Peux-tu donner un exemple de point de capiton unique ?

(Gemini Bard) - Exemple de point de capiton unique

Prenons l'exemple de la phrase suivante : "La peur de la mort me paralyse."

Dans cette phrase, le mot "mort" pourrait être considéré comme un point de capiton. En effet, ce mot :

Attire l'attention: Il est le mot le plus chargé d'émotion de la phrase et il est ce qui motive la peur du sujet.

Structure le sens: La phrase tourne autour de la peur de la mort et tous les autres éléments de la phrase sont liés à cette peur.

Est inconscient: La peur de la mort est souvent un phénomène inconscient qui n'est pas directement exprimé par le sujet.

Cependant, il est important de noter que le point de capiton n'est pas toujours un élément unique et identifiable. Il peut s'agir d'une combinaison de plusieurs éléments du discours qui, ensemble, contribuent à stabiliser le sens et à donner une cohérence au discours.

Par exemple, dans la phrase "Je suis amoureux de Marie", le point de capiton pourrait être la combinaison des mots "amoureux" et "Marie". Ces deux mots sont essentiels pour comprendre le sens de la phrase et ils sont étroitement liés l'un à l'autre.

En fin de compte, l'identification du point de capiton est une question d'interprétation. Il n'y a pas de réponse unique et chaque lecteur ou auditeur peut identifier différents points de capiton dans un même discours. 

Auteur: Google Bard chatbot

Info:

[ langage ] [ dialogue ] [ homme-machine ] [ efficacité cachée ]

 
Commentaires: 2
Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

pouvoir sémantique

Wokisme, un protestantisme déréglé?

À l’instar de plusieurs chercheurs américains qu’il cite largement dans son étude*, l'auteur observe dans cet activisme progressiste un post-protestantisme débarrassé de sa théologie, soit un nouveau puritanisme entièrement sécularisé.

L’analogie? "La rédemption des péchés du monde ne se réalise plus à travers le sacrifice christique, mais par celui du bouc émissaire, à savoir la figure de l’homme blanc hétérosexuel, symbole qui réunit les trois fautes à la racine des injustices sexuelles, raciales et de genre: la masculinité, la blanchité et l’hétéronormativité", lit-on dans le document. Ou encore: "Les rêves d’une société parfaite que le christianisme reportait à un Royaume céleste doivent être matérialisés ici-bas et immédiatement." Interview avec un chercheur très critique à l’endroit de son objet d’étude.

- Le wokisme découlerait du protestantisme. Comment cela?

- Un certain nombre d’intellectuels protestants et catholiques nord-américains analysent le phénomène woke comme une forme de protestantisme sécularisé, c’est-à-dire l’idée qu’un certain nombre de thèmes chrétiens (l’Éden, le péché originel, la confession, le blasphème, etc.) ont été capturés par la frange progressiste de la gauche et transférés dans le champ politique. L’orthodoxie morale n’est plus produite par les Églises mais par les divers activismes qui composent le mouvement de la Justice Sociale (anti-racisme, droits LGBT, féminisme, etc. ndlr).

- Concrètement, de quelle manière se manifeste ce nouveau puritanisme?

- De multiples manières et à différents étages de la société. Essentiellement, ce puritanisme est le produit de l’hégémonie de la gauche dans les champs intellectuel et culturel. Il fabrique des hiérarchies et des tabous utiles à un certain nombre de groupes d’intérêt et circonscrit les interprétations dicibles dans les universités et les grands médias.

- On assiste, avec ce courant, à une nouvelle moralisation de l’espace public, avec une mobilisation autour de la notion de justice sociale et le souci des minorités. Ne faudrait-il pas s’en réjouir?

- Plus d’un s’en réjouissent, mais je ne partage pas cet optimisme. L’impact des idées politiques ne s’évalue pas à partir des intentions de leurs promoteurs. Or nous avons affaire à un mouvement profondément anti-libéral et passablement anti-scientifique – il suffit de lire les intellectuels qui nourrissent ce phénomène pour s’en convaincre. Rien n’est plus dangereux que des révolutionnaires qui s’imaginent pur de cœur.

- Plusieurs observateurs parlent d’une "religion civile". L’analogie au champ religieux vous semble-t-elle pertinente ?

- Elle est pertinente pour deux raisons: la première est que le wokisme fonctionne à la manière des cosmographies religieuses, c’est-à-dire qu’il procure une explication globale du fonctionnement de la société et de l’histoire, et offre à ses ouailles sens, ordre et direction. La seconde est que le comportement sectaire et les hyperboles moralisantes des activistes invitent naturellement une comparaison avec les mouvements religieux fondamentalistes. Pour preuve, le recours à des concepts infalsifiables et tout-puissants, comme le "patriarcat" ou le "racisme systémique".

- Comment comprendre que le langage du wokisme soit si présent au sein du monde protestant et de ses Églises?

- Il y a aussi beaucoup de résistance, mais je suppose qu’une partie du clergé entend profiter de la vitesse acquise de cette nouvelle religion civile, reproduisant des comportements analogues aux Églises, et capable de mobiliser certains segments de la population. Articulé autour de notions de justice sociale, d’équité, d’inclusivité, le militantisme woke peut assez aisément être réapproprié dans un contexte ecclésial. On peut aussi s’attendre à une demande par le bas, un certain nombre de membres motivés dans les communautés exigeant de leur hiérarchie un positionnement sur les grands thèmes du jour. La chose n’est pas très surprenante quand on pense, par exemple, à l’influence que le marxisme a pu exercer sur les théologiens de la libération en Amérique latine. Les Églises ne sont pas imperméables aux modes. 

- Vous pointez, au sein de ce phénomène, l’absence de "gardes-fous théologiques". Qu’entendez-vous par là?

- L’idée qu’un corpus théologique, qui s’est construit à travers des siècles d’affinage et de conciles, procure un cadre normatif à des notions de justice, de péché ou de rédemption. Libérées de ce cadre et réintroduites dans une religiosité révolutionnaire, ces idées prennent le mors aux dents. Le Royaume des Cieux se transforme en l’ambition d’établir ici-bas une société parfaitement égalitaire, quels qu’en soient les coûts.

- Vous êtes très critique à l’égard de ce mouvement. En quoi considérez-vous qu’il tende à glisser dans le fondamentalisme, voire le totalitarisme?

- La volonté de faire disparaître toutes les "inégalités", c’est-à-dire ici les disparités entre sexes ou entre populations, requiert nécessairement un État autoritaire régulant et corrigeant les effets des choix individuels. L’autoritarisme de la gauche progressiste n’est pas simplement la conséquence accidentelle d’une raideur idéologique propre au militantisme. Tout comme l’illustre l’histoire des économies planifiées, l’autoritarisme est l’inévitable propriété émergente du système.

- Votre étude souligne la contradiction de ce mouvement, dont les membres se proviennent majoritairement des classes les plus aisées…

- L’hypothèse que je trouve la plus séduisante a été formulée par le psychologue Rob Henderson: les classes supérieures nord-américaines signalent leur statut, c’est-à-dire se reconnaissent entre pairs et se distinguent du peuple, non plus seulement à l’aide de produits de luxe, mais aussi à l’aide d’idées luxueuses. Les coûts de ces idées sont assumés par les classes populaires tandis que les bénéfices à la fois matériels et immatériels sont capturés par les classes supérieures. Selon cette perspective, le wokisme est un outil dans un jeu de pouvoir et de statut. Son adoption signale son appartenance au camp du Bien et son institutionnalisation assure des débouchés professionnels à toute une classe de diplômés issus de filières académiques où le savoir tend à se dissiper au profit de l’activisme.

- N’allez-vous pas un peu loin en dénonçant une stratégie qui serait à nouveau profitable aux plus privilégiés, en faisant fi de leurs bonnes intentions?

-
Je ne pense pas que les activistes dont nous parlons ici soient des cyniques travaillant consciemment à consolider leur statut et je ne doute pas que leur mobilisation puise son énergie dans de bonnes intentions. Le problème réside dans la confusion entre les slogans et la réalité, d’une part, et dans la perception naïve que les bonnes intentions font de bonnes réformes, d’autre part. Or les réformes proposées par ces activistes (qui sont articulées sur toute une batterie de programmes préférentiels, de coûteuses formations, de régulations du langage) oscillent le plus souvent entre l’inutile et le contre-productif. 

Auteur: Moos Olivier

Info: Entretien avec Anne-Sylvie Sprenger à propos de *"The Great Awokening. Réveil militant, Justice Sociale et Religion", Religioscope, déc. 2020

[ cancel culture ] [ erreur catégorielle ] [ antispiritualisme ] [ bien maléfique ]

 

Commentaires: 0

Ajouté à la BD par miguel

lacanisme

1. Dans Le Moi dans la théorie de Freud et la technique de la psychanalyse, Lacan nous dit : "Vous voyez les possibilités de démonstration et de théorèmatisation qui se dégagent du simple usage de ces séries symboliques. Dès l’origine, et indépendamment de tout attachement à un lien quelconque de causalité supposée réelle, déjà le symbole joue, et engendre par lui-même ses nécessités, ses structures, ses organisations. C’est bien de cela qu’il s’agit dans notre discipline, pour autant qu’elle consiste à sonder dans son fond quelle est, dans le monde du sujet humain, la portée de l’ordre symbolique".

Il semble bien qu’il ait fait ici une démonstration à visée théorèmatique… comme il dit. L’ordre symbolique, communément représenté par la structure du discours, s’impose à nous : il n’y a pas de je parle dans mon discours, il n’y a que du ça parle ! C’est la Loi symbolique du signifiant qui parle lorsque l’Homme se met à discourir. L’inconscient est structuré comme un langage, nous disait Lacan, et il est pris, comme prisonnier, dans l’autonomie syntaxique du réseau des signifiants.

2. La théorèmatique de Lacan nous renseigne sur la praxis analytique : "Cette position de l’autonomie du symbolique est la seule qui permette de dégager de ses équivoques la théorie et la pratique de l’association libre en psychanalyse". 

En effet, dans l’association libre, les signifiants s’enchaînent les uns après les autres, selon un hasard qui n’a rien à voir avec l’aléatoire, mais qui transpire la détermination symbolique liée à un réel qui se rate et qui ne peut se dire autrement que par l’insistance de son absence, jusqu’au signifiant premier lui-même. La répétition est le leurre symbolique car ce qui brille par son absence reste introuvable dans la série du hasard et se rate à chaque coup de dés.

De plus, Lacan nous indique que "seuls les exemples de conservation, indéfinie dans leur suspension, des exigences de la chaîne symbolique […] permettent de concevoir où se situe le désir inconscient dans sa persistance indestructible".

Le désir inconscient serait donc perceptible par l’insistance de certains signifiants dans la chaîne symbolique du discours libre, dont la persistance ne serait que le témoin de la dérobade perpétuelle d’un signifiant-clé, ou réel, qui échappe systématiquement au discours parce que soumis à la loi syntaxique du refoulement inconscient.

La rencontre avec le réel, tuchê, dans le réseau des signifiants, automaton, est une rencontre manquée, ratée, toujours ajournée, reportée à plus tard, au hasard d’une rencontre future, qui se ratera inexorablement.

"Ce qui est caché n’est jamais que ce qui manque à sa place" et c’est bien là le point crucial qui doit nous faire porter notre attention sur la certitude de ne pas voir ou de ne pas trouver ce qui est pourtant là, sous nos yeux et qui nous est invisible, à l’instar de la lettre volée. La place du signifiant dans le symbolique décide des coupures et des changements de syntaxe qui sont l’essence de la détermination symbolique. On ne peut forcer le hasard… ni contraindre le réel à se montrer, sauf peut-être si l’on admet que le réel se présente comme une trouvaille prête à se dérober à nouveau, introduisant ainsi la dimension de la perte. Le réel n’est finalement qu’un trou, perceptible uniquement par ses bords. Et ce qui est caché n’est que ce qui manque à sa place dans le symbolique, car dans le réel, il y est toujours, à sa place. Ce réel, lié au désir inconscient, persiste et signe tout au long de nos discours, alors même qu’il s’en trouve exclu.

3. La causalité de cette exclusion inéluctable s’amorce dans la parole. Stéphane Mallarmé écrivait en 1897 le poème qui commence par "Un coup de dés jamais n’abolira le hasard" et qui finit par "Toute pensée émet un coup de dés". À chaque fois que la parole se fait entendre, la répétition symbolique est à l’œuvre et modifie par rétroaction les places des signifiants antérieurs, comme des métamorphoses des réminiscences imaginaires ou symboliques. Ces métamorphoses rendent alors encore plus opaque la loi syntaxique et dissimulent sous des aspects objectivables et abordables par le conscient, la vérité de l’ineffable réel.

Or, les lois de la détermination symbolique sont antérieures à toute parole, en ce sens qu’un chiffre n’est jamais choisi au hasard : même s’il existe d’étranges coïncidences que l’on pourrait croire liées au destin ou même s’il existe des lois mathématiques réelles permettant de prédire la probabilité d’apparition d’une rencontre parmi toutes, seule la coupure engendre la loi et ce n’est qu’à l’exhiber dans le symbolique que cette coupure peut faire émerger le nouage d’avec le réel.

Dans l’association libre, que l’on aimerait imager comme une suite de signifiants choisis au hasard, la loi syntaxique inconsciente est considérée par l’analysant comme une vérité subjective, voire même éclairante. Or, la coupure qu’insuffle l’analyste au moment même où cette certitude s’ancre dans le symbolique, va chambouler la loi qui s’était inscrite et remettre les compteurs à zéro : à partir d’un signifiant dernier, une nouvelle association libre commence alors, accompagnée de la loi syntaxique inconsciente, qui, elle, se répète encore peut-être à l’identique. Quoi qu’il en soit, les coupures insufflées par l’analyste bouleversent et métamorphosent le réseau, en tant que système, des signifiants et accompagnent l’analysant dans sa quête asymptotique d’un réel indicible, dont seule la tuchê, en tant que rencontre manquée, reflète le stigmate.

La coupure a donc le pouvoir de réveiller la tuchê, en désarçonnant la loi de l’automaton.

Et c’est bien ce que l’analyste Jacques Lacan vient de faire devant nous en différé : une coupure. Son regard singulier sur la structure de l’Inconscient, régi par la loi des signifiants, insuffle cette coupure qui nous permet, à nous ici, d’éviter le malentendu en prenant conscience de la suprématie de la loi des signifiants dans nos discours, suprématie qui nous constitue en tant que "parlêtre".

Enfin, écoutons Lacan dans Les quatre concepts… : "Le côté formé de la relation entre l’accident qui se répète et ce sens qui est la véritable réalité et qui nous conduit vers le Trieb, la pulsion, voilà ce qui nous donne la certitude, qu’il y a autre chose pour nous, dans l’analyse, à nous donner comme visée de démystifier l’artefact du traitement que l’on appelle le transfert, pour le ramener à ce qu’on appelle la réalité prétendument toute simple de la situation."

Ceci pour clore sur ce que Lacan répètera souvent : le transfert, entre analyste et analysant, n’est pas la répétition d’une affection (amour ou haine) inscrite dans le passé affectif de l’analysant, bien que le transfert puisse être le lieu d’une répétition symbolique. L’analyste est le sujet supposé doté d’un certain savoir, sans doute celui de distinguer l’automaton de la tuchê, c’est-à-dire de reconnaître, dans la profusion automatique du réseau des signifiants du discours de l’analysant, ce qui peut être coupé ou saisi au vol et qui tient de la rencontre avec le réel.

En d’autres termes, ce qui est à découvrir n’est pas ce qui se répète, mais bien au contraire ce qui se dérobe systématiquement et le transfert psychanalytique est sans doute une voie (une voix ?) souscrivant à cette rencontre impossible.

Auteur: Sofiyana Agnes

Info: Tuchê et Automaton. Introduction à l'Introduction au séminaire sur La Lettre volée. In, La clinique lacanienne 2004/2 (no 8), pages 199 à 220. Epilogue

 
Commentaires: 1
Ajouté à la BD par miguel

infox

Avons-nous une information économique indépendante? Cet ouvrage est un guide sans complaisance pour comprendre l’était réel de l’économie — inflation, chômage, propriété, retraites, contenus sponsorisés — loin du chichi et du marketing.

Si vous avez fait le plein d’essence dernièrement, vous avez vu la pompe indiquer 130, voire 140 francs suivant la taille de votre réservoir. Pourtant, votre coût de la vie est mal reflété par les statistiques de l’inflation. Celle-ci était déjà une réalité de votre quotidien avant le Covid et avant la guerre en Ukraine, mais l’indice officiel ne vous renseignait que peu sur votre pouvoir d’achat.

L'immobilier s'est envolé

Depuis quelques années, vous avez sans doute constaté que les prix de l’immobilier ont fortement augmenté en Suisse. Vous aurez noté que certes, les taux hypothécaires s’affichent au plancher, à 1%, mais que les jeunes couples peinent à emprunter à la banque pour acquérir un bien à 1 million, s’ils gagnent moins de 180'000 francs. Peut-être avez-vous vu passer le fait qu’en Suisse, la part des ménages propriétaires de leur logement est tombée de 48% à 37% sur la décennie. Ailleurs, les problématiques sont similaires. En France, le logement ne pèse que 6% dans l’indice calculé par l’Insee, alors que chez une partie des locataires, la part des loyers est de 20% du budget et chez une partie des propriétaires, le remboursement des emprunts s’élève à 25% du budget.

Les primes maladies en forte hausse

Vous avez peut-être aussi vu que les primes maladie en Suisse se sont envolées (de 70%) alors même que l’inflation officielle était donnée à 0%, entre 2008 et 2018, et que les salaires n’ont pas été ajustés en conséquence. Vous avez peut-être cherché l’indice des primes maladie de la Confédération, calculé séparément, mais vous avez vu que même lui traduit mal l’impact beaucoup plus fort des hausses de primes sur les bas revenus que sur les hauts revenus, et que son utilité s’avère limitée.

Vous aurez peut-être vu que le nombre de ménages subventionnés pour payer l’assurance maladie a doublé depuis 1996, ce qui peut étonner dans un pays aussi riche que la Suisse. Le nombre de bénéficiaires a augmenté deux fois plus vite que la population, et le montant du subside moyen versé par assuré a triplé depuis 1996.

Et l'inflation, dans tout ça?

Une statistique de l’inflation qui, dans les pays développés, n’informe pas sur le coût de la vie, car elle exclut à peu près tout ce qui monte (assurances, logement, bourse, et dont l’indice étroit exclut l’alimentation et l’énergie): qu’est-ce que cela apporte, à part une image lustrée, peu en phase avec le quotidien de millions de ménages et peu propice à une adaptation des salaires?

Vous avez peut-être constaté que vos avoirs de 2ème pilier n’avaient pas beaucoup bénéficié de l’envolée phénoménale de la bourse ces dix dernières années. La priorité des caisses de pension a été d’alimenter les réserves pour longévité, et c’est tant mieux, mais ça met à mal le lieu commun qui veut que "quand la bourse monte, on est tous gagnants".

Les salariés, grands perdants du siècle

Vous saviez peut-être qu’à cotisations égales, les assurés d’aujourd’hui toucheront 30% moins de deuxième pilier que les générations précédentes. Et que la part de la population directement exposée à la bourse via des portefeuilles d’investissements ne dépasse pas les 10% aux Etats-Unis et probablement aussi en Europe, confirmant que la bourse n’est pas une richesse collective et que la stagnation des salaires a détérioré le pouvoir d’achat de ceux, largement majoritaires, qui dépendent exclusivement de ce revenu.

Peut-être avez-vous également noté que les chiffres du chômage en Suisse, donnés à 2,5%, n’incluent pas les inactifs et les fins de droit, sortis des statistiques, et ne tiennent pas compte du phénomène de sous-emploi, des CDD chez les jeunes ou du chômage des seniors, qui sont en nette hausse.

Dans cet ouvrage il est question de tous ces chiffres qui minimisent les aspects moins reluisants de notre économie, et dont j’observe la faible valeur informative depuis deux décennies de journalisme économique.

Les fake news économiques, un fléau moderne

Tout cela pour dire que la désinformation économique existe dans les pays développés. Les statistiques officielles sont aussi enjolivées, parfois: les déficits budgétaires européens ont été retouchés par tous les pays de l’UE, et pas seulement par la Grèce. On fait dire beaucoup de choses à une statistique de PIB, alors que sa croissance est souvent surestimée par une inflation calculée trop bas.

On publie le chiffre initial du PIB, puis sa version révisée et plus correcte vient plus tard ; mais seul le chiffre initial, souvent trop flatteur, sera largement diffusé. Un PIB devrait être complété par nombre d’indicateurs démographiques et de développement humain si l’on veut avoir une image réaliste de la performance d’un pays.

Du côté corporate, lorsqu’on lit un rapport annuel d’entreprise, on comprend vite que tant de transparence va nous noyer. Parfois, certains rapports annuels font 500 pages, et pourtant, l’essentiel n’y figure pas toujours, ou n’est pas facile à trouver. Les comptes de Credit Suisse ne disaient rien de l’exposition au fonds spéculatif Archegos, qui lui a valu une perte de 5 milliards.

Les comptes d’UBS ne disaient pas un mot de l’exposition aux subprimes américains, qui a duré des années et a constitué une part majeure des profits du groupe. Chez la plupart des multinationales, beaucoup trop de pages technico-légales noient l’information pertinente des comptes, et encore plus de pages sur la responsabilité sociale et environnementale assomment le lecteur par un marketing qui confine dans certains cas au greenwashing. C’est pourquoi j’ai voulu attirer l’attention des lecteurs, à travers cet ouvrage ici résumé, sur les nombreuses imperfections de l’information économique et financière.

Comment bien s'informer aujourd'hui en matière économique?

De nombreux autres exemples sont abordés dans le livre, et notamment le cas des fuites des paradis fiscaux divulgués par des consortiums de journalistes sur la base de sources anonymes, la question du financement des médias et des conflits d’intérêts potentiels, la manipulation des cours de l’or et ses conséquences, les campagnes de désinformation orchestrées par des agences de propagande de plus en plus actives, l’essor du marketing et de la publicité qui ne pose nul problème en soi, sauf quand ces contenus pénètrent l’information économique indépendante, et aussi l’essor des entreprises en tant que médias, avec des moyens démultipliés, et la question de l’indépendance de l’information.

Comment bien s’informer aujourd’hui en matière économique? Cet ouvrage sans complaisance se veut un guide face à toutes ces façons qu’a l’information, dans les pays développés, de se brouiller, de se diluer, de s’embellir, de perdre son indépendance, son objectivité, son utilité sociale et son rôle au service de l’intérêt public. La politisation des chiffres et l’embellissement des statistiques officielles sont souvent masquées par l’extrême mathématisation des indices.

On croirait qu’il s’agit de sciences dures, apolitiques, alors qu’en réalité, derrière chaque chiffre, il y a des postulats et des choix de société. Mieux s’informer sur l’état réel de nos sociétés, recouper les informations, n’a jamais été aussi primordial. Après avoir lu cet ouvrage, vous ne prendrez plus les statistiques officielles ou les concepts à la mode pour argent comptant. Et c’est tout ce que je vous souhaite. 

Auteur: Zaki Myret

Info: Désinformation économique, février 2022, éditions Favre. https://www.blick.ch/

[ idées fausses ] [ hyperinflation ] [ contrevérités ] [ euphémismes ] [ pouvoir informationnel ] [ soft power financier ] [ Helvétie ] [ dissimulation ]

 

Commentaires: 0

Ajouté à la BD par miguel