Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 56
Temps de recherche: 0.0441s

psychanalyse

Ce serait une erreur de croire que l'inconscient est quelque chose d'inoffensif, à propos de quoi on pourrait, par exemple, organiser des petits jeux de société, ou qu'on pourrait à la légère utiliser à des essais thérapeutiques. Assurément, l'inconscient n'est pas dangereux en toutes circonstances ni chez tout le monde. Mais, dès qu'il existe une névrose, celle-ci est un signal d'alarme qui indique qu'il s'est produit dans l'inconscient une accumulation toute particulière d'énergie, formant une sorte de charge susceptible d'exploser. C'est pourquoi, dès lors, des précautions s'imposent. On ignore totalement ce qu'on est susceptible de déclencher quand on commence à analyser les rêves d'un sujet. Il se peut qu'on mette ainsi en mouvement quelque chose d'intérieur, d'invisible; très probablement il s'agit de quelque chose qui, de toute façon se serait tôt ou tard frayé une issue au-dehors... mais il est possible aussi que cela ne se serait jamais produit. On creuse, en quelque sorte, dans l'espoir de trouver un puits artésien, et l'on risque de tomber sur un volcan. Dès que des symptômes névrotiques existent, la plus grande réserve est de mise, et l'on ne doit avancer qu'avec prudence. Mais les cas névrotiques ne sont pas à beaucoup près les plus dangereux. On peut rencontrer des sujets dont l'apparence est des plus normales, qui ne présentent aucun symptôme névrotique particulier eux-mêmes parfois médecins ou éducateurs qui font même étalage de leur "normalité" qui sont des modèles de bonne éducation, qui ont dans la vie des opinions et des habitudes des plus normales, et dont la normalité n'en est pas moins une compensation artificielle pour une psychose latente et cachée. Les intéressés eux-mêmes ne soupçonnent en rien leur état. L'intuition vague qu'ils en ont ne s'exprime peut-être indirectement que par l'attrait particulier que leur inspirent la psychologie et la psychiatrie, domaines qui les captivent comme la lumière attire les papillons. Or, du fait que la technique de l'analyse active l'inconscient et l'aide à s'exprimer, elle détruit, en pareil cas, la compensation salutaire qui s'était installée, et l'inconscient fait irruption sous forme d'imaginations irrépressibles, d'onirisme, donnant lieu à des états d'excitation qui, dans certaines circonstances, aboutissent à une aliénation mentale durable, à moins qu'elle n'ait poussé auparavant au suicide. Ces psychoses latentes, hélas! ne sont pas tellement rares. Quiconque s'occupe d'analyse de l'inconscient est exposé au danger de tomber sur des cas de cette nature, même s'il dispose d'une grande expérience et de beaucoup d'habileté. Abstraction faite de ces cas, il est d'ailleurs possible que le praticien, par maladresse, par des erreurs de conception, par des interprétations arbitraires, fasse échouer des cas qui ne comportaient pas nécessairement un dénouement fâcheux. Cela n'est pas, il est vrai, l'apanage exclusif de l'analyse de l'inconscient, mais marque de son sceau toute intervention médicale si elle est manquée. L'affirmation gratuite que l'analyse rend les gens fous est naturellement aussi stupide que l'idée du vulgaire qui prétend que le médecin aliéniste, à force de s'occuper de fous, doive le devenir à son tour. En dehors des risques inhérents au traitement, l'inconscient peut devenir dangereux par lui-même. Une des formes les plus fréquentes que revêtent les dangers qu'il fait encourir, c'est la détermination d'accidents. Un nombre d'accidents de toute nature, beaucoup plus considérable que le public ne le pense, répond à un conditionnement psychique; qu'il s'agisse de petits incidents comme de trébucher, de se cogner, de brûler les doigts, ou de grandes catastrophes, accidents d'automobiles ou chutes en montagne, tous ces accidents, petits ou grands, peuvent être motivés et causés psychologiquement et se trouvent parfois préparés depuis des semaines ou même des mois. J'ai examiné beaucoup de cas de ce genre et, bien souvent, j'ai constaté chez le sujet l'existence de rêves qui dénotaient, bien des semaines à l'avance, l'existence d'une tendance à s'endommager soi-même; tendance qui, bien entendu, s'exprimait la plupart du temps de façon symbolique. Tous les accidents qui arrivent soit disant par inattention devraient être examinés dans la perspective d'une détermination éventuelle de cette sorte. On sait bien que lorsque, pour une raison ou une autre, on est mal disposé, il vous arrive non seulement des anicroches plus ou moins sérieuses, mais aussi parfois des choses graves qui, si elles surviennent à un moment psychologiquement approprié, peuvent même mettre un terme à une existence. D'ailleurs la sagesse populaire le dit : "Un tel est mort au bon moment", sentiment inspiré par une intuition très juste de la causalité psychologique du cas. De façon analogue, des maladies physiques peuvent être engendrées et entretenues. Un fonctionnement défectueux de l'âme peut porter au corps de notables dommages, de même que réciproquement une affection physique peut entraîner une souffrance de l'âme. Car l'âme et le corps ne sont pas des éléments séparés; ils constituent, au contraire, une seule et même vie. Aussi y a-t-il rarement une maladie somatique qui, alors même qu'elle n'a pas été déterminée par des causes psychiques, n'entraîne des complications morales d'une nature quelconque, complications qui, à leur tour, retentissent sur l'affection organique. Mais ce serait une erreur de ne mettre en relief que le côté défavorable de l'inconscient. Dans tous les cas courants, l'inconscient ne devient défavorable et dangereux que parce que nous sommes en désaccord avec lui, donc en opposition avec des tendances majeures de nous-mêmes. L'attitude négative à l'adresse de l'inconscient, voire sa répudiation par le conscient, sont nuisibles dans la mesure où les dynamismes de l'inconscient sont identiques à l'énergie des instincts. Par conséquent, un manque de contact et de liens avec l'inconscient est synonyme de déracinement et d'instabilité instinctuelle. Mais si l'on réussit à établir cette fonction, que j'ai dite transcendante, la désunion avec soi-même cessera et le sujet pourra bénéficier des apports favorables de l'inconscient. Car dès que la dissociation entre les divers éléments de soi-même cesse, l'inconscient accorde - l'expérience le prouve abondamment - toute l'aide et tous les élans qu'une nature bienveillante et prodigue peut accorder aux hommes. De fait l’inconscient recèle des possibilités qui sont absolument incessibles au conscient ; car il dispose de tous les contenus psychiques subliminaux, de tout ce qui a été oublié ou négligé, et, en outre, de la sagesse conférée par l'expérience d'innombrables millénaires, sagesse déposée et confiée à ses structures archétypiques.

Auteur: Jung Carl Gustav

Info: Dans "Psychologie de l'inconscient", trad. Roland Cohen, Livre de Poche, Paris, 1993, pages 195-198

[ conciliation ] [ dialectique ] [ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

psychosomatique

Le jumeau maléfique de l'effet placebo fait des ravages, selon l'essayiste états-unien Stewart Justman, pourfendeur du diagnostic qui rend malade Comme les héros des feuilletons télévisés, l’effet placebo a un jumeau maléfique: il s’appelle "nocebo". Le placebo, rappelons-le, est ce phénomène troublant qui veut qu’un bonbon lambda avalé en croyant prendre un médicament authentique peut apporter les mêmes bienfaits que le vrai remède, grâce à la suggestion. Le nocebo fonctionne sur le même mécanisme, mais avec l’effet inverse: il fait du mal. Dites-moi que j’ai ingurgité une denrée avariée, mes boyaux se tordront. Magique? Pas vraiment: le cerveau ayant pour tâche de gérer les fonctions du corps, il n’est pas étonnant que l’information qu’il absorbe infléchisse le processus. Dans The Nocebo Effect*, Stewart Justman, essayiste états-unien partageant son œuvre entre l’histoire de la littérature et la médecine (avec des passerelles fréquentes entre les deux), évoque les ravages du nocebo dans des territoires médicaux aussi différents que l’anorexie, le syndrome de fatigue chronique, la dépression, le trouble dissociatif de l’identité, l’hyperactivité, les cancers du sein et de la prostate. Parfois, le mal est un effet direct de l’imagination, aiguillée par la propagande pharmaceutique ou par les campagnes de prévention: "Une fois mises sur le marché, des idées sur telle ou telle maladie sont en mesure de susciter la maladie elle-même", constate Justman: un diagnostic peut déployer son potentiel nocif en "semant des suggestions dans l’esprit du patient". Est-ce fréquent? La question est apparemment très peu étudiée, en partie car il est éthiquement difficile de mener des expériences consistant à créer des problèmes chez les sujets. Des indications sur le "jumeau maléfique" se nichent toutefois dans les études sur l’effet placebo. Dans une étude troublante, publiée dans l’International Journal of Clinical Practice en 1998, l’Anglais A. F. Cooper découvrait par exemple, avec un groupe de patients souffrant de polyarthrite rhumatoïde, que ceux à qui l’on administrait une brève leçon de choses sur la maladie se portaient moins bien que ceux qu’on se bornait à soigner, sans rien leur dire. Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé Dans d’autres cas, c’est le dépistage à grande échelle qui fait des dégâts, débouchant sur des traitements qui se révèlent plus nuisibles – voire plus meurtriers – que le mal qu’ils sont censés soigner. Les mises en garde viennent du champ médical lui-même, qui s’inquiète des effets pervers de la traque systématique aux cancers du sein et de la prostate: on y revient plus loin. Qu’il agisse directement sur l’individu via la suggestion ou qu’il déploie ses conséquences à travers une prise en charge médico-sociale, l’effet nocebo résulte d’un phénomène de "surdiagnostic": Overdiagnosis and Its Costs ("Le surdiagnostic et ses coûts") est le sous-titre du livre de Stewart Justman. Morphine et neurasthénie Comment ça marche? Le rapport de cause à effet semble s’afficher parfois de manière évidente. "Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé", comme si "les personnes atteintes façonnaient inconsciemment leurs symptômes selon le modèle fourni par les médias". Il en va d’une manière semblable pour la neurasthénie, syndrome à la mode au cours de la Belle Epoque, "qui s’épanouit auprès des couches aisées, jusqu’à sa disparition au début du vingtième siècle". Identifié par le neurologue états-unien George Beard en 1869, le trouble était défini comme "une maladie englobante, dont le symptôme clé était une fatigue mentale et musculaire", mais dont les manifestations possibles remplissaient une liste de 70 entrées. "L’existence brève et spectaculaire de la neurasthénie témoigne de la manière dont une appellation a le pouvoir d’organiser et de mobiliser des symptômes", relève Justman. Certains maux paraissent ainsi atteindre les corps par une contagion socio-culturelle. Placebo et nocebo montrent que l’acte médical, loin d’être une simple interaction physique, est en réalité une "procédure sociale" à part entière: "Des expériences montrent que même un médicament aussi puissant que la morphine produit un effet plus important lorsqu’il est administré ouvertement, dans le cadre d’un rituel médical, que lorsqu’on le donne aux patients à leur insu." Exemple saisissant de la production d’un syndrome via le cérémoniel thérapeutique: le trouble dit "de la personnalité multiple", qui n’émerge le plus souvent qu’au moment où le soignant demande au patient de nommer ses alters egos. Sommeil et désarroi Faut-il parler de maladies imaginaires, de troubles socialement manufaturés à partir de néant? Dans le cas des symptômes de dépression, Justman suggère plutôt qu’il s’agit souvent d’états inhérents à la normalité de l’existence, qui se retrouvent médicalisés, c’est-à-dire transformés en pathologies. C’est "le désarroi commun et passager, produit par la vie elle-même, qui se résoudrait spontanément si on ne faisait rien"; ce sont "des constantes de la condition humaine", ou en tout cas "des difficultés qui se rattachent à la nature même de la civilisation". Le DSM-5, dernière édition du catalogue états-unien (et international) des troubles psychiques et de leurs symptômes, "intègre, à contrecœur, l’argument selon lequel ce qu’on appelle dépression peut être en fait une réponse justifiée à la vie elle-même". On pourrait, bien sûr, retourner la question: faut-il accepter le désarroi ordinaire en tant que composante inévitable de la normalité, ou peut-on aspirer à s’en débarrasser? Comme les sociologues Allan V. Horwitz et Jerome C. Wakefield Stewart, auteurs de Tristesse ou dépression? Comment la psychiatrie a médicalisé nos tristesses (2007), Justman défend l’existence de la mélancolie dans l’expérience humaine. D’autres cultivent le rêve utopiste de l’éradication de tout chagrin. Le problème, c’est que la médicalisation du malheur ordinaire aurait plutôt tendance à accroître la portée de ce dernier. "Ironiquement, un des effets du surdiagnostic de la dépression est que les antidépresseurs en vogue perturbent le sommeil", note Justman. Or, "un des facteurs de guérison les plus importants dans nos vies réside dans notre capacité de sombrer chaque soir dans l’endormissement réparateur"… La conscience est surestimée Y a-t-il donc un équilibre, un "bon" seuil de médicalisation à ne pas dépasser? La question est particulièrement lancinante dans le cas des cancers du sein et de la prostate. Dans les deux cas, le dépistage massif conduit à détecter et à traiter une quantité de cancers "dormants" ou "indolents" qui seraient inoffensifs et avec lesquels on vivrait sans problème. Le sein: selon une étude publiée en 2013 dans le British Medical Journal par le chirurgien Michael Baum, pour chaque décès évité par la mammographie on peut s’attendre à un chiffre de un à trois décès supplémentaires liés aux soins donnés aux femmes dépistées pour des cancers inoffensifs. La prostate: selon une étude européenne de 2009-2012, le dépistage réduit la mortalité engendrée par ce cancer, mais on compte 33 hommes rendus impuissants ou incontinents par une intervention non nécessaire pour chaque homme sauvé… Que faire? Eliminer les dépistages, plus nuisibles que bénéfiques comme le suggèrent plusieurs chercheurs? Brûler le DSM, véritable machine à surdiagnostiquer (et dénoncé en tant que tel par Robert Spitzer et Allen Frances, deux responsables successifs de la task force qui en coordonne la rédaction)? Arrêter net les campagnes d’information, sources majeures d’effets nocebo? Dans son élan, Justman jette peut-être quelques bébés avec l’eau du bain (notamment dans le domaine du traumatisme psychique). On retiendra néanmoins son éloge paradoxal de l’inconscience: nous vivons sous l’emprise d’un "culte de la conscientisation", mais "la conscience est surestimée". Notre cerveau fait son travail de gestion de la vie dans le silence des processus inconscients, où il n’est sans doute pas anodin de trop le déranger. Il travaille à notre insu, par habitude. Il est vrai que l’habitude a mauvaise presse. Et pourtant – la philosophie confucéenne et taoïste en avait l’intuition, les neurosciences le savent aujourd’hui –, "l’habitude est hautement opérationnelle, même dans des faits d’excellence".

Auteur: Ulmi Nic

Info: in le temps online du 15.9.2015 sous Effet nocebo: le patient qui en savait trop, *The Nocebo Effect. Overdiagnosis and Its Cost, par Stewart Justman, Palgrave Macmillan, 272 p

[ grégaire ] [ influençabilité ] [ corps-esprit ]

 

Commentaires: 0

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

humour

Toujours est-il que la chose m’est apparue d’importance et propre à me hausser d’un cran dans votre estime : vous concevrez que nul travail, cette récompense en vue, n’eût paru d’intérêt suffisant pour retarder la mise en graphie de cette méditation.

Le problème est cette fois, monsieur, celui de la couille. (J’aurais pu dire celui de la coquille, mais je cède au goût du sensationnel, vous voyez, c’est un faible bien inoffensif.) De fait, il s’agit d’un problème de conchyliorchidologie (ou d’orchido-conchyliologie, qui me paraît, si plus orthodoxe, moins expéditif ; donc, je garde le premier).

AXIOME  :  Retirez le Q de la coquille : vous avez la couille, et ceci constitue précisément une coquille.

Je laisse à cet axiome, monsieur, le soin de perforer lui-même, de son bec rotatif à insertions de patacarbure de wolfram, les épaisses membranes dont s’entoure, par mesure de prudence, votre entendement toujours actif. Et je vous assène, le souffle repris, ce corollaire fascinant :

Et ceci est vrai, que la coquille initiale soit une coquille de coquillage ou une coquille d’imprimerie, bien que la coquille obtenue en fin de réaction soit toujours (à moins de marée extrêmement violente) une coquille d’imprimerie en même temps qu’une couille imprimée.

Vous entrevoyez d’un coup, je suppose, les conséquences à peine croyables de cette découverte. La guerre est bien loin.

Partons d’une coquille de coquillage, acarde ou ampullacée, bitestacée ou bivalve, bullée, caniculée ou cataphractée, chambrée, cloisonnée, cucullée… mais je ne vois pas l’intérêt de recopier dans son entier le dictionnaire analogique de Boissière. Bref, partons d’une coquille. La suppression du Q entraîne presque immédiatement la mutation du minéral inerte en un organe vivant et générateur. Et dans le cas d’une coquille initiale d’imprimeur, le résultat est encore plus spectaculaire, car la coquille en question est essence et abstraction, concept, être de raison, noumène. Le Q ôté permet le passage de l’essence à l’existence non seulement existante mais excitable et susceptible de prolongements.

J’aime à croire que parvenu à ce point, vous allez poser votre beau front dans votre main pour imiter l’homme de Rodin – vous conviendrez en passant de la nécessité d’une adéquation des positions aux fonctions, et que vous n’auriez pas l’idée de déféquer à plat ventre sauf caprice. Et vous vous demanderez, monsieur, d’abord, quel est le phénomène qui se produit. Y a-t-il transfert ? Disparition ? Mise en minorité ? ou effacement derrière une partie plus importante, que le trout ? Qui sait ? Qui ? Mais moi, naturellement sans quoi je ne vous écrirais pas. Je ne suis pas de ces brutes malavisées qui soulèvent les problèmes et les laissent retomber sauvagement sur la gueule de leur prochain.

Tiens, pourtant, si, en voilà un autre qui me tracasse, et je vous le dis en passant, car le genre épistolaire permet plus de caprice et de primesaut que le genre oratoire ou dissertatif, lequel je ne me sens pas qualifié pour oser aborder ce jour. L’expression : mettre la dernière main n’implique-t-elle pas, selon vous, que l’une des deux mains – et laquelle – fut créée avant l’autre par le père Ubu ? La dernière main est souvent la droite ; mais d’aucuns sont-ils pas gauchers ? Ainsi, de la dextre ou de la senestre, laquelle est la plus âgée ? Gageons que ce problème va tenter madame de Valsenestre à qui, en passant, vous voudrez bien présenter mes hommages. Et revenons à nos roustons.

Eh bien, monsieur, pour résoudre le mystère de l’absence du Q, nous disposons d’un moyen fécond et qui permet généralement de noyer sans douleur la poiscaille en remplaçant un mystère que l’on ne pénètre point par un mystère plus mou, c’est-à-dire non mystérieux et par conséquent inoffensif. C’est la "comparaison", méthode pataphysique s’il en fût. A cet agent d’exécution puissant, nous donnerons l’outil qui lui manque, c’est-à-dire le terme de.

Le jargon russe en l’espèce, qui sera notre étalon.

Vous le savez, monsieur, et si vous ne le savez pas, vous n’aurez jamais la sottise de le dire en public, il fut procédé en Russie, n’y a pas si longtemps que nos auteurs ne puissent s’en souvenir, à une réforme dite alphabétique, bien qu’en russe, cela ne se prononce point si facilement. Je vous le concède, cette réforme est à l’origine de la mort de Lénine, de la canonisation de sainte Bernadette et de quelques modifications structurales spécifiquement slaves apportées à un Etat de structure d’ailleurs imprécise ; nous passerons sur les épiphénomènes mineurs pour n’en conserver que le plus important. La réforme en question supprimait trois des 36 lettres alors en usage là-bas : le ? ou ’fita, le ? ou ’izitsa et le ? ou is’kratkoï.. [...]

Mais d’ores et déjà, vous voyez comment on peut supprimer le Q : il suffit d’un décret.

La question est de savoir ce que l’on a fait des lettres supprimées. Ne parlons même pas de celles à qui l’on en a substitué d’autres. Le problème est singulièrement précis : Où a-t-on mis les is’kratkoï ?

Vous vous doutez déjà de la suite. Et vous voyez l’origine de certaines rumeurs se découvrir à vos yeux émerveillés d’enfant sage.

D’ailleurs, monsieur, peu importe. Peu importe que l’on ait, par le passé, mésusé des lettres ainsi frappées d’interdit. Sans vouloir faire planer le soupçon sur qui que ce soit, je sais bien où l’on risquerait d’en dénicher quelques muids.

L’expression "lettre morte" n’est pas née de l’écume de la mer du même nom, vous le savez, monsieur. Les vérités les plus désagréables finissent par transpirer, comme l’eau orange d’un chorizo pendu par les pieds ou la sueur délicate d’un fragment d’Emmenthal qui tourne au translucide. Et les cimetières de lettres sont monnaie courante (sans que l’on ait jamais songé à chronométrer cette dernière, ce qui paraît inexcusable en un siècle sportif et ne permet point d’en préciser la vitesse). Nous n’avons pas accoutumé, me direz-vous, de remettre en cause le passé : je sais, et vous savez, que tout y est à refaire. Mais à bien y regarder, on est forcé de constater que c’est sans aucune originalité qu’a été résolu, de notre vivant ou presque, cet ardu problème de l’élimination en masse. Et cela continue.

Avant que la merdecine ait eu l’idée de s’adjoindre des fi ! syciens et des chie-mistes (ou cague-brouillard, comme disent les Anglois), la peste apportait une ingénieuse solution. Et les destructions provoquées parmi la gent corbote et ratière par la chasse, vu l’absence de grenades et de rusées à tête chercheuse, n’étaient point telles que ces bestioles ne fussent à même de procéder hygiéniquement à l’enlèvement des charognes. Il restait les os, que l’on suçait et que l’on perçait pour jouer de la quenia, comme Gaston Leroux l’a soigneusement rapporté dans " L’Epouse du soleil ". Bref, le professeur Yersin imagina de foutre une canule au cul des poux, et vainquit la peste. Le cancer fait des progrès, mais il abêtit, et déprive le frappé du contact de ses semblables – ou plutôt de ses différents – si utile pourtant. Sur quoi l’Allemagne redécouvre le camp de concentration déjà utilisé avant et ailleurs (le premier qui l’a inventé, levez le doigt). Le principe était bon : c’est celui du couvent. Mais si l’on sait où ça mène, l’on se refuse à voir où cela pourrait mener.

Vous avez déjà compris qu’en ce moment, loin de m’égarer, j’arrive à la proposition ferme, concrète et positive. Vous avez vu que, loin de lamenter le révolu, je suggère simplement que l’on améliore. Vous sentez, avec votre grand nez, que si le sort des prisonniers d’autrefois m’indiffère, c’est que la " pataphysique va toujours de l’avant puisqu’elle est immobile dans le temps et que le temps, lui, est rétrograde par définition, puisque l’on nomme “ direct ” celui des aiguilles d’une montre. Et vous voyez que je suis en train de poser les bases du camp de concentration pataphysique, qui est celui de l’avenir.

Grosso modo, une Thélème. Mais une Thélème obligatoire. Une Thélème où tout serait libre, sauf la liberté. Il s’agit bien en l’espèce de cette exception exceptionnelle à laquelle se réfère Le Livre. Un lieu où l’on serait contraint de ne pas s’éloigner du bonheur. Outre que le rendement des divers travaux que l’on pourrait ainsi faire exécuter librement aux détenus serait excellent – mais sachez que cette considération économique n’a pas un instant pesé sur notre choix plus ni moins que son contraire – le camp de concentration paradisiaque satisferait la tendance religieuse profonde qui sommeille au cœur de tout un tas d’individus non satisfaits de leur vie terrestre – et vous concevez qu’un prisonnier a des raisons de ne pas l’être. Il s’y pourrait, naturellement, faire du vélocipède. Vous pensez bien. Je ne développe pas les mille avantages du projet : je me borne à vous dire que, me désintéressant totalement du sort des is’kratkoï, je propose, par la présente, à votre excellence d’accumuler les Q des coquilles dans les camps ainsi com-binés qui prendraient par exemple le nom de camps de cul-centration, et de récupérer outre les coquilles résultantes et régénérées, les bûmes créées de la sorte à partir de rien, ce qui est quelque chose.

Vous ne serez pas sans remarquer que la réaction qui s’établit est assez analogue à celle qui se produirait, selon eux, dans ces breeders autotrophes où se fabrique une espèce de plutonium. Vous prenez la coquille, lui retirez le Q que vous enfermez en liberté, vous obtenez la couille et une nouvelle coquille, et ainsi de suite jusqu’à neuf heures vingt, où un ange passe. Je passe à mon tour sur l’émission de rayons bêta concomitante, d’une part parce qu’elle n’a pas lieu, d’autre part parce que cela ne regarde personne. Que le Q fût en fin de compte bien traité m’importait avant tout, du point de vue moral et parce qu’il est séant de ne point porter atteinte, sauf si l’on se nomme le P. U., à l’intégrité de quelque être que ce soit, (excepté le militaire) vu qu’il peut pêcher à la ligne, boire de l’alcool et s’abonner au Chasseur français, ou les trois. Du moins, c’est une des choses que l’on peut dire, et comme elle diffère de tout ce que l’on pourrait dire d’autre, il me semble qu’elle a sa place ici.

Piste-scrotum 1. Cette lettre vous est personnellement destinée. Néanmoins, au cas où elle n’intéresserait aucun autre membre du Collège, il me paraîtrait urgent de la diffuser. Si vous en décidiez ainsi, il me serait à honneur que vous la fissiez coiffer d’un chapeau à la gloire de Stanislas Leczinski, roi polonais, inventeur de la lanterne sourde à éclairer pendant les tintamarres et autres espèces de révolutions, et dont je ne me sens pas force d’entreprendre la rédaction que j’estime trop au-dessus de mes indignes moyens.

Piste-scrotum 2. En passant, vous constaterez que le principe de la conservation de ce que vous voudrez en prend un vieux coup dans les tabourets.

Auteur: Vian Boris

Info: Lettre au Provéditeur-éditeur sur un problème quapital et quelques autres, 26 mars 1955, In les Cahiers du Collège de Pataphysique.

[ lapsus ]

 

Commentaires: 0

covid 1984

Dans un récent entretien avec Vice, le dénonciateur de la NSA, Edward Snowden, a exprimé ses inquiétudes concernant le programme de surveillance à venir, l’appelant "l’architecture de l’oppression". Nous avons demandé à Lucien Cerise son analyse du nouveau contrôle social à venir.



R/ L’état d’urgence sanitaire est-il pour vous un bon moyen pour les gouvernements mondiaux de poursuivre la réduction de nos libertés collectives et individuelles ? Pour vous, le confinement est-il un instrument d’ingénierie sociale ?



- Cet état d’urgence sanitaire est le prétexte idéal pour tenter de fabriquer le consentement des populations à une transformation du lien social sur une base transhumaniste, c’est-à-dire fondée sur un encadrement scientifique général, présentant un fort caractère carcéral et concentrationnaire, et allant dans le sens de l’artificialisation et de la réification du vivant, sa chosification, sa réduction à un objet. On peut reprendre à Michel Foucault et Giorgio Agamben la notion de biopouvoir pour décrire un pouvoir politique qui étudie la biologie, la médecine et les sciences de la vie autant que le droit ou l’économie. Le biopouvoir, qui n’est qu’une mise à jour de la notion d’eugénisme, se caractérise donc par une intrusion toujours croissante dans l’intimité physique des gens pour la modifier et surtout la contrôler.



En effet, ce qui dérange le biopouvoir, c’est la prolifération de la vie et de l’organique, impossible à contrôler totalement. Le transhumanisme est une tentative d’enfermement de l’organique dans une forme prétendument augmentée, mais surtout aseptisée, standardisée et sous contrôle, tentative de meurtre du vivant et de son aspect toujours imprévisible et débordant. Les gens normaux se refusent donc naturellement au transhumanisme. Pour parvenir à les emprisonner là-dedans malgré tout, il faut les séduire ou leur faire peur, afin de les soumettre volontairement par des manœuvres d’ingénierie sociale du type "pompier pyromane" et triangle de Karpman, consistant à exploiter les projections psycho-émotionnelles de la trilogie bourreau/victime/sauveur.



Cela commence par le déclenchement d’une crise, suivi d’une opération d’hameçonnage (phishing), c’est-à-dire un piratage de l’esprit par usurpation d’identité et abus de confiance, où le responsable de la crise, en position de "bourreau", se présente comme le "sauveur" qui va protéger les "victimes" de la crise. Quand le piratage est accompli, que le bourreau a gagné la confiance de la population victime et qu’elle s’ouvre à lui en abaissant ses défenses parce qu’elle le perçoit comme un sauveur, alors le pirate-bourreau peut passer à la deuxième phase sans rencontrer de résistance, c’est-à-dire la réécriture de l’architecture sociale selon un nouveau plan présenté comme une solution de sortie de crise. Cette restructuration du lien social consiste à prendre le contrôle des relations que les gens entretiennent librement pour les recomposer à leur place. Comment ? Cela se fait toujours en jouant sur les relations de confiance et de méfiance, afin de prendre le contrôle des relations de proximité et de distance. Avec cette crise du coronavirus, la relation à autrui et au monde est réécrite pour être fondée sur la méfiance et la paranoïa, selon une sorte de conflit triangulé généralisé, où chacun est potentiellement bourreau de chacun. Je dois apprendre à me méfier d’autrui et de la nature, avec le maintien d’une distance entre moi, autrui et le monde, et cette distance m’est dictée par le biopouvoir auquel, en revanche, je suis tenu d’accorder une confiance aveugle, au risque d’être accusé de "conspirationnisme" et d’encourir des représailles judiciaires. En résumé : pour le biopouvoir, cette crise du Covid-19 doit couper l’Histoire en deux et faire entrer l’humanité dans une nouvelle ère où l’auto-organisation du vivant sera progressivement abolie pour être entièrement subordonnée et rationalisée par un pouvoir scientifique eugéniste.



R/ La surveillance numérique de masse passe par les fameuses applications d’Apple ou de Google de contrôle sanitaire. Comment les États et les grandes multinationales de la Silicon Valley se partagent les informations et les rôles dans cette opération ?



Les États et les grandes multinationales sont toujours en fait dirigés directement ou indirectement par ce que l’on appelle le complexe militaro-industriel, qui n’est pas exclusivement américain, chaque pays possède le sien, mais celui des USA est le plus agressif. L’avant-garde de la recherche scientifique est toujours sponsorisée, surveillée et récupérée en premier lieu par les unités de "recherche et développement" militaires. Au niveau géopolitique international, tout est militarisé (weaponized, comme disent les anglophones), tout est rapport de forces, tout est volonté de puissance et relations dominant/dominé. Les applications de géolocalisation et de surveillance numérique de masse sont des outils de contrôle social, c’est-à-dire en fait de militarisation des comportements.



Nous sommes dans une guerre hybride mondiale. Par exemple, la Chine, qui est sous attaque permanente des USA et des réseaux de George Soros, a besoin de militariser et discipliner sa population par un encadrement informatique global. Afin de conserver sa souveraineté numérique et le contrôle de sa population, la Chine doit aussi prévenir et limiter les risques de piratages informatiques de l’étranger, d’où la campagne lancée par Pékin pour débarrasser totalement son parc informatique des systèmes d’exploitation étrangers, dont le plus connu est Windows de Microsoft, et développer de nouveaux systèmes d’exploitation et outils informatiques de conception chinoise et fabriqués en Chine, et qui seront dépourvus des backdoors et autres logiciels espions de la NSA.



À terme, la Chine va donc devenir un trou noir pour les services de renseignement anglophones, les Five Eyes de l’accord UKUSA et du système Echelon, et leurs associés israéliens et autres. Dans quelques années, il sera pratiquement impossible de pirater, espionner et attaquer le parc informatique chinois, qui sera beaucoup mieux sécurisé qu’aujourd’hui. Cet exemple chinois aura une forte capacité d’entraînement à l’internationale et fera des émules par effet domino en Asie et partout dans le monde. On comprend que cette émancipation chinoise de l’hégémonie numérique occidentale provoque un vent de panique de la Silicon Valley à Washington en passant par Tel-Aviv : c’est la fin du projet néoconservateur de domination mondiale. Ce qui ne veut pas dire que le gouvernement chinois va instaurer le paradis sur Terre, mais qu’il pourra certainement relâcher la surveillance de sa population quand les risques de déstabilisation de la Chine par des attaques extérieures et intérieures de cinquièmes colonnes pro-occidentales auront été jugulés.



R/ Les Français auront-ils le choix de refuser le traçage numérique ?



Pour le biopouvoir, il n’est pas prévu que nous ayons le choix. Comme beaucoup de gens, je vois les pièces du puzzle s’assembler depuis un certain temps, mais c’est l’affaire de Tarnac en 2008 qui a joué pour moi un rôle de catalyseur et m’a poussé à rédiger un texte que j’ai publié sous anonymat, Gouverner par le chaos – Ingénierie sociale et mondialisation.



J’exposais dans cet opuscule comment certaines forces politiques et économiques cherchaient à implémenter une dictature numérique au moyen d’une stratégie du choc qui pouvait être une épidémie, et je citais à l’appui de cette prospective un texte manifeste de 2004, le Livre Bleu, rédigé par le lobby du numérique en France, le GIXEL (devenu ACSIEL en 2013), dans lequel étaient exposés certains stratagèmes pour faire accepter dans l’opinion publique le développement de l’identité numérique. Dans le cadre de sa fondation ID-2020, Bill Gates élabore aussi un système d’identification numérique pour le monde entier et cherche à le vendre ainsi : à cause du coronavirus, il faut vacciner toute la planète, et nous devons tous recevoir un certificat numérique de vaccination. Plusieurs technologies de certificat numérique plus ou moins invasives sont à l’étude : dans votre Smartphone ; dans un bracelet électronique ; sur la peau sous forme de tatouage à points quantiques ; sous la peau sous forme de puces électroniques. Si finalement nous pouvons avoir le choix et échapper à ce sort, c’est parce que nous aurons remporté le rapport de forces pour dire "Non !" Tout est axé autour de la formule confinement/distanciation sociale/vaccination/surveillance électronique, dont il faut attaquer chaque point.



R/ Que nous réserve la suite des événements, selon vous ?



En fait, il faut se poser la question : comment vais-je peser sur la suite des événements ? Il faut sortir du rôle de spectateur ou d’analyste des événements, il faut créer les événements. Le biopouvoir mondialiste a de gros moyens financiers pour créer des événements au niveau international, impacter le réel et écrire l’Histoire. Il possède des millions, donc, en face, nous devons être des millions.



Nous n’avons pas le capital économique, mais nous avons le capital humain. Pour créer l’événement, impacter le réel et écrire l’Histoire contre le biopouvoir, pour faire dérailler son programme, il faut se poser deux questions concrètes : comment gagner la bataille de l’opinion publique et comment organiser les masses politiquement ?



La bataille de l’opinion publique se gagne en se formant aux méthodes de communication stratégique et d’ingénierie sociale, rhétorique et retournement de l’opinion (spin), dans le réel ou sur les réseaux sociaux, du moins tant que c’est possible, car la prochaine crise devrait être cyber et toucher Internet, comme l’a annoncé Alain Bauer. Cette grande crise cybernétique et numérique, d’ampleur géopolitique et déclenchée par un virus informatique qui provoquerait le "bug du siècle", permettra au pouvoir de couper Internet au moins partiellement, et surtout de mettre fin à la réinformation indépendante avec un bon prétexte. C’est le programme du Grand Confinement, par l’addition du confinement physique et du confinement mental – cognitif et informationnel.



Le but ultime est d’abolir toute auto-organisation du peuple, donc toute autonomie dans l’organisation horizontale de la société. Pour cela, il faut d’abord couper les gens physiquement les uns des autres dans le réel, par le confinement physique, la distanciation sociale, le télétravail, et tenter de pérenniser ce nouvel ordre social en annonçant que "plus rien ne sera comme avant", comme on nous le martèle depuis des semaines. Puis, dans un deuxième temps, au prétexte d’une crise numérique globale, le pouvoir coupera les gens les uns des autres dans le virtuel aussi, avec un Internet en mode dégradé, limité au télétravail et à quelques messageries et portails inoffensifs, usages qui seront malgré tout conservés, ce qui sera présenté comme une victoire. Il faut essayer d’imaginer l’enfer que serait un confinement physique sans Internet, c’est-à-dire sans aucun accès à la réinformation, sans aucune possibilité de comprendre ce qui se passe car nous serions enfermés physiquement à domicile, ou dans un périmètre limité, et enfermés mentalement dans la narration exclusive du pouvoir, dans une seule version des événements. Dans d’autres publications, j’ai baptisé cette fabrique de l’aliénation mentale "reality-building", car elle repose sur le principe de l’hypnose : la parole de l’hypnotiseur devient la réalité de l’hypnotisé. 



Comment cela est-il possible ? Parce que l’hypnotisé, qui n’est pas forcément endormi, n’a pas d’autre source d’information que la parole de l’hypnotiseur. Avant d’en arriver là, avant qu’il ne soit trop tard, il y a urgence à gagner le combat politique, ce qui signifie prendre le pouvoir, et ne pas se contenter des contre-pouvoirs, dans la rue ou sur Internet, qui risquent fort de devenir impraticables de toute façon. Prendre le pouvoir signifie être en capacité de se faire obéir par les forces de l’ordre. L’activité métapolitique n’est donc pas suffisante, il faut investir aussi le champ politique du pouvoir légal. Les forces de l’ordre, qui ont une capacité de contrainte sur votre corps et votre esprit, n’obéissent pas à la métapolitique mais au gouvernement et à ses représentants locaux, c’est-à-dire à l’État. Il faut donc reprendre le contrôle de l’État si nous voulons sortir de l’impuissance à laquelle la métapolitique nous limite. Ceci suppose d’organiser les masses de manière structurée dans une perspective de conquête du pouvoir, ce qui suppose à son tour, et inévitablement, de jouer le jeu quelque peu ingrat de la politique politicienne et des organisations politiques de masse.

Auteur: Cerise Lucien

Info: Sur rebellion-sre.fr, 6 mai 2020

[ géopolitique ] [ anti-mondialisme ] [ manipulation des masses ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

Quel film ces emojis décrivent-ils ? (On voit une vidéo qui présente des myriades d'émoji formant des motifs mouvants, modélisés à partir de métadonnées)

Cette question était l'une des 204 tâches choisies l'année dernière pour tester la capacité de divers grands modèles de langage (LLM) - les moteurs de calcul derrière les chatbots d'IA tels que ChatGPT. Les LLM les plus simples ont produit des réponses surréalistes. "Le film est un film sur un homme qui est un homme qui est un homme", commençait l'un d'entre eux. Les modèles de complexité moyenne s'en sont approchés, devinant The Emoji Movie. Mais le modèle le plus complexe l'a emporté en une seule réponse : Finding Nemo.

"Bien que j'essaie de m'attendre à des surprises, je suis surpris par ce que ces modèles peuvent faire", a déclaré Ethan Dyer, informaticien chez Google Research, qui a participé à l'organisation du test. C'est surprenant parce que ces modèles sont censés n'avoir qu'une seule directive : accepter une chaîne de texte en entrée et prédire ce qui va suivre, encore et encore, en se basant uniquement sur des statistiques. Les informaticiens s'attendaient à ce que le passage à l'échelle permette d'améliorer les performances sur des tâches connues, mais ils ne s'attendaient pas à ce que les modèles puissent soudainement gérer autant de tâches nouvelles et imprévisibles.

Des études récentes, comme celle à laquelle a participé M. Dyer, ont révélé que les LLM peuvent produire des centaines de capacités "émergentes", c'est-à-dire des tâches que les grands modèles peuvent accomplir et que les petits modèles ne peuvent pas réaliser, et dont beaucoup ne semblent pas avoir grand-chose à voir avec l'analyse d'un texte. Ces tâches vont de la multiplication à la génération d'un code informatique exécutable et, apparemment, au décodage de films à partir d'emojis. De nouvelles analyses suggèrent que pour certaines tâches et certains modèles, il existe un seuil de complexité au-delà duquel la fonctionnalité du modèle monte en flèche. (Elles suggèrent également un sombre revers de la médaille : À mesure qu'ils gagnent en complexité, certains modèles révèlent de nouveaux biais et inexactitudes dans leurs réponses).

"Le fait que les modèles de langage puissent faire ce genre de choses n'a jamais été abordé dans la littérature à ma connaissance", a déclaré Rishi Bommasani, informaticien à l'université de Stanford. L'année dernière, il a participé à la compilation d'une liste de dizaines de comportements émergents, dont plusieurs ont été identifiés dans le cadre du projet de M. Dyer. Cette liste continue de s'allonger.

Aujourd'hui, les chercheurs s'efforcent non seulement d'identifier d'autres capacités émergentes, mais aussi de comprendre pourquoi et comment elles se manifestent - en somme, d'essayer de prédire l'imprévisibilité. La compréhension de l'émergence pourrait apporter des réponses à des questions profondes concernant l'IA et l'apprentissage automatique en général, comme celle de savoir si les modèles complexes font vraiment quelque chose de nouveau ou s'ils deviennent simplement très bons en statistiques. Elle pourrait également aider les chercheurs à exploiter les avantages potentiels et à limiter les risques liés à l'émergence.

"Nous ne savons pas comment déterminer dans quel type d'application la capacité de nuisance va se manifester, que ce soit en douceur ou de manière imprévisible", a déclaré Deep Ganguli, informaticien à la startup d'IA Anthropic.

L'émergence de l'émergence

Les biologistes, les physiciens, les écologistes et d'autres scientifiques utilisent le terme "émergent" pour décrire l'auto-organisation, les comportements collectifs qui apparaissent lorsqu'un grand nombre d'éléments agissent comme un seul. Des combinaisons d'atomes sans vie donnent naissance à des cellules vivantes ; les molécules d'eau créent des vagues ; des murmurations d'étourneaux s'élancent dans le ciel selon des schémas changeants mais identifiables ; les cellules font bouger les muscles et battre les cœurs. Il est essentiel que les capacités émergentes se manifestent dans les systèmes qui comportent de nombreuses parties individuelles. Mais ce n'est que récemment que les chercheurs ont été en mesure de documenter ces capacités dans les LLM, car ces modèles ont atteint des tailles énormes.

Les modèles de langage existent depuis des décennies. Jusqu'à il y a environ cinq ans, les plus puissants étaient basés sur ce que l'on appelle un réseau neuronal récurrent. Ceux-ci prennent essentiellement une chaîne de texte et prédisent le mot suivant. Ce qui rend un modèle "récurrent", c'est qu'il apprend à partir de ses propres résultats : Ses prédictions sont réinjectées dans le réseau afin d'améliorer les performances futures.

En 2017, les chercheurs de Google Brain ont introduit un nouveau type d'architecture appelé "transformateur". Alors qu'un réseau récurrent analyse une phrase mot par mot, le transformateur traite tous les mots en même temps. Cela signifie que les transformateurs peuvent traiter de grandes quantités de texte en parallèle. 

Les transformateurs ont permis d'augmenter rapidement la complexité des modèles de langage en augmentant le nombre de paramètres dans le modèle, ainsi que d'autres facteurs. Les paramètres peuvent être considérés comme des connexions entre les mots, et les modèles s'améliorent en ajustant ces connexions au fur et à mesure qu'ils parcourent le texte pendant l'entraînement. Plus il y a de paramètres dans un modèle, plus il peut établir des connexions avec précision et plus il se rapproche d'une imitation satisfaisante du langage humain. Comme prévu, une analyse réalisée en 2020 par les chercheurs de l'OpenAI a montré que les modèles gagnent en précision et en capacité au fur et à mesure qu'ils s'étendent.

Mais les débuts des LLM ont également apporté quelque chose de vraiment inattendu. Beaucoup de choses. Avec l'avènement de modèles tels que le GPT-3, qui compte 175 milliards de paramètres, ou le PaLM de Google, qui peut être étendu à 540 milliards de paramètres, les utilisateurs ont commencé à décrire de plus en plus de comportements émergents. Un ingénieur de DeepMind a même rapporté avoir pu convaincre ChatGPT qu'il s'était lui-même un terminal Linux et l'avoir amené à exécuter un code mathématique simple pour calculer les 10 premiers nombres premiers. Fait remarquable, il a pu terminer la tâche plus rapidement que le même code exécuté sur une vraie machine Linux.

Comme dans le cas du film emoji, les chercheurs n'avaient aucune raison de penser qu'un modèle de langage conçu pour prédire du texte imiterait de manière convaincante un terminal d'ordinateur. Nombre de ces comportements émergents illustrent l'apprentissage "à zéro coup" ou "à quelques coups", qui décrit la capacité d'un LLM à résoudre des problèmes qu'il n'a jamais - ou rarement - vus auparavant. Selon M. Ganguli, il s'agit là d'un objectif de longue date dans la recherche sur l'intelligence artificielle. Le fait de montrer que le GPT-3 pouvait résoudre des problèmes sans aucune donnée d'entraînement explicite dans un contexte d'apprentissage à zéro coup m'a amené à abandonner ce que je faisais et à m'impliquer davantage", a-t-il déclaré.

Il n'était pas le seul. Une série de chercheurs, qui ont détecté les premiers indices montrant que les LLM pouvaient dépasser les contraintes de leurs données d'apprentissage, s'efforcent de mieux comprendre à quoi ressemble l'émergence et comment elle se produit. La première étape a consisté à documenter minutieusement l'émergence.

Au-delà de l'imitation

En 2020, M. Dyer et d'autres chercheurs de Google Research ont prédit que les LLM auraient des effets transformateurs, mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et variées afin de déterminer les limites extrêmes de ce qu'un LLM pourrait faire. Cet effort a été baptisé "Beyond the Imitation Game Benchmark" (BIG-bench), en référence au nom du "jeu d'imitation" d'Alan Turing, un test visant à déterminer si un ordinateur peut répondre à des questions d'une manière humaine convaincante. (Le groupe s'est particulièrement intéressé aux exemples où les LLM ont soudainement acquis de nouvelles capacités qui étaient totalement absentes auparavant.

"La façon dont nous comprenons ces transitions brutales est une grande question de la echerche", a déclaré M. Dyer.

Comme on pouvait s'y attendre, pour certaines tâches, les performances d'un modèle se sont améliorées de manière régulière et prévisible au fur et à mesure que la complexité augmentait. Pour d'autres tâches, l'augmentation du nombre de paramètres n'a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont constaté ce qu'ils ont appelé des "percées", c'est-à-dire des augmentations rapides et spectaculaires des performances à partir d'un certain seuil d'échelle. Ce seuil variant en fonction de la tâche et du modèle.

Par exemple, les modèles comportant relativement peu de paramètres - quelques millions seulement - n'ont pas réussi à résoudre des problèmes d'addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a grimpé en flèche dans certains modèles. Des sauts similaires ont été observés pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le décodage des lettres d'un mot, l'identification de contenu offensant dans des paragraphes d'hinglish (combinaison d'hindi et d'anglais) et la formulation d'équivalents en langue anglaise, traduit à partir de proverbes kiswahili.

Introduction

Mais les chercheurs se sont rapidement rendu compte que la complexité d'un modèle n'était pas le seul facteur déterminant. Des capacités inattendues pouvaient être obtenues à partir de modèles plus petits avec moins de paramètres - ou formés sur des ensembles de données plus petits - si les données étaient d'une qualité suffisamment élevée. En outre, la formulation d'une requête influe sur la précision de la réponse du modèle. Par exemple, lorsque Dyer et ses collègues ont posé la question de l'emoji de film en utilisant un format à choix multiples, l'amélioration de la précision a été moins soudaine qu'avec une augmentation graduelle de sa complexité. L'année dernière, dans un article présenté à NeurIPS, réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (capacité appelée raisonnement en chaîne) pouvait résoudre correctement un problème de mots mathématiques, alors que le même modèle sans cette invitation progressivement précisée n'y parvenait pas.

 Yi Tay, scientifique chez Google Brain qui a travaillé sur l'étude systématique de ces percées, souligne que des travaux récents suggèrent que l'incitation par de pareilles chaînes de pensées modifie les courbes d'échelle et, par conséquent, le point où l'émergence se produit. Dans leur article sur NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites via pareille chaines de pensée progressives pouvait susciter des comportements émergents qui n'avaient pas été identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d'expliquer son raisonnement, peuvent aider les chercheurs à commencer à étudier les raisons pour lesquelles l'émergence se produit.

Selon Ellie Pavlick, informaticienne à l'université Brown qui étudie les modèles computationnels du langage, les découvertes récentes de ce type suggèrent au moins deux possibilités pour expliquer l'émergence. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les grands modèles acquièrent réellement de nouvelles capacités de manière spontanée. "Il se peut très bien que le modèle apprenne quelque chose de fondamentalement nouveau et différent que lorsqu'il était de taille inférieure", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'il y ait un changement fondamental qui se produise lorsque les modèles sont mis à l'échelle.

L'autre possibilité, moins sensationnelle, est que ce qui semble être émergent pourrait être l'aboutissement d'un processus interne, basé sur les statistiques, qui fonctionne par le biais d'un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement être en train d'apprendre des heuristiques qui sont hors de portée pour ceux qui ont moins de paramètres ou des données de moindre qualité.

Mais, selon elle, pour déterminer laquelle de ces explications est la plus probable, il faut mieux comprendre le fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit.

Pouvoirs imprévisibles et pièges

Demander à ces modèles de s'expliquer pose un problème évident : Ils sont des menteurs notoires. Nous nous appuyons de plus en plus sur ces modèles pour effectuer des travaux de base", a déclaré M. Ganguli, "mais je ne me contente pas de leur faire confiance, je vérifie leur travail". Parmi les nombreux exemples amusants, Google a présenté en février son chatbot d'IA, Bard. Le billet de blog annonçant le nouvel outil montre Bard en train de commettre une erreur factuelle.

L'émergence mène à l'imprévisibilité, et l'imprévisibilité - qui semble augmenter avec l'échelle - rend difficile pour les chercheurs d'anticiper les conséquences d'une utilisation généralisée.

"Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés", a déclaré M. Ganguli. "Et pour étudier les phénomènes émergents, il faut avoir un cas en tête, et on ne sait pas, avant d'avoir étudié l'influence de l'échelle. quelles capacités ou limitations pourraient apparaître.

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont cherché à savoir si les modèles présentaient certains types de préjugés raciaux ou sociaux, à l'instar de ceux précédemment signalés dans les algorithmes non basés sur les LLM utilisés pour prédire quels anciens criminels sont susceptibles de commettre un nouveau délit. Cette étude a été inspirée par un paradoxe apparent directement lié à l'émergence : Lorsque les modèles améliorent leurs performances en passant à l'échelle supérieure, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des préjudices.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", explique M. Ganguli. Il se réfère à une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. "Les grands modèles deviennent brusquement plus biaisés. Si ce risque n'est pas pris en compte, il pourrait compromettre les sujets de ces modèles."

Mais il propose un contrepoint : Lorsque les chercheurs demandent simplement au modèle de ne pas se fier aux stéréotypes ou aux préjugés sociaux - littéralement en tapant ces instructions - le modèle devient moins biaisé dans ses prédictions et ses réponses. Ce qui suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a présenté un nouveau mode d'"autocorrection morale", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

Selon M. Ganguli, l'émergence révèle à la fois un potentiel surprenant et un risque imprévisible. Les applications de ces grands LLM prolifèrent déjà, de sorte qu'une meilleure compréhension de cette interaction permettra d'exploiter la diversité des capacités des modèles de langage.

"Nous étudions la manière dont les gens utilisent réellement ces systèmes", a déclaré M. Ganguli. Mais ces utilisateurs sont également en train de bricoler, en permanence. "Nous passons beaucoup de temps à discuter avec nos modèles, et c'est là que nous commençons à avoir une bonne intuition de la confiance ou du manque de confiance.

Auteur: Ornes Stephen

Info: https://www.quantamagazine.org/ - 16 mars 2023. Trad DeepL et MG

[ dialogue ] [ apprentissage automatique ] [ au-delà du jeu d'imitation ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel