Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 464
Temps de recherche: 0.0498s

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

homme-animal

"Voyageons un peu dans le passé et transportons-nous à Falaise, petite ville de Normandie, à la fin du mois de janvier 1386.

Une truie, maladroitement costumée en habits féminins, est rituellement conduite à l’échafaud, puis pendue et brûlée. Qu’avait-elle fait ? Renversé le berceau d’un nourrisson mal surveillé et commencé à lui dévorer le visage.

Capturée, emprisonnée, conduite au tribunal, défendue par un avocat peu efficace, elle est condamnée à mort par le juge-bailli de Falaise qui l’estime responsable de ses actes. Son propriétaire, en revanche, n’écope d’aucune peine ni amende.

Aujourd’hui, de telles pratiques nous font rire, de même que nous nous esclaffons devant les questions que l’on se pose à la même époque en milieu clérical ou universitaire : peut-on faire travailler les animaux le dimanche ? Doit-on leur imposer des jours de jeûne ? Où vont-ils après la mort ? En Enfer ou au Paradis ? Que de croyances absurdes ? Que de superstitions grotesques ! Quels ramassis d’imbéciles tous ces médiévaux !

Nous avons tort de réagir ainsi. En jugeant le passé à l’aune des savoirs, des morales et des sensibilités du présent, nous montrons que nous n’avons rien compris à ce qu’était l’Histoire. En outre, nous oublions aussi que nos propres comportements sont tout aussi ridicules, qu’ils feront pareillement sourire nos successeurs dans quelques siècles, et qu’ils sont souvent plus atroces et beaucoup plus dangereux que ceux de nos ancêtres. Dangereux pour toutes les espèces vivantes, dangereux pour l’avenir de la planète.

Qui parmi nous a déjà visité une porcherie industrielle ? Je suis normand d’origine et breton de cœur, je n’ai aucune animosité envers les éleveurs de porcs, je ne milite dans aucune société protectrice des animaux ; je suis simplement historien, spécialiste des rapports entre l’homme et l’animal. Or l’honnêteté m’oblige à dire que ces porcheries industrielles sont des lieux abominables, constituant une sorte d’enfer sur terre pour les animaux qui s’y trouvent. Les truies sont enfermées par centaines dans des espaces qui leur interdisent de se déplacer. Leur vie durant, elles ne voient jamais la lumière du soleil, ne fouillent jamais le sol, sont nourries d’aliments chimiques, gavées d’antibiotiques, inséminées artificiellement. Elles doivent produire le maximum de porcelets en une seule portée, avoir le maximum de portées dans les quelques années de leur misérable vie, et lorsqu’elles ne sont plus fécondes, elles partent à l’abattoir. Les porcelets eux-mêmes doivent engraisser le plus vite possible, produire le maximum de viande, et tout cela, bien sûr, au moindre coût. Ces crétins du Moyen-Âge qui pensaient que les cochons étaient des êtres sensibles, qu’ils avaient une âme et qu’ils pouvaient comprendre ce qu’était le Bien et le Mal, n’avaient certainement jamais pensé à cela : martyriser des porcs pour gagner de l’argent !

Récemment, un directeur de porcherie industrielle située dans les Côtes d’Armor à qui je venais de faire part de mon indignation m’a répondu d’une manière sordide : "Mais, Cher Monsieur, pour les poulets c’est bien pire". De fait, dans des établissements carcéraux du même genre, les poulets ne peuvent pas poser leurs deux pattes au sol en même temps : il y circule un courant électrique qui les oblige, à longueur de vie, à poser au sol une patte après l’autre. Pourquoi un tel supplice ? Pour faire grossir leurs cuisses, bien sûr, et les vendre ainsi plus cher. La cupidité de l’être humain est devenue sans limite.

Où sont passés les cochons de nos campagnes ? Où peut-on encore les voir gambader autour de la ferme, jouer les uns avec les autres, se faire caresser par les enfants, partager la vie des paysans. Nulle part ! Nous avons oublié que les cochons – mais cela est vrai de tous les animaux de la ferme - étaient des êtres vivants et non pas des produits. Qui, dans la presse, évoque leur sort pitoyable, leur vie de prisonniers et de condamnés lorsque l’actualité parle du prix de la viande de porc et du mécontentement des éleveurs ? Qui a le courage de rappeler qu’avant d’être un produit de consommation le cochon était un animal vivant, intelligent, sensible, anatomiquement et physiologiquement cousin très proche de l’être humain ? A ma connaissance, personne. De même, à propos des débats autour des cantines scolaires, qui s’interroge sur les raisons qui font que certains peuples mangent du porc et d’autres non ? C’est pourtant un dossier passionnant, l’occasion de s’instruire et de rappeler les nombreuses hypothèses qui ont été avancées depuis le Moyen-Âge pour expliquer les rejets et les tabous qui entourent cet animal.

Les animaux domestiques n’ont plus d’histoire, plus de mythologie, plus de symbolique. Ils ne suscitent plus aucune curiosité, aucune interrogation, aucune nostalgie. Ils n’ont même plus droit à une vie simplement animale. Ce sont des produits ! Comme tels, ils doivent participer au "redressement productif" de notre pays (cette expression est en elle-même absolument répugnante) et générer du profit. Un profit ironiquement bien mince, voire inexistant pour les éleveurs de porcs, ce qui rend encore plus aberrante et intolérable l’existence de ces porcheries industrielles, inhumaines, "inanimales" même, si l’on peut oser un tel néologisme. Elles polluent l’air, la terre, les eaux des rivières et celles de la mer. Dans mon petit coin de Bretagne, des sangliers sont morts à cause du rejet dans la nature du lisier produit par l’élevage intensif de leurs cousins domestiques. Un comble ! À la cupidité s’ajoute l’absurdité.

L’être humain est devenu fou. Il tue non seulement ses semblables mais tout ce qui vit autour de lui. Il rêve même d’aller sur Mars ou ailleurs vérifier si la vie existe et, si c’est le cas, y semer la mort. Tout en donnant des leçons à l’univers entier et en paradant à la COP 21, 22, 23, 24.

Protéger la nature, défendre l’environnement, sauver la planète ? Certes. Mais pour quoi faire ? Pour sauver une humanité barbare et suicidaire, cruelle envers elle-même, ennemie de tous les êtres vivants ? Le mérite-t-elle vraiment ? Le souhaite-t-elle réellement ? Il est permis d’en douter."

Auteur: Pastoureau Michel

Info: France Inter, carte blanche du 21 oct 2019

[ historique ]

 
Commentaires: 2
Ajouté à la BD par miguel

sortie extra-corporelle

Ce que chacun devrait savoir sur la paralysie du sommeil (P.D.S) et la sortie hors du corps (S.H.C).

Presque tous les jours, je reçois des mails de quelqu'un qui, le sachant ou pas, me parle de sa paralysie du sommeil (P.D.S). Habituellement, je donne une brève explication de ce qui se passe, mais j'ai décidé qu'il était temps de l'écrire dans un article dont plus de gens pourraient bénéficier. J'ai étudié et vécu plusieurs P.D.S et S.H.C, donc je parle d'expérience.

Qu'est-ce que la paralysie du sommeil ?

La paralysie du sommeil est une fonction corporelle normale et naturelle qui provoque la paralysie de notre corps physique pendant le sommeil. Son but est de nous empêcher de nous faire du mal lorsque nous rêvons. Elle est censée se produire à chaque fois que nous dormons et s'installe généralement bien avant que nous ne commencions à rêver. Lorsqu'elle ne fonctionne pas correctement, nous avons de graves problèmes comme le somnambulisme, qui fait que les gens se blessent. Normalement, nous ne sommes pas conscients lorsque la paralysie du sommeil s'installe, de sorte que la plupart des gens ne savent même pas qu'elle existe. Cependant, de temps en temps, quelqu'un devient conscient pendant cette période, et c'est alors qu'il devient de sa paralysie du sommeil, ou P.D.S. Pour autant que je sache, cela se produit plus souvent au réveil. En gros, votre esprit se réveille avant votre corps. Finalement, votre corps rattrape votre esprit et se réveille aussi.

Symptômes de la P.D.S

Lorsqu'un individu devient conscient et se rend compte de son état de paralysie du sommeil, il ne sait généralement pas ce qui lui arrive. Et, parce qu'il est conscient, il essaie de bouger, mais ne le peut pas. Lorsqu'ils découvre qu'ils ne peut pas bouger, il commence à s'agiter, à être angoissés, à avoir peur et peut même paniquer, coincé entre la réalité et le monde halluciné des rêves avec l'impression de ne pas pouvoir se rendre à l'un ou l'autre de ces endroits. Souvent, il lutte et se bat contre la paralysie, en essayant de se libérer, mais cela n'aide que rarement.

Pour aggraver les choses, les peurs peuvent facilement se manifester sous la forme d'hallucinations très réalistes dans l'État de P.D.S. C'est pourquoi les gens voient souvent des monstres, des démons, des sorcières ou autres créatures peu recommandables les attaquer. C'est si courant de ressentir tout ça que fut inventé le mot "hagging" (auto-harassement) pour le décrire. Souvent, on pense se réveiller "juste à temps avant que les monstres ne nous attrape", alors qu'en réalité, la poussée d'adrénaline provoquée par la peur fait sortir de la paralysie. Pour la plupart, ces créatures sont des hallucinations qui peuvent être ignorées, mais je sais bien que c'est plus facile à dire qu'à faire.

La plupart du temps, ceux en P.D.S qui souffrent luttent pour reprendre le contrôle de leur corps et finissent par gagner. Parfois, cependant, une personne peut sembler se réveiller, pour découvrir qu'elle dort vraiment encore et qu'elle rêve qu'elle s'est réveillée. Nous appelons ce phénomène "faux réveils". Parfois, une personne peut avoir plusieurs faux réveils d'affilée, ce qui la frustre de ne pas pouvoir se réveiller ou, pire encore, la terrifie de ne plus jamais se réveiller. Les personnes souffrant de P.D.S sont souvent réticentes à parler de leurs expériences car elles ont peur que les gens les croient folles. Beaucoup de gens ont gardé ce petit secret toute leur vie.

La P.D.S est-elle fréquente ?

En fait, elle est assez répandue et il n'y a pas lieu d'en avoir peur ou d'en avoir honte. Cela arrive à des milliers, voire des millions de personnes chaque jour, mais je n'ai pas de statistiques pour le prouver. Mais je reçois des mails sur les P.D.S presque tous les jours, donc vous n'êtes pas seul.

Que peut-on faire contre les monstres ?

En général, quand les gens apprennent ce qu'est la P.D.S, leurs craintes diminuent. Quand leurs craintes diminuent, ils ont tendance à voir moins de monstres. Par conséquent, le meilleur conseil est de ne pas paniquer, de rester calme, de réaliser que vous êtes en sécurité, et c'est une chose naturelle que fait votre corps physique. Ensuite, si vous le souhaitez, explorez cet état.

Comment puis-je sortir de l'état de P.D.S ?

En général, il suffit d'attendre qu'il se dissipe. On pense que la paralysie du sommeil est liée à la chimie du cerveau, et que vous en sortirez automatiquement lorsque vos substances chimiques se stabiliseront. En attendant, tout ce que vous pouvez faire est d'attendre qu'elle se termine, ou de l'utiliser comme tremplin pour l'état de S.H.C. Comme je l'ai déjà dit, des émotions extrêmes comme la panique ou la colère provoquent parfois un changement dans la chimie du cerveau, et cela peut vous faire sortir de l'état de P.D.S. Une fois que vous aurez appris à la maîtriser, j'espère que vous voudrez l'explorer plutôt que d'y mettre fin.

Quel est le lien entre P.D.S et S.H.C ?

D'après mon expérience, dans l'état P.D.S, vous êtes hors de votre corps physique et à l'intérieur de votre corps énergétique, mais généralement vous êtes collé au corps et incapable de bouger. Donc, d'un côté, vous êtes hors de votre corps, mais de l'autre, vous êtes incapable d'aller quelque part ou de faire quoi que ce soit ; une expérience vraiment frustrante. Lutter contre la paralysie est souvent futile, et si vous gagnez, vous retournerez à votre corps physique au lieu de le quitter, ce qui est frustrant si la S.H.C est votre objectif.

Quel est le secret pour transformer la P.D.S en S.H.C ?

Croyez-le ou non, il m'a fallu vingt ans d'essais avant d'apprendre le secret de la transformation de la P.D.S en S.H.C. Avant d'apprendre le secret, il était plus facile pour moi d'induire une expérience extracorporelle à partir d'un état de pleine conscience qu'à partir de l'état de P.D.S. Le secret réside principalement dans le fait de savoir ce qui se passe réellement, alors voilà : D'après mon expérience, dans l'état de P.D.S, votre conscience est associée à votre corps énergétique, et non à votre corps astral, et c'est là que se trouve le problème. Votre corps énergétique est étroitement associé à votre corps physique, et il est donc inutile de le fouiller et d'essayer de le déloger. Cela n'arrivera pas tant que vous ne serez pas mort, ou proche de la mort. Le secret, c'est que vous devez transférer votre conscience de votre corps énergétique à votre corps astral. Comment y parvenir ? D'abord, fermez les yeux et gardez-les fermés. Ensuite, essayez d'avancer avec votre conscience et imaginez que vous avancez. Même si vous ne ressentez aucun mouvement, votre conscience va avancer dans votre corps astral. Si vous avez de sérieux doutes quant à son fonctionnement et que vous ouvrez les yeux prématurément, votre conscience va se refermer comme une balle sur un élastique et revenir dans votre corps énergétique. Au lieu de cela, gardez les yeux fermés et ayez la foi que votre conscience avance. Continuez à pousser votre conscience aussi fort que vous le pouvez, comme si vous marchiez sous l'eau, jusqu'à ce que vous soyez à environ cinq mètres de votre corps. Bien sûr, comme vos yeux sont fermés, vous ne pouvez qu'estimer approximativement la distance, alors ne soyez pas obsédé par la distance, faites simplement une estimation. Une fois que vous êtes en sécurité à quinze pieds de votre corps, vous pouvez ouvrir les yeux, alors vous serez dans votre corps astral et libre d'errer.

Auteur: Peterson Bob Robert

Info: Le 5 août 2002

[ astral mode d'emploi ] [ hypnagogie ] [ détermination ]

 

Commentaires: 0

Ajouté à la BD par miguel

laxisme

Les conservateurs ne veulent pas abandonner la guerre contre la drogue. Ils sont convaincus que des seigneurs de la drogue mènent une guerre contre d'innocentes victimes, qui commence avec les adolescents, et ils ne s'intéressent pas aux arguments pour la dépénalisation.

Les conservateurs veulent que l'État dépense des centaines de millions de dollars pour créer des prisons afin d'y mettre les revendeurs de drogue reconnus coupables - après les faits. À gauche, on veut que l'État dépense un montant au moins égal pour traiter et réhabiliter - après les faits.

Moi, je cherche à fermer le marché des drogues illégales. Je dis qu'il faut être deux pour danser le tango - vendeurs et acheteurs - et je veux fermer la piste de danse.

Nous savons où elle se trouve. Il y en a une dans votre ville. Il y en a probablement plus d'une. Ells sont les sombres lieux de l'âme. Les usagers viennent, cherchant désespérément un nouveau trip ou peut-être uniquement un moyen pour arrêter de trembler. Les vendeurs viennent, avides d'un revenu issu de la vente de leurs articles destructeurs, malgré la misère qu'ils sèment.

Et puis il y a les innocents - des enfants qui ont de l'argent dans leurs poches et du temps à perdre. Ils viennent en bande, cherchant de nouvelles sensations dans un milieu ennuyeux, dénué de sens.

Ce dont nous avons besoin, c'est d'un grand coup de balai. Nous devons envoyer la police locale, les agents de la DEA [Agence de lutte contre la drogue] et les medias dans ces bouges et les fermer une fois pour toute.

Je veux parler des écoles publiques.

Chaque jour, votre gouvernement local envoie des douzaines ou des centaines de bus jaunes pour recruter la nouvelle génération de drogués. Ces individus psychologiquement faibles, soigneusement choisis comme victimes, sont amenés au grand magasin central du cartel de la drogue, où les vendeurs peuvent faire leur offre initiale et compétitive - "Le premier est gratuit !" - et leur incantation subversive, "Essayer : vous aimerez !". Seul le directeur adjoint se trouve entre les usagers et la source de leur dépendance.

Les vendeurs vont où se trouve l'argent, et où les gens qui en ont sont rassemblés pendant sept heures par jour en un lieu pratique et sans loyer.

Les usagers et les usagers potentiels sont conduits vers des pièces où ils doivent rester assis des heures sur des sièges durs, en bois, et sont obligés d'écouter le cours d'un endoctrinateur dont le travail, pour respecter la loi fédérale, est de persuader les enfants que la vie peut avoir un sens et être pleine d'espoir sans : (1) l'idée que Dieu ait une place dans la classe, dans l'isoloir ou dans le jardin public ; (2) l'idée qu'il y aura un jugement final (sauf pour Adolf Hitler) qui ait des conséquences éternelles ; (3) l'idée que l'Humanité est le fruit de Dieu plutôt que celui des forces sans but, aléatoires de la nature impersonnelle ; (4) l'idée que l'Homme a été mis sur Terre par Dieu pour y exercer sa domination sur la création, plutôt que pour être une simple espèce de primate avec l'avantage compétitif unique d'avoir des pouces en opposition ; (5) l'idée que les individus soient responsables légalement et moralement de leurs actes, y compris de l'obligation d'épargner pour leurs années de retraite et de payer pour leurs soins médicaux ; (6) l'idée qu'il y a des réponses finales aux questions morales décisives (sauf en ce qui concerne Hitler) ; (7) l'idée qu'une éducation pertinente et créatrice de toute la vie peut être donnée dans une institution qui n'emploie pas de professeurs à plein temps. (Techniquement, le point 7 n'est pas rendu obligatoire par la loi fédérale ; il y a plutôt une obligation due au aux électeurs locaux, qui feront pression sur le conseil de direction de l'école, pour virer le directeur si l'équipe de football a de nouveau un résultat de 2 victoires et 9 défaites cette saison).

Les éducateurs savent que la vie ne peut pas être vécue uniquement en termes négatifs. Il y a aussi des questions positives qui sont traitées dans les classes des écoles publiques, parmi elles : (1) le droit à un avortement gratuit, avec le conseil de professionnels agréés par l'école et sans consultation des parents ; (2) le droit pour tout mode de vie sexuelle de voir sa position - intellectuelle, bien sûr - présentée en classe comme un choix légitime parmi beaucoup d'autres ; (3) le droit pour tout groupe minoritaire (sauf les Nazis) à avoir au moins un paragraphe positif dans le manuel d'études sociales ; (4) le droit pour chaque élève à avoir un certain sens d'estime de soi, sauf dans les équipes sportives ; et (5) le droit pour les étudiants d'informer tout professeur des idées de leurs parents sur les sujets ayant une importance sociale ou psychologique pour le quartier de l'école.

Là, entre les cours, les élèves se rencontrent pour discuter des implications sur leurs vies de tout cela. "Le premier est gratuit. Essayez : vous aimerez."

Quelle est la dernière fois que vous avez vu, sur la chaîne de télévision locale, un reportage sur une prise de drogue dans une école privée ?

Quelle est la dernière fois où vous avez lu dans les journaux un article sur un élève victime d'une overdose d'héroïne dans une école privée ?

En allant un peu plus loin, quelle est la dernière fois que la police a été envoyée pour arrêter une bagarre dans une école privée ? (J'imagine le reportage. "La bataille a commencé quand un groupe de Catholiques ont apparamment commencé à chanter, 'infused grace, infused grace' durant la période obligatoire des prières matinales [je renonce à traduire ou à trouver des équivalents français en raison de mes faibles connaissances des subtilités religieuses associées au texte anglais. Si quelqu'un peut m'aider. NdT]. On dit que les Baptistes se sont vengés au cri de 'imputed grace, imputed grace'. "Je parlais de plus en plus fort," raconte Mr. Brubaker, qui enseigne le calcul et est également le directeur de l'école. "Nous avons finalement dû appeler la police quand les Méthodistes ont commencé à crier 'prevenient grace'. C'était tout simplement terrible. Mais je peux rassurer le public : nous allons prendre des mesures pour régler ces problèmes.")

Conclusion

Ce dont nous avons besoin, c'est d'une guerre totale contre la drogue qui prenne pour cible le principal centre de recrutement des revendeurs de drogue, les points de vente de choix du cartel de la drogue colombien : les écoles publiques américaines subventionnées par les impôts.

Si j'entendais un jour des membres du Congrès réclamer ce type de guerre bipartisane contre la drogue, je les prendrais bien plus au sérieux. J'aurais une bonne impression si j'en entendais un se dresser devant la chambre du Congrès et dire la chose suivante. "Comme mesure de lutte contre la drogue, je propose aujourd'hui une loi pour arrêter tout financement fédéral de l'éducation." Alors, son collègue de l'autre bord se lèverais et dirais : "je suis prêt à soutenir cette proposition si le gentleman distingué du Texas se déclare prêt à soutenir ma proposition de supprimer toutes les institutions d'éducation de la juridiction du National Labor Relations Board."

Quand la demande de drogues illégales est en fin de compte analysée en termes de catégories qui demandent un traitement - et cherchent des calmants qui sont un soulagement chimique de la douleur - alors nous commencerons à venir à bout du problème continuel américain de la drogue. La guerre contre les drogues devrait commencer par un programme systématique d'élimination des sources initiales de la souffrance des usagers, ces institutions subventionnées qui sont également les principaux supermarchés de la vente des drogues. Jusqu'à ce qu'il en soit ainsi, je ne pense pas que la guerre contre la drogue ait une grande chance de réduire le niveau de stupéfiants.

Jusque là, à chaque fois que vous verrez un bus jaune de l'école publique sur l'autoroute, dites-vous "Transport gratuit vers le centre de cocaïne". À l'arrière de chaque bus scolaire de l'Amérique, on devrait voir clairement ces mots : "recommandé par Medellin".

Auteur: North Gary

Info: Comment gagner la guerre contre la drogue. 15 janvier 2001, traduit par Hervé de Quengo.

[ sécularisation ] [ banalisation ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

covid 1984

Dans un récent entretien avec Vice, le dénonciateur de la NSA, Edward Snowden, a exprimé ses inquiétudes concernant le programme de surveillance à venir, l’appelant "l’architecture de l’oppression". Nous avons demandé à Lucien Cerise son analyse du nouveau contrôle social à venir.



R/ L’état d’urgence sanitaire est-il pour vous un bon moyen pour les gouvernements mondiaux de poursuivre la réduction de nos libertés collectives et individuelles ? Pour vous, le confinement est-il un instrument d’ingénierie sociale ?



- Cet état d’urgence sanitaire est le prétexte idéal pour tenter de fabriquer le consentement des populations à une transformation du lien social sur une base transhumaniste, c’est-à-dire fondée sur un encadrement scientifique général, présentant un fort caractère carcéral et concentrationnaire, et allant dans le sens de l’artificialisation et de la réification du vivant, sa chosification, sa réduction à un objet. On peut reprendre à Michel Foucault et Giorgio Agamben la notion de biopouvoir pour décrire un pouvoir politique qui étudie la biologie, la médecine et les sciences de la vie autant que le droit ou l’économie. Le biopouvoir, qui n’est qu’une mise à jour de la notion d’eugénisme, se caractérise donc par une intrusion toujours croissante dans l’intimité physique des gens pour la modifier et surtout la contrôler.



En effet, ce qui dérange le biopouvoir, c’est la prolifération de la vie et de l’organique, impossible à contrôler totalement. Le transhumanisme est une tentative d’enfermement de l’organique dans une forme prétendument augmentée, mais surtout aseptisée, standardisée et sous contrôle, tentative de meurtre du vivant et de son aspect toujours imprévisible et débordant. Les gens normaux se refusent donc naturellement au transhumanisme. Pour parvenir à les emprisonner là-dedans malgré tout, il faut les séduire ou leur faire peur, afin de les soumettre volontairement par des manœuvres d’ingénierie sociale du type "pompier pyromane" et triangle de Karpman, consistant à exploiter les projections psycho-émotionnelles de la trilogie bourreau/victime/sauveur.



Cela commence par le déclenchement d’une crise, suivi d’une opération d’hameçonnage (phishing), c’est-à-dire un piratage de l’esprit par usurpation d’identité et abus de confiance, où le responsable de la crise, en position de "bourreau", se présente comme le "sauveur" qui va protéger les "victimes" de la crise. Quand le piratage est accompli, que le bourreau a gagné la confiance de la population victime et qu’elle s’ouvre à lui en abaissant ses défenses parce qu’elle le perçoit comme un sauveur, alors le pirate-bourreau peut passer à la deuxième phase sans rencontrer de résistance, c’est-à-dire la réécriture de l’architecture sociale selon un nouveau plan présenté comme une solution de sortie de crise. Cette restructuration du lien social consiste à prendre le contrôle des relations que les gens entretiennent librement pour les recomposer à leur place. Comment ? Cela se fait toujours en jouant sur les relations de confiance et de méfiance, afin de prendre le contrôle des relations de proximité et de distance. Avec cette crise du coronavirus, la relation à autrui et au monde est réécrite pour être fondée sur la méfiance et la paranoïa, selon une sorte de conflit triangulé généralisé, où chacun est potentiellement bourreau de chacun. Je dois apprendre à me méfier d’autrui et de la nature, avec le maintien d’une distance entre moi, autrui et le monde, et cette distance m’est dictée par le biopouvoir auquel, en revanche, je suis tenu d’accorder une confiance aveugle, au risque d’être accusé de "conspirationnisme" et d’encourir des représailles judiciaires. En résumé : pour le biopouvoir, cette crise du Covid-19 doit couper l’Histoire en deux et faire entrer l’humanité dans une nouvelle ère où l’auto-organisation du vivant sera progressivement abolie pour être entièrement subordonnée et rationalisée par un pouvoir scientifique eugéniste.



R/ La surveillance numérique de masse passe par les fameuses applications d’Apple ou de Google de contrôle sanitaire. Comment les États et les grandes multinationales de la Silicon Valley se partagent les informations et les rôles dans cette opération ?



Les États et les grandes multinationales sont toujours en fait dirigés directement ou indirectement par ce que l’on appelle le complexe militaro-industriel, qui n’est pas exclusivement américain, chaque pays possède le sien, mais celui des USA est le plus agressif. L’avant-garde de la recherche scientifique est toujours sponsorisée, surveillée et récupérée en premier lieu par les unités de "recherche et développement" militaires. Au niveau géopolitique international, tout est militarisé (weaponized, comme disent les anglophones), tout est rapport de forces, tout est volonté de puissance et relations dominant/dominé. Les applications de géolocalisation et de surveillance numérique de masse sont des outils de contrôle social, c’est-à-dire en fait de militarisation des comportements.



Nous sommes dans une guerre hybride mondiale. Par exemple, la Chine, qui est sous attaque permanente des USA et des réseaux de George Soros, a besoin de militariser et discipliner sa population par un encadrement informatique global. Afin de conserver sa souveraineté numérique et le contrôle de sa population, la Chine doit aussi prévenir et limiter les risques de piratages informatiques de l’étranger, d’où la campagne lancée par Pékin pour débarrasser totalement son parc informatique des systèmes d’exploitation étrangers, dont le plus connu est Windows de Microsoft, et développer de nouveaux systèmes d’exploitation et outils informatiques de conception chinoise et fabriqués en Chine, et qui seront dépourvus des backdoors et autres logiciels espions de la NSA.



À terme, la Chine va donc devenir un trou noir pour les services de renseignement anglophones, les Five Eyes de l’accord UKUSA et du système Echelon, et leurs associés israéliens et autres. Dans quelques années, il sera pratiquement impossible de pirater, espionner et attaquer le parc informatique chinois, qui sera beaucoup mieux sécurisé qu’aujourd’hui. Cet exemple chinois aura une forte capacité d’entraînement à l’internationale et fera des émules par effet domino en Asie et partout dans le monde. On comprend que cette émancipation chinoise de l’hégémonie numérique occidentale provoque un vent de panique de la Silicon Valley à Washington en passant par Tel-Aviv : c’est la fin du projet néoconservateur de domination mondiale. Ce qui ne veut pas dire que le gouvernement chinois va instaurer le paradis sur Terre, mais qu’il pourra certainement relâcher la surveillance de sa population quand les risques de déstabilisation de la Chine par des attaques extérieures et intérieures de cinquièmes colonnes pro-occidentales auront été jugulés.



R/ Les Français auront-ils le choix de refuser le traçage numérique ?



Pour le biopouvoir, il n’est pas prévu que nous ayons le choix. Comme beaucoup de gens, je vois les pièces du puzzle s’assembler depuis un certain temps, mais c’est l’affaire de Tarnac en 2008 qui a joué pour moi un rôle de catalyseur et m’a poussé à rédiger un texte que j’ai publié sous anonymat, Gouverner par le chaos – Ingénierie sociale et mondialisation.



J’exposais dans cet opuscule comment certaines forces politiques et économiques cherchaient à implémenter une dictature numérique au moyen d’une stratégie du choc qui pouvait être une épidémie, et je citais à l’appui de cette prospective un texte manifeste de 2004, le Livre Bleu, rédigé par le lobby du numérique en France, le GIXEL (devenu ACSIEL en 2013), dans lequel étaient exposés certains stratagèmes pour faire accepter dans l’opinion publique le développement de l’identité numérique. Dans le cadre de sa fondation ID-2020, Bill Gates élabore aussi un système d’identification numérique pour le monde entier et cherche à le vendre ainsi : à cause du coronavirus, il faut vacciner toute la planète, et nous devons tous recevoir un certificat numérique de vaccination. Plusieurs technologies de certificat numérique plus ou moins invasives sont à l’étude : dans votre Smartphone ; dans un bracelet électronique ; sur la peau sous forme de tatouage à points quantiques ; sous la peau sous forme de puces électroniques. Si finalement nous pouvons avoir le choix et échapper à ce sort, c’est parce que nous aurons remporté le rapport de forces pour dire "Non !" Tout est axé autour de la formule confinement/distanciation sociale/vaccination/surveillance électronique, dont il faut attaquer chaque point.



R/ Que nous réserve la suite des événements, selon vous ?



En fait, il faut se poser la question : comment vais-je peser sur la suite des événements ? Il faut sortir du rôle de spectateur ou d’analyste des événements, il faut créer les événements. Le biopouvoir mondialiste a de gros moyens financiers pour créer des événements au niveau international, impacter le réel et écrire l’Histoire. Il possède des millions, donc, en face, nous devons être des millions.



Nous n’avons pas le capital économique, mais nous avons le capital humain. Pour créer l’événement, impacter le réel et écrire l’Histoire contre le biopouvoir, pour faire dérailler son programme, il faut se poser deux questions concrètes : comment gagner la bataille de l’opinion publique et comment organiser les masses politiquement ?



La bataille de l’opinion publique se gagne en se formant aux méthodes de communication stratégique et d’ingénierie sociale, rhétorique et retournement de l’opinion (spin), dans le réel ou sur les réseaux sociaux, du moins tant que c’est possible, car la prochaine crise devrait être cyber et toucher Internet, comme l’a annoncé Alain Bauer. Cette grande crise cybernétique et numérique, d’ampleur géopolitique et déclenchée par un virus informatique qui provoquerait le "bug du siècle", permettra au pouvoir de couper Internet au moins partiellement, et surtout de mettre fin à la réinformation indépendante avec un bon prétexte. C’est le programme du Grand Confinement, par l’addition du confinement physique et du confinement mental – cognitif et informationnel.



Le but ultime est d’abolir toute auto-organisation du peuple, donc toute autonomie dans l’organisation horizontale de la société. Pour cela, il faut d’abord couper les gens physiquement les uns des autres dans le réel, par le confinement physique, la distanciation sociale, le télétravail, et tenter de pérenniser ce nouvel ordre social en annonçant que "plus rien ne sera comme avant", comme on nous le martèle depuis des semaines. Puis, dans un deuxième temps, au prétexte d’une crise numérique globale, le pouvoir coupera les gens les uns des autres dans le virtuel aussi, avec un Internet en mode dégradé, limité au télétravail et à quelques messageries et portails inoffensifs, usages qui seront malgré tout conservés, ce qui sera présenté comme une victoire. Il faut essayer d’imaginer l’enfer que serait un confinement physique sans Internet, c’est-à-dire sans aucun accès à la réinformation, sans aucune possibilité de comprendre ce qui se passe car nous serions enfermés physiquement à domicile, ou dans un périmètre limité, et enfermés mentalement dans la narration exclusive du pouvoir, dans une seule version des événements. Dans d’autres publications, j’ai baptisé cette fabrique de l’aliénation mentale "reality-building", car elle repose sur le principe de l’hypnose : la parole de l’hypnotiseur devient la réalité de l’hypnotisé. 



Comment cela est-il possible ? Parce que l’hypnotisé, qui n’est pas forcément endormi, n’a pas d’autre source d’information que la parole de l’hypnotiseur. Avant d’en arriver là, avant qu’il ne soit trop tard, il y a urgence à gagner le combat politique, ce qui signifie prendre le pouvoir, et ne pas se contenter des contre-pouvoirs, dans la rue ou sur Internet, qui risquent fort de devenir impraticables de toute façon. Prendre le pouvoir signifie être en capacité de se faire obéir par les forces de l’ordre. L’activité métapolitique n’est donc pas suffisante, il faut investir aussi le champ politique du pouvoir légal. Les forces de l’ordre, qui ont une capacité de contrainte sur votre corps et votre esprit, n’obéissent pas à la métapolitique mais au gouvernement et à ses représentants locaux, c’est-à-dire à l’État. Il faut donc reprendre le contrôle de l’État si nous voulons sortir de l’impuissance à laquelle la métapolitique nous limite. Ceci suppose d’organiser les masses de manière structurée dans une perspective de conquête du pouvoir, ce qui suppose à son tour, et inévitablement, de jouer le jeu quelque peu ingrat de la politique politicienne et des organisations politiques de masse.

Auteur: Cerise Lucien

Info: Sur rebellion-sre.fr, 6 mai 2020

[ géopolitique ] [ anti-mondialisme ] [ manipulation des masses ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel