Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 33
Temps de recherche: 0.0516s

inférence

Le secret de toutes les machines qui raisonnent est après tout très sobre. C'est que quelles que soient les relations entre les objets raisonnés qui sont destinées à être la charnière d'une ratiocination, cette même relation générale doit pouvoir être introduite entre certaines parties de la machine. Par exemple, si nous voulons faire une machine qui soit capable de raisonner dans le syllogisme

Si A alors B,
Si B alors C,
Par conséquent, si A alors C,

il suffit d'avoir une relation qui peut être introduite à volonté, de sorte que lorsqu'un événement A se produit dans la machine, un autre événement B doit également se produire. Cette connexion étant introduite entre A et B, et aussi entre B et C, elle est nécessairement virtuellement introduite entre B et C. C'est le même principe qui est à la base de toute algèbre logique ; seulement qu'en algèbre, au lieu de dépendre directement des lois de la nature, on établit des règles convenues pour les relations à utiliser. Lorsque nous raisonnons sans aide, nous faisons sensiblement la même chose, c'est-à-dire que nous construisons une image à notre guise selon certaines conditions générales et observons le résultat. De ce point de vue également, chaque machine est une machine à raisonner, dans la mesure où il existe certaines relations entre ses parties, relations qui impliquent d'autres relations qui n'étaient pas expressément prévues. Un appareil pour réaliser une expérience physique ou chimique est aussi une machine à raisonner, avec cette différence qu'il ne dépend pas des lois de l'esprit humain, mais de la raison objective incarnée par les lois de la nature. Par conséquent, ce n'est pas une figure de rhétorique que de dire que les alambics et les cucurbitacées du chimiste sont des instruments de la pensée, ou des machines logiques.

Auteur: Peirce Charles Sanders

Info: Logical Machines. The American Journal of Psychology, 1, 165-170. 1887

[ induction ] [ tâtonnement ] [ simplicité ]

 

Commentaires: 0

Ajouté à la BD par miguel

dévotes

C’est à elles, en effet, qu’il faut faire remonter la moisissure qui envahit les églises et les chapelles du pays. Elles sont en effet arrivées à diriger les prêtres et non à être dirigées par eux. Et cela se conçoit : elles seules donnent de l’argent, remplissent les églises et occupent les prêtres. Les hommes assidus aux offices sont rares et par le phénomène que j’expliquais au commencement, ils sont d’une mentalité spéciale, ce sont de vieux enfants de chœur. Ils ont le même état de cervelle, les mêmes goûts que les femmes.
Ils ont poussé de toutes leurs forces aux dévotionnettes, aux saint Antoine de Padoue, aux Expedit, aux prières vocales communes des chapelets. Voyez-les le dimanche à la messe. Il n’en est pas trois qui sachent quelle est la messe du jour, qui la suivent. Ils lisent des prières en français, pendant que le prêtre officie, tout comme les femmes. C’est une chose incroyable que le clergé n’ait pas réagi contre ces pratiques et n’ait pas enseigné à ces gens les premiers éléments de la liturgie. Mais non, il s’est laissé, lui-même, influencer par cette clientèle, il a abondé dans son sens ; de là, ces prônes vraiment creux et puérils, nigauderies, ces ponts-neufs, dans un style assisté, ces sermons fades, aux périodes prévues, ces appels perpétuels au Sacré-Cœur ; cette rage de chanter au lieu des hymnes de l’Eglise, de bas cantiques.
Ils se sont efféminés, dévirilisés avec leur clientèle qui a déteint sur eux. A force de ne fréquenter que ces gens-là, les prêtres qui étaient peut-être intelligents à leurs débuts, sont devenus nigauds. Ils ont fait du catholicisme on ne sait quoi, ils ont dénaturé la religion, en la sucrant. Ce n’est plus un sentiment d’âme, une substance nutritive et cordiale, c’est de la confiture de cerise.

Auteur: Huysmans Joris-Karl

Info: Dans "Les rêveries d'un croyant grincheux", pages 26-27

[ décadence ] [ mièvre ] [ édulcorée ] [ bigotes ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

tueur

[...] ... Un jour, dans un magasin, j'assiste à un tour de magie, celui de la fausse guillotine. Vous mettez une pomme de terre sous la lame, tandis que quelqu'un passe son cou dans une ouverture prévue à cet effet. La lame tombe et seule la pomme de terre est coupée en deux. Le magicien demande un volontaire et une belle jeune fille blonde se présente, poussée par son petit ami. Tout le monde rigole. Moi, à ce moment, je flippe complètement et je perds contact avec la réalité. Cela n'aurait pas dû m'arriver. Comment imaginer que l'on puisse couper la tête de quelqu'un dans un magasin ? J'étais fasciné, ce concept de décapitation était tellement excitant à mes yeux qu'il m'a hanté pendant des semaines. Bien avant mon premier crime, je savais déjà que j'allais tuer, que cela se terminerait ainsi. Les fantasmes sont trop forts, trop violents. Je sais que je ne serai pas capable de les contrecarrer. Ils reviennent sans cesse à la charge et ils sont trop élaborés ... On parle quelquefois de la face obscure de telle ou telle personne. Tout le monde pense à des choses qu'il garde enfouies au plus profond, parce qu'elles sont par trop cruelles et horribles pour être exprimées : "J'aimerais lui faire sauter la tête, ou tuer ce type." Nous le faisons tous, un jour ou l'autre. Moi, j'y pensais tout le temps. J'avais constamment des pensées négatives. A un moment donné de votre croissance, vous parvenez à surmonter cette phase morbide. Moi, non. Un adulte peut guider un enfant en lui montrant une autre voie. Ma mère était là, au contraire, pour m'humilier et me battre. Elle me montrait à quel point les mâles étaient insignifiants. En quelque sorte, elle a précédé de quelques années les mouvements féministes ! Je sais que ce n'est pas juste de parler ainsi d'une morte qui n'est pas là pour se défendre. Son propre père avait été quelqu'un d'insignifiant et elle avait dû prendre les choses en main dès son plus jeune âge. Maman s'occupait de tout. Elle ne savait pas comment agir autrement. ... [...]

Auteur: Bourgoin Stéphane

Info: Serial Killers: Enquête mondiale sur les tueurs en série

[ psychose ] [ pervers ]

 

Commentaires: 0

dernières paroles

Comme de nombreux artistes de cirque, Fabrice Champion (1972 - 2011) se retrouva enfant à l'école de la piste pour dompter une énergie débordante. A 8 ans il déboule pour la première fois sous un chapiteau à Grenoble. Huit ans plus tard, il réussit le concours d'entrée au Centre national des arts du cirque où il choisit sa spécialité : voltigeur au trapèze. Et le voilà, dès sa sortie de l'école, en 1992, à performer dans la rue sur un camion-trapèze avec ses amis. De 1993 à 2004 il est la vedette principale de la troupe des Arts Sauts. Le 22 mai 2004 il percute en plein vol un de ses partenaires. S'ensuit une longue rééducation, aidé en cela par la pratique du bouddhisme. Tétraplégique, il reste trapéziste dans l'âme "une technique qui est la seule à offrir cet espace immense, en longueur, comme en hauteur". En 2010, il met en scène, répète et joue le spectacle de fin d'études des élèves de l'Ecole nationale des arts du cirque de Rosny-sous-Bois. Intitulé, avec la complicité des élèves : "Totem de cirque" (Mourrez-vous d'être vivant?). Pour ses futurs professionnels de la piste, Fabrice a tiré une sagesse et une méthode de son expérience. L'envie de transmettre une relation subtile et profonde au corps virtuose. Mais, celui qui évoquait l'envol du trapèze comme "un cadeau, celui de s'envoyer en l'air avec une maîtrise de soi, une prise de risque et un rapport au corps fantastique" rêvait depuis longtemps de chamanisme. Il part pour le Pérou. Seul. Quatorze heures d'avion d'abord, un trajet en hélicoptère, puis en pirogue pour une semaine d'initiation aux médecines traditionnelles amazoniennes. Après avoir avalé les plantes destinées à la cérémonie, on le retrouve mort le lendemain matin de la cérémonie chamanique. En résidence de travail au Cent Quatre, à Paris, Fabrice Champion répétait depuis un an un nouveau spectacle intitulé Nos Limites avec deux jeunes acrobates-danseurs. Avec eux, il avait inventé la "tétradanse", autrement dit la danse en mode tétraplégique. La création était prévue pour février 2012. Dans le film Acrobat réalisé en 2011 par Olivier Meyrou, qui a suivi sa féroce rééducation et son travail depuis six ans, la vision de Fabrice Champion sur son fauteuil roulant pris d'assaut par ses deux complices avant de tenter des acrobaties par terre avec eux, est impressionnante de beauté et d'émotion. Il confiait "que s'il pouvait choisir aujourd'hui entre marcher de nouveau et avoir plus confiance en lui", il préférait la seconde option. "Pour avoir plus confiance dans mes intuitions, ma force, quoique j'aie à offrir". On l'a compris : le compilateur, ayant pris connaissance de ce parcours singulier, n'aura pas eu grands efforts à faire pour s'imaginer une mort par ingurgitation d'un breuvage à base d'Ayahuasca, c'est-à-dire par abus de DMT. Ce qui lui permet de ne pas classer cette mort dans la catégorie des suicides. Il y voit un terme plus idoine, celui de "quête".

Auteur: Internet

Info: mis en forme par Mg

[ quête ]

 

Commentaires: 0

gènes

Une mauvaise herbe bizarre viole les règles
Au moins une plante désobéit aux lois fondamentales de la génétique : Une petite mauvaise herbe qui hérite ses gènes de ses grands-parents plutôt que de ses parents déroute des scientifiques, annoncent des chercheurs US.
Robert Pruitt, Professeur d'associé et une équipe de l'université de Purdue dans l'Indiana rapportent leur recherche dans le journal " Nature" d'aujourd'hui. Les résultats pourraient avoir des implications sur la façon dont les scientifiques comprennent les maladies génétique.
Ces scientifiques ont étudié un cresson, (Thaliana Arabidopsis), une mauvaise herbe qui prolifère entre autre dans les fissures des parcs de stationnement mais dont le modèle génétique est un des plus étroitement surveillé et connu.
Ils ont constaté qu'une fois croisée pour produire des caractéristiques particulières, la plante avait acquis, d'une façon ou d'une autre, des données génétiques d'une autre source que par ses parents.
Bien que d'autres organismes tels que la levure soient également connus pour obtenir leurs gènes d'une manière différente que celle, traditionnelle, des parents, les chercheurs disent que c'est la première description générale de ce mécanisme pour un organisme obtenant de l'information ADN d'ailleurs.
Pruitt indique qu'il est possible que les gènes aient été acquis pas par l'ADN mais par une molécule étroitement semblable appelé RNA, un intermédiaire cellulaire qui lit les instructions de l'ADN pour les transcrire en protéines
Les chercheurs ont multiplié plusieurs générations de cette mauvaise herbe. Multipliant d'abord des générations avec un gène doublé "hothead," se concentrant en particulier sur une version défectueuse de ce gène (qui fait en sorte que les pétales et des feuilles restent ensemble).
Dans les générations de plantes qu'ils ont étudiées, le cresson eut un gène fêlé de "hothead" une fois sur deux.
Ces plantes ont alors été croisées, et comme prévu, un quart de leur progéniture se retrouva avec deux gènes mutant, alors que trois quarts en avaient aucun, ou seulement un. Ceux avec les deux gènes mutant ont tous eu cette anomalie de pétales et de feuilles. Mais quand les plantes avec les deux gènes fêlés ont alors été croisées, quelque chose d'étrange s'est produit.
Selon les règles, toutes plantes de cette troisième génération auraient dû être anormales, puisque les seuls gènes qu'ils avaient en commun venaient de parents défectueux. Pourtant plus de 10% étaient normales.
Les scientifiques recherchent des gènes
Au début, Pruitt s'est demandé si des graines ou du pollen souillaient ses plantes. Mais les expériences répétées ont montré que ce n'était pas le cas, écartant tout autant la possibilité que, se cachant sur le génome de Thaliana Arabidopsis, il pourrait y avoir un autre gène qui duplique le gène de "hothead" en s'occupe de réparer avec ruse la défectuosité.
Exaspéré Pruitt a proposé l'idée que la progéniture normale avait acquis des données génétiques d'une autre source que celle de ses parents. L'idée de Pruitt est que cette information héréditaire pourrait être stockée sur l'ARN comme calibre moléculaire, et ainsi employée pour réparer certaines déviations dangereuses.
Si c'est vrai, la conclusion remarquable est que nos modèles génétiques ont une trousse à outils cachée, léguée par nos grands-parents et probablement au-delà, prévue pour guérir certaines mutations d'ADN qui causent de la maladie.
Dans un commentaire paru aussi dans "Nature" les biologistes moléculaires allemands Detlef Weigel de l'institut Max Planck et le professeur Gerd Jürgens de l'université de Tübingen, rendent hommages à "une découverte spectaculaire" en incitant aussi à la prudence. " Beaucoup d'expériences viennent à l'esprit pour explorer ce mécanisme de transmission peu orthodoxe qui peut sauter plusieurs générations " indiquent-ils.
Il est encore peu clair quant à savoir si cette qualité de self-guérison est unique à ce gène particulier, ( ou au cresson plus précisément ), ou si certaines des conditions régnant dans le laboratoire sont suspectes.
En France, Ian Small, sous-directeur des sciences à l'unité de recherches Génomique des plantes à Evry, près de Paris, dit que l'étude a des implications époustouflantes.
"Si ceci avait été publié le 1 avril, j'aurais immédiatement dit que c'est une plaisanterie d'imbécile" a-t-il dit au journal libération.

Auteur: Ingham Richard

Info: Agençe France-Presse Jeudi, 24 Mars 2005 avec ABC Science Online

 

Commentaires: 0

coûts cachés

Depuis trente ans, l’industrie électronique pille notre eau, qu’il neige, qu’il pleuve ou qu’on crève de chaud. En 2019, le site crollois de STMicroelectronics en a englouti 3,5 millions de mètres cubes. Depuis, il a agrandi sa ligne de production et lancé la nouvelle extension qui lui vaut cet été la visite de Macron. En ajoutant les voisins de Soitec et de Memscap, la "Silicon Valley française" exige 6 millions de mètres cubes d’eau par an, contraignant les collectivités à multiplier les infrastructures. Le pillage va s’accroître, puisque Macron annonce qu’on va produire "quatre fois plus" d’ici 2030. Le schéma d’aménagement et de gestion des eaux (Sage) adopté en 2018 annonce à cette échéance une hausse de 30 à 44 % des prélèvements destinés à Bernin et Crolles.

Ça ne suffit toujours pas. La "transition numérique et écologique" réclame son volume d’eau. Le 25 novembre 2021, la société a donc déposé une demande en préfecture pour créer deux forages dans la nappe de l’Isère cette fois, à l’aplomb de son site de Crolles, pour "sécuriser ses ressources en eau ; (…) maintenir le bon fonctionnement de ses ateliers de fabrication, et (…) poursuivre le développement de son activité́ au sein de son établissement de Crolles". La demande mentionne des besoins particuliers "lors des épisodes estivaux qui nécessitent la mise en service d’installations de réfrigération des ateliers très consommatrices d’eau".

Autorisation accordée sans difficulté par la Direction régionale de l’environnement, de l’aménagement et du logement (Dreal) le 19 mars 2022. Tandis que les fontaines publiques n’abreuvent plus personne, STMicroelectronics fore à plus de 20 mètres de profondeur pour pomper, "dans les eaux souterraines, y compris dans les nappes d’accompagnement de cours d’eau", 2,6 millions de mètres cubes d’eau supplémentaires par an, soit 300 m3 par heure.

Vingt ans et des canicules plus tard, Jean-François Clappaz, le vice-président à l’économie de la communauté de communes du Grésivaudan adresse cette demande inouïe à Macron : frapper le site de micro-électronique d’extra-territorialité pour l’exonérer de la règle du "zéro artificialisation nette" prévue dans la loi sur le climat. Objectif de cet élu incivique :

Faire en sorte qu’il (NdA : le site) ne soit pas impacté dans son évolution future par les mètres carrés indispensables à l’extension du site (sic) (…) Un investissement de 5,7 milliards d’euros nécessite que la loi s’adapte aux contraintes que l’on aura. Sinon, il ne pourra pas se réaliser, que ce soit pour ST et le ruisseau du Craponoz à côté, ou Soitec.

Le techno-gratin trahit en toute désinvolture ses habitudes d’arrangements administrativopolitiques. Il nous revient ce rapport de visite de la Drire, (Direction régionale de l'industrie, de la recherche et de l'environnement) en mars 2003, à propos des fumées polluantes de l’usine de Crolles :

La société STMicroelectronics (…) souhaite que les normes fixées en NOx par l'arrêté préfectoral du 08.10.01 soient revues compte tenu des difficultés à respecter la norme fixée (100 mg/Nm3)." Et donc, "les valeurs limite d'émission en NOx peuvent être fixées à 120 mg/Nm(gaz naturel) et 200 mg/Nm3 (FOD)."

[...]

Macron, Breton, les technocrates européens et français, imposent l’accélération à marche forcée de la production/destruction. En 2030, l’Europe produira peut-être deux fois plus de semiconducteurs. STMicroelectronics fournira toujours plus de puces aux Smartiens incapables de survivre sans connexion. En 2030, selon la géographe Magali Reghezza-Zitt, membre du Haut conseil pour le climat, Grenoble subira 37 jours de canicule. A cette échéance, le schéma d’aménagement et de gestion des eaux prévoit la fonte de la moitié des petits et des moyens glaciers qui alimentent la Romanche, le Drac et leurs nappes alluviales [...].

Comme dit Martial Saddier, le président haut-savoyard du comité de bassin RhôneMéditerranée (tout le bassin étant alimenté par les glaciers) : "aujourd’hui, on mange le capital". Qu’importe. En 2030, STMicroelectronics fera comme son concurrent taïwanais TSMC, qui engloutit 156 000 tonnes d’eau par jour : se faisant livrer par camions citernes lors des périodes de sécheresse.

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/stmicro_les_incendiaires_et_les_voleurs_d_eau.pdf

[ greenwashing ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

Cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d'autres robots conversationnels

Voici des astuces pour détecter ces textes qui ne sont pas écrits par des humaines.

1) Elles font des répétitions (mais pas de fautes)

Donc Si vous trouvez une coquille (faute de frappe, de grammaire, etc.) dans un texte, il s'agit d'un bon moyen de voir que l'article que vous lisez a été au minimum retouché par un être humain. En revanche, les articles rédigés par une IA sans supervision humaine sont souvent truffés de répétitions. L'écriture générative a en effet tendance à reproduire les mêmes termes et structures de phrases – même si c'est de moins en moins le cas. Les IA sont de plus en plus performantes et leurs utilisateurs savent également de mieux en mieux les utiliser pour contourner ces écueils.

Des logiciels ont même été développés afin de rendre encore plus humains les textes écrits par une IA. Le plus connu s'appelle Undetectable.ai et permet "d'humaniser" les textes artificiels en les confrontant aux principaux détecteurs d'IA qui existent. De fait, ces détecteurs deviennent de moins en moins fiables. "Open AI [l'entreprise créatrice de ChatGPT] a récemment abandonné son détecteur, car ça ne marche pas", fait remarquer Virginie Mathivet, spécialiste en la matière.

2 Elles sont capables d'affirmer des absurdités

Les IA sont très performantes pour les tâches très codifiées, comme l'orthographe, mais elles peuvent affirmer des absurdités sans sourciller. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire." Indique Amélie Cordier, ingénieure spécialiste des IA. 

Les sites qui utilisent des IA pour produire des articles à la chaîne, à partir de contenus trouvés sur internet, sont souvent confrontés à ce problème. Récemment, le site The Portal, qui traite de l'actualité du jeu vidéo, s'est fait épingler sur Twitter par le journaliste Grégory Rozières. Certains articles contiennent en effet de fausses informations grossières, car l'IA qui les rédige a repris au premier degré des blagues trouvées sur Reddit.

Lorsque vous lisez un article et qu'une information semble absurde, ou qu'un chiffre vous paraît démesuré, cela peut donc être la marque d'une rédaction non-humaine. Pour s'en assurer, le mieux est alors de vérifier l'information douteuse grâce à d'autres sources de confiance. "Cela revient à faire du fact-checking, c'est à l'humain d'avoir un regard critique", commente Virginie Mathivet.

3) Elles font preuve d'une productivité inhumaine

La rédaction par IA est encore loin d'être un gage de qualité, mais permet de produire un très grand nombre d'articles en un temps record. Prudence donc face aux sites qui publient quotidiennement une quantité faramineuse d'articles, sans pour autant employer de nombreuses personnes. "Si on voit qu'un blog publie 200 articles par jour sous le même nom, c'est un indice", explique Virginie Mathivet. Certains articles écrits par des robots sont signés par un nom, comme s'ils avaient été rédigés par une personne. Si cette signature semble trop prolifique, l'utilisation d'une IA est à suspecter fortement. Sur le site The Portal, déjà cité plus haut, un même "journaliste" a ainsi signé près de 7 000 articles en seulement neuf jours.

De plus, si les articles entre eux comportent de nombreuses similitudes dans leur forme et leur structure, il y a fort à parier que ceux-ci soient rédigés automatiquement. Les IA ont en effet tendance à produire des contenus très homogènes, surtout s'ils sont créés à partir de la même consigne utilisée en boucle. "L'IA imite, c'est la façon par laquelle elle fonctionne. Elle homogénéise un peu tout", fait remarquer Amélie Cordier.

4 Elles écrivent mal et citent rarement leurs source

Même si elles signent parfois d'un nom humain, les IA ne peuvent pas incarner leurs articles de la même manière qu'un journaliste en chair et en os. Si un journaliste n'a strictement aucune existence en ligne en dehors de sa page auteur, cela peut faire partie des indices qui laissent à penser à une rédaction par IA. Enfin, les articles publiés grâce à une IA ont souvent un ton très factuel, assez désincarné. Les IA citent très rarement leurs sources et ne font jamais intervenir de personne humaine sous forme de citation comme dans un article de presse.

Elles sont en revanche tout à fait capables d'en inventer si on leur demande de le faire. Dans un numéro paru en avril 2023, le magazine people allemand Die Aktuelle a poussé le vice jusqu'à publier une fausse interview exclusive de Michael Schumacher, générée par une AI, comme le raconte le site spécialisé Numerama. La famille de l'ancien champion de Formule 1 a porté plainte et la rédactrice en chef du magazine a finalement été limogée.

L'IA peut cependant être un outil intéressant, tant qu'elle reste sous supervision humaine. Le journaliste Jean Rognetta, créateur de la newsletter Qant, a quotidiennement recours à l'IA. Selon lui, il n'est "plus possible de reconnaître avec certitude un article écrit par une IA, si ce n'est que c'est souvent du mauvais journalisme". S'il utilise l'IA pour écrire sa newsletter, Jean Rognetta reste en effet convaincu de la nécessité d'effectuer une relecture et une correction humaine. "Notre newsletter est écrite avec, et non par une IA", martèle-t-il. Une approche qui pourrait bientôt se généraliser à d'autres journaux. Le 19 juillet dernier, le New York Times annonçait dans ses pages qu'un outil d'IA, destiné à automatiser certaines tâches effectuées par ses journalistes, était en cours de développement par Google.

5 Elles seront bientôt signalées par un filigrane

Face à la difficulté de plus en plus grande de détecter les contenus générés via une IA, l'Union européenne a adopté en juin dernier le "AI Act", avec l'objectif de réguler le secteur. A partir de l'application de la nouvelle réglementation, pas prévue avant 2026, les contenus générés par IA devront être signalés par un "watermark" (une signature en filigrane) indiquant clairement qu'ils n'ont pas été créés par un humain.

La forme de ce watermark n'est cependant pas encore entièrement définie. Il pourrait prendre la forme d'une phrase d'avertissement ou être dissimulé dans le texte, afin d'être moins facilement effaçable par les utilisateurs. Open AI a récemment annoncé travailler sur un watermark invisible. Comment ? Une récente étude (PDF) de l'université du Maryland propose par exemple que les IA soient programmées pour utiliser plus fréquemment une "liste spéciale" de mots définie à l'avance, permettant aux logiciels de détection d'être plus efficaces.

"Il y a de bonnes intentions au niveau de l'UE et des éditeurs, mais le problème reste la question de la mise en œuvre", estime Amélie Cordier. Si la régulation peut se mettre en place facilement pour les plus gros acteurs comme Open AI, Google, etc., elle sera impossible à imposer aux petites entités qui pullulent.

"Si l'utilisateur a le choix entre un logiciel avec 'watermark', ou un logiciel gratuit indétectable, la régulation risque d'être inefficace."

Une opinion que partage Virginie Mathivet, particulièrement en ce qui concerne les "fake news". "Une personne qui veut faire de la désinformation fera en sorte de ne pas avoir de watermark", conclut-elle.

Auteur: Internet

Info: https://www.francetvinfo.fr/, 2 sept 2023, Pauline Lecouvé

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

On m’a dit que je gaspillais mon temps 

Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et ­l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.

AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?

AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.

Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particuleAinsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.

Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.

AA - Et qu’appelle-t-on deuxième révolution quantique ?

AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.

Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.

AM - Comment a-t-on validé ce phénomène "d’intrication" ?

AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.

AM - Quelles expériences ont été réalisées pour établir cette intrication ?

AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.

Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.

AM - D’où vient votre passion pour la physique ?

Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.

Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.

AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?

AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.

On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.

On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche ­désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.



 

Auteur: Aspect Alain

Info: Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022

[ nano-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel