Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 912
Temps de recherche: 0.0664s

cheptel humain

Malgré tout le bonheur que m’a procuré, à titre personnel, chaque voyage entrepris ces dernières années, une impression tenace s’est imprimée dans mon esprit : une horreur silencieuse devant la monotonie du monde. Les modes de vie finissent par se ressembler, à tous se conformer à un schéma culturel homogène. Les coutumes propres à chaque peuple disparaissent, les costumes s’uniformisent, les mœurs prennent un caractère de plus en plus international. Les pays semblent, pour ainsi dire, ne plus se distinguer les uns des autres, les hommes s’activent et vivent selon un modèle unique, tandis que les villes paraissent toutes identiques. Paris est aux trois quarts américanisée, Vienne est budapestisée : l’arôme délicat de ce que les cultures ont de singulier se volatilise de plus en plus, les couleurs s’estompent avec une rapidité sans précédent et, sous la couche de vernis craquelé, affleure le piston couleur acier de l’activité mécanique, la machine du monde moderne. Ce processus est en marche depuis fort longtemps déjà : avant la guerre, Rathenau avait annoncé de manière prophétique cette mécanisation de l’existence, la prépondérance de la technique, comme étant le phénomène le plus important de notre époque. Or, jamais cette déchéance dans l’uniformité des modes de vie n’a été aussi précipitée, aussi versatile, que ces dernières années. Soyons clairs ! C’est sans doute le phénomène le plus brûlant, le plus capital de notre temps.

[…]

Conséquences : la disparition de toute individualité, jusque dans l’apparence extérieure. Le fait que les gens portent tous les mêmes vêtements, que les femmes revêtent toutes la même robe et le même maquillage n’est pas sans danger : la monotonie doit nécessairement pénétrer à l’intérieur. Les visages finissent par tous se ressembler, parce que soumis aux mêmes désirs, de même que les corps, qui s’exercent aux mêmes pratiques sportives, et les esprits, qui partagent les mêmes centres d’intérêt. Inconsciemment, une âme unique se crée, une âme de masse, mue par le désir accru d’uniformité, qui célèbre la dégénérescence des nerfs en faveur des muscles et la mort de l’individu en faveur d’un type générique. La conversation, cet art de la parole, s’use dans la danse et s’y disperse, le théâtre se galvaude au profit du cinéma, les usages de la mode, marquée par la rapidité, le “succès saisonnier”, imprègnent la littérature. Déjà, comme en Angleterre, la littérature populaire disparaît devant le phénomène qui va s’amplifiant du “livre de la saison”, de même que la forme éclair du succès se propage à la radio, diffusée simultanément sur toutes les stations européennes avant de s’évaporer dans la seconde qui suit. Et comme tout est orienté vers le court terme, la consommation augmente : ainsi, l’éducation, qui se poursuivait de manière patiente et rationnelle, et prédominait tout au long d’une vie, devient un phénomène très rare à notre époque, comme tout ce qui s’acquiert grâce à un effort personnel.

[…]

Toutes ces choses, que j’ai seulement évoquées, le cinéma, la radio, la danse, tous ces nouveaux moyens de mécanisation de l’humanité, exercent un pouvoir énorme qui ne peut être dépassé. Toutes répondent en effet à l’idéal le plus élevé de la moyenne : offrir du plaisir sans exiger d’effort. Et leur force imbattable réside en cela : elles sont incroyablement confortables. La nouvelle danse peut être apprise en trois heures par la femme de ménage la plus maladroite, le cinéma ravit les analphabètes, desquels on n’exige pas une grande éducation pour profiter de la radio ; il suffit de mettre les écouteurs sur la tête, pour déjà l’entendre rouler dans l’oreille – même les dieux luttent en vain contre un tel confort. Ce qui n’exige que le minimum d’effort, mental et physique, et le minimum de force morale doit nécessairement l’emporter auprès des masses, dans la mesure où cela suscite la passion de la majorité. Et ce qui aujourd’hui encore réclame l’indépendance, l’autodétermination ou la personnalité dans le plaisir paraît dérisoire face à un pouvoir aussi surdimensionné. À vrai dire, au moment où l’humanité s’ennuie toujours davantage et devient de plus en plus monotone, il ne lui arrive rien d’autre que ce qu’elle désire au plus profond d’elle-même. L’indépendance dans le mode de vie et même dans la jouissance de la vie ne constitue plus, désormais, un objectif, tant la plupart des gens ne s’aperçoivent pas à quel point ils sont devenus des particules, des atomes d’une violence gigantesque. Ils se laissent ainsi entraîner par le courant qui les happe vers le vide ; comme le disait Tacite : “ruere in servitium”, ils se jettent dans l’esclavage […].

Ainsi, aucune résistance ! Ce serait une présomption scandaleuse que d’essayer d’éloigner les gens de ces petits plaisirs (intérieurement vides). Parce que nous – pour être honnêtes – qu’avons-nous d’autre à leur donner ? Nos livres ne les touchent plus, car ils ont cessé depuis longtemps de procurer les sueurs froides ou les excitations fébriles, que le sport et le cinéma prodiguent à foison. Ils ont même l’impudence d’exiger au préalable de nos livres, de notre effort mental et de notre éducation, une coopération des sentiments et une tension de l’âme. Nous sommes devenus – admettons-le – terriblement étrangers à tous ces plaisirs et passions de masse et donc à l’esprit de l’époque, nous, dont la culture spirituelle est une passion pour la vie, nous, qui ne nous ennuyons jamais, pour qui chaque jour est trop court de six heures, nous, qui n’avons besoin ni de dispositifs pour tuer le temps ni de machines d’arcade, ni de danse, ni de cinéma, ni de radio, ni de bridge, ni de défilés de mode. Il nous suffit de passer devant un panneau d’affichage dans une grande ville ou de lire un journal qui décrit en détail les batailles homériques des matchs de football pour sentir que nous sommes déjà devenus des outsiders, tels les derniers encyclopédistes pendant la Révolution française, une espèce aussi rare et menacée d’extinction aujourd’hui en Europe que les chamois et les edelweiss. Peut-être qu’un jour un parc naturel sera créé pour nous, derniers spécimens d’une espèce rare, pour nous préserver et nous conserver respectueusement en tant que curiosités de l’époque, mais nous devons avoir conscience que nous manquons depuis longtemps d’un quelconque pouvoir pour tenter la moindre chose contre cette uniformité croissante du monde. Devant cette lumière éblouissante de fête foraine, nous ne pouvons que demeurer dans l’ombre et, tels les moines des monastères pendant les grandes guerres et les grands bouleversements, consigner dans des chroniques et des descriptions un état de choses que, comme eux, nous tenons pour une déroute de l’esprit.

Auteur: Zweig Stefan

Info: L'uniformisation du monde

[ indifférenciation ] [ loisirs ] [ industrialisation ] [ normalisation ]

 
Commentaires: 9
Ajouté à la BD par Coli Masson

amélioration

Le progrès est devenu le moyen de l'aliénation
Cela fait des décennies, sinon un siècle ou deux, que des gens cherchent le mot, l'ont "sur le bout de la langue", qu'il leur échappe, leur laissant une vive et chagrine frustration - sans le mot, comment dire la chose ?
Comment donner et nommer la raison du désarroi, de la révolte, du deuil et pour finir du découragement et d'une indifférence sans fond. Comme si l'on avait été amputé d'une partie du cerveau : amnésie, zone blanche dans la matière grise.
La politique, en tout cas la politique démocratique, commence avec les mots et l'usage des mots ; elle consiste pour une part prépondérante à nommer les choses et donc à les nommer du mot juste, avec une exactitude flaubertienne. Nommer une chose, c'est former une idée. Les idées ont des conséquences qui s'ensuivent inévitablement.
La plus grande part du travail d'élaboration de la novlangue, dans 1984, consiste non pas à créer, mais à supprimer des mots, et donc des idées - de mauvaises idées, des idées nocives du point du vue du Parti -, et donc toute velléité d'action en conséquence de ces mots formulant de mauvaises idées.
Nous sommes tombés sur "regrès", il y a fort peu de temps, un bon et vieux mot de français, tombé en désuétude comme on dit, bon pour le dictionnaire des obsolètes qui est le cimetière des mots. Et des idées. Et de leurs conséquences, bonnes ou mauvaises. Un mot "oublié" ?
Difficile de croire que le mot "regrès", antonyme du "progrès" ait disparu par hasard de la langue et des têtes. Le mouvement historique de l'idéologie à un moment quelconque du XIXe siècle a décidé que désormais, il n'y aurait plus que du progrès, et que le mot de regrès n'aurait pas plus d'usage que la plus grande part du vocabulaire du cheval aujourd'hui disparu avec l'animal et ses multiples usages qui entretenaient une telle familiarité entre lui et l'homme d'autrefois.
Ainsi les victimes du Progrès, de sa rançon et de ses dégâts, n'auraient plus de mot pour se plaindre. Ils seraient juste des arriérés et des réactionnaires : le camp du mal et des maudits voués aux poubelles de l'histoire. Si vous trouvez que l'on enfonce des portes ouvertes, vous avez raison. L'étonnant est qu'il faille encore les enfoncer.
Place au Tout-Progrès donc. Le mot lui-même n'avait à l'origine nulle connotation positive. Il désignait simplement une avancée, une progression. Même les plus acharnés progressistes concéderont que l'avancée - le progrès - d'un mal, du chaos climatique, d'une épidémie, d'une famine ou de tout autre phénomène négatif n'est ni un petit pas ni un grand bond en avant pour l'humanité. Surtout lorsqu'elle se juge elle-même, par la voix de ses autorités scientifiques, politiques, religieuses et morales, au bord du gouffre.
Ce qui a rendu le progrès si positif et impératif, c'est son alliance avec le pouvoir, énoncée par Bacon, le philosophe anglais, à l'aube de la pensée scientifique et rationaliste moderne : "Savoir c'est pouvoir". Cette alliance dont la bourgeoisie marchande et industrielle a été l'agente et la bénéficiaire principale a conquis le monde. Le pouvoir va au savoir comme l'argent à l'argent. Le pouvoir va au pouvoir.
Le progrès est l'arme du pouvoir sur les sans pouvoirs
Et c'est la leçon qu'en tire Marx dans La Guerre civile en France. Les sans pouvoirs ne peuvent pas se "réapproprier" un mode de production qui exige à la fois des capitaux gigantesques et une hiérarchie implacable. L'organisation scientifique de la société exige des scientifiques à sa tête : on ne gère pas cette société ni une centrale nucléaire en assemblée générale, avec démocratie directe et rotation des tâches. Ceux qui savent, décident, quel que soit l'habillage de leur pouvoir.
Contrairement à ce que s'imaginait Tocqueville dans une page célèbre, sur le caractère "providentiel" du progrès scientifique et démocratique, entrelacé dans son esprit, le progrès scientifique est d'abord celui du pouvoir sur les sans pouvoirs.
Certes, une technicienne aux commandes d'un drone, peut exterminer un guerrier viriliste, à distance et sans risque. Mais cela ne signifie aucun progrès de l'égalité des conditions. Simplement un progrès de l'inégalité des armements et des classes sociales.
C'est cette avance scientifique qui a éliminé des peuples multiples là-bas, des classes multiples ici et prolongé l'emprise étatique dans tous les recoins du pays, de la société et des (in)dividus par l'emprise numérique.
Chaque progrès de la puissance technologique se paye d'un regrès de la condition humaine et de l'émancipation sociale. C'est désormais un truisme que les machines, les robots et l'automation éliminent l'homme de la production et de la reproduction. Les machines éliminent l'homme des rapports humains (sexuels, sociaux, familiaux) ; elles l'éliminent de lui-même. A quoi bon vivre ? Elles le font tellement mieux que lui.
Non seulement le mot de "Progrès" - connoté à tort positivement - s'est emparé du monopole idéologique de l'ère technologique, mais cette coalition de collabos de la machine, scientifiques transhumanistes, entrepreneurs high tech, penseurs queers et autres avatars de la French theory, s'est elle-même emparé du monopole du mot "Progrès" et des idées associées. Double monopole donc, et double escroquerie sémantique.
Ces progressistes au plan technologique sont des régressistes au plan social et humain. Ce qu'en langage commun on nomme des réactionnaires, des partisans de la pire régression sociale et humaine. Cette réaction politique - mais toujours à l'avant-garde technoscientifique - trouve son expression dans le futurisme italien (Marinetti) (1), dans le communisme russe (Trotsky notamment), dans le fascisme et le nazisme, tous mouvements d'ingénieurs des hommes et des âmes, visant le modelage de l'homme nouveau, de l'Ubermensch, du cyborg, de l'homme bionique, à partir de la pâte humaine, hybridée d'implants et d'interfaces.
Le fascisme, le nazisme et le communisme n'ont succombé que face au surcroît de puissance technoscientifique des USA (nucléaire, informatique, fusées, etc.). Mais l'essence du mouvement, la volonté de puissance technoscientifique, s'est réincarnée et amplifiée à travers de nouvelles enveloppes politiques.
Dès 1945, Norbert Wiener mettait au point la cybernétique, la " machine à gouverner " et " l'usine automatisée ", c'est-à-dire la fourmilière technologique avec ses rouages et ses connexions, ses insectes sociaux-mécaniques, ex-humains. Son disciple, Kevin Warwick, déclare aujourd'hui : " Il y aura des gens implantés, hybridés et ceux-ci domineront le monde. Les autres qui ne le seront pas, ne seront pas plus utiles que nos vaches actuelles gardées au pré. " (2)
Ceux qui ne le croient pas, ne croyaient pas Mein Kampf en 1933. C'est ce techno-totalitarisme, ce " fascisme " de notre temps que nous combattons, nous, luddites et animaux politiques, et nous vous appelons à l'aide.
Brisons la machine.

Auteur: PMO

Info:

[ décadence ]

 

Commentaires: 0

analyse holistique

Un type de raisonnement que l'AI ne peut remplacer

L'ingénieur en logiciel et philosophe William J. Littlefield II fait remarquer dans un essai récent qu'il existe trois types de raisonnement. Dont deux d'entre eux que nous avons probablement tous appris à l'école : le raisonnement déductif et inductif. Les ordinateurs peuvent très bien faire les deux.

Le raisonnement déductif : Les chiens sont des chiens. Tuffy est un chien. Tuffy est donc un chien.

Les premiers ordinateurs, dit Littlefield, utilisaient généralement le raisonnement déductif (qu'il considère comme un raisonnement "descendant"). Ce qui permet à de puissants ordinateurs de battre les humains à des jeux comme les échecs et le Go en calculant beaucoup plus de mouvements logiques à la fois qu'un humain ne peut le faire.

Le raisonnement inductif, en revanche, est un raisonnement "ascendant", qui va d'une série de faits pertinents à une conclusion, par exemple :

Un club a organisé 60 compétitions de natation, 20 dans chaque lieu ci-dessous :

Lorsque le Club organise des compétitions de natation à Sandy Point, nous obtenons en moyenne 80 % de votes d'approbation.

Lorsque le Club organise des compétitions de natation à Stony Point, nous obtenons en moyenne 60 % des suffrages.

Lorsque le Club organise des compétitions de natation à Rocky Point, nous obtenons une approbation moyenne de 40 %.

Conclusion : Les membres du club préfèrent les plages de sable fin aux autres types de plages.

Ici aussi l'avènement de nouvelles méthodes comme les réseaux neuronaux a permis à de puissants ordinateurs d'assembler une grande quantité d'information afin de permettre un tel raisonnement inductif (Big Data).

Cependant, le Flop IBM de Watson en médecine (supposée aider à soigner le cancer on vit l'AI incapable de discerner les infos pertinentes dans une grande masse de données) suggère que dans les situations où - contrairement aux échecs - il n'y a pas vraiment de "règles", les machines ont beaucoup de difficulté à décider quelles données choisir. Peut-être qu'un jour une encore plus grande masse de données résoudra ce problème. Nous verrons bien.

Mais, selon Littlefield, le troisième type de raisonnement, le raisonnement abductif, fonctionne un peu différemment :

"Contrairement à l'induction ou à la déduction, où nous commençons par des cas pour tirer des conclusions sur une règle, ou vice versa, avec l'abduction, nous générons une hypothèse pour expliquer la relation entre une situation et une règle. De façon plus concise, dans le raisonnement abductif, nous faisons une supposition éclairée." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

Le raisonnement abductif, décrit à l'origine par un philosophe américain Charles Sanders Peirce (1839-1914), est parfois appelé "inférence vers la meilleure explication", comme dans l'exemple qui suit :

"Un matin, vous entrez dans la cuisine et trouvez une assiette et une tasse sur la table, avec de la chapelure et une noix de beurre dessus, le tout accompagné d'un pot de confiture, un paquet de sucre et un carton vide de lait. Vous en concluez que l'un de vos colocataires s'est levé la nuit pour se préparer une collation de minuit et qu'il était trop fatigué pour débarrasser la table. C'est ce qui, à votre avis, explique le mieux la scène à laquelle vous êtes confronté. Certes, il se peut que quelqu'un ait cambriolé la maison et ait pris le temps de manger un morceau pendant sur le tas, ou qu'un colocataire ait arrangé les choses sur la table sans prendre de collation de minuit, mais juste pour vous faire croire que quelqu'un a pris une collation de minuit. Mais ces hypothèses vous semblent présenter des explications beaucoup plus fantaisistes des données que celle à laquelle vous faites référence." Igor Douven, "Abduction" à l'Encyclopédie Stanford de Philosophie

Notez que la conclusion n'est pas une déduction stricte qu'il n'y a pas non plus suffisamment de preuves pour une induction. Nous choisissons simplement l'explication la plus simple qui tient compte de tous les faits, en gardant à l'esprit la possibilité que de nouvelles preuves nous obligent à reconsidérer notre opinion.

Pourquoi les ordinateurs ne peuvent-ils pas faire ça ? Littlefield dit qu'ils resteraient coincés dans une boucle sans fin :

Une part de ce qui rend l'enlèvement difficile, c'est que nous devons déduire certaines hypothèses probables à partir d'un ensemble vraiment infini d'explications....

"La raison pour laquelle c'est important, c'est que lorsque nous sommes confrontés à des problèmes complexes, une partie de la façon dont nous les résolvons consiste à bricoler. Nous jouons en essayant plusieurs approches, en gardant notre propre système de valeurs fluide pendant que nous cherchons des solutions potentielles. Plus précisément, nous générons des hypothèses. Où 'un ordinateur peut être coincé dans une boucle sans fin, itérant sur des explications infinies, nous utilisons nos systèmes de valeurs pour déduire rapidement quelles explications sont à la fois valables et probables. Peirce savait que le raisonnement abductif était au cœur de la façon dont nous nous attaquons à de nouveaux problèmes ; il pensait en particulier que c'était la façon dont les scientifiques découvrent les choses. Ils observent des phénomènes inattendus et génèrent des hypothèses qui expliquent pourquoi ils se produisent." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

En d'autres termes, le raisonnement abductif n'est pas à proprement parler une forme de calcul, mais plutôt une supposition éclairée - une évaluation des probabilités fondée sur l'expérience. Il joue un rôle important dans la création d'hypothèses dans les sciences :

"Par exemple, un élève peut avoir remarqué que le pain semble se moisir plus rapidement dans la boîte à pain que dans le réfrigérateur. Le raisonnement abductif amène le jeune chercheur à supposer que la température détermine le taux de croissance des moisissures, comme l'hypothèse qui correspondrait le mieux aux données probantes, si elle est vraie.
Ce processus de raisonnement abductif est vrai qu'il s'agisse d'une expérience scolaire ou d'une thèse de troisième cycle sur l'astrophysique avancée. La pensée abductive permet aux chercheurs de maximiser leur temps et leurs ressources en se concentrant sur une ligne d'expérimentation réaliste.
L'enlèvement est considéré comme le point de départ du processus de recherche, donnant une explication rationnelle, permettant au raisonnement déductif de dicter le plan expérimental exact." Maryn Shuttleworth, "Abductive Reasining" Chez Explorable.com

Comme on peut le voir, le raisonnement abductif fait appel à une certaine créativité parce que l'hypothèse suggérée doit être développée comme une idée et non seulement additionnée à partir d'informations existantes. Et la créativité n'est pas quelque chose que les ordinateurs font vraiment.

C'est l'une des raisons invoquées par le philosophe Jay Richards dans The Human Advantage : L'avenir du travail américain à l'ère des machines intelligentes, comme quoi l'IA ne mettra pas la plupart des humains au chômage. Au contraire, elle changera la nature des emplois, généralement en récompensant la créativité, la flexibilité et une variété d'autres caractéristiques qui ne peuvent être calculées ou automatisées.

Auteur: Internet

Info: https://mindmatters.ai/2019/10/a-type-of-reasoning-ai-cant-replace/, 10 Oct. 2019

[ optimisme ] [ informatique ]

 
Commentaires: 3
Ajouté à la BD par miguel

intelligence artificielle

Cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d'autres robots conversationnels

Voici des astuces pour détecter ces textes qui ne sont pas écrits par des humaines.

1) Elles font des répétitions (mais pas de fautes)

Donc Si vous trouvez une coquille (faute de frappe, de grammaire, etc.) dans un texte, il s'agit d'un bon moyen de voir que l'article que vous lisez a été au minimum retouché par un être humain. En revanche, les articles rédigés par une IA sans supervision humaine sont souvent truffés de répétitions. L'écriture générative a en effet tendance à reproduire les mêmes termes et structures de phrases – même si c'est de moins en moins le cas. Les IA sont de plus en plus performantes et leurs utilisateurs savent également de mieux en mieux les utiliser pour contourner ces écueils.

Des logiciels ont même été développés afin de rendre encore plus humains les textes écrits par une IA. Le plus connu s'appelle Undetectable.ai et permet "d'humaniser" les textes artificiels en les confrontant aux principaux détecteurs d'IA qui existent. De fait, ces détecteurs deviennent de moins en moins fiables. "Open AI [l'entreprise créatrice de ChatGPT] a récemment abandonné son détecteur, car ça ne marche pas", fait remarquer Virginie Mathivet, spécialiste en la matière.

2 Elles sont capables d'affirmer des absurdités

Les IA sont très performantes pour les tâches très codifiées, comme l'orthographe, mais elles peuvent affirmer des absurdités sans sourciller. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire." Indique Amélie Cordier, ingénieure spécialiste des IA. 

Les sites qui utilisent des IA pour produire des articles à la chaîne, à partir de contenus trouvés sur internet, sont souvent confrontés à ce problème. Récemment, le site The Portal, qui traite de l'actualité du jeu vidéo, s'est fait épingler sur Twitter par le journaliste Grégory Rozières. Certains articles contiennent en effet de fausses informations grossières, car l'IA qui les rédige a repris au premier degré des blagues trouvées sur Reddit.

Lorsque vous lisez un article et qu'une information semble absurde, ou qu'un chiffre vous paraît démesuré, cela peut donc être la marque d'une rédaction non-humaine. Pour s'en assurer, le mieux est alors de vérifier l'information douteuse grâce à d'autres sources de confiance. "Cela revient à faire du fact-checking, c'est à l'humain d'avoir un regard critique", commente Virginie Mathivet.

3) Elles font preuve d'une productivité inhumaine

La rédaction par IA est encore loin d'être un gage de qualité, mais permet de produire un très grand nombre d'articles en un temps record. Prudence donc face aux sites qui publient quotidiennement une quantité faramineuse d'articles, sans pour autant employer de nombreuses personnes. "Si on voit qu'un blog publie 200 articles par jour sous le même nom, c'est un indice", explique Virginie Mathivet. Certains articles écrits par des robots sont signés par un nom, comme s'ils avaient été rédigés par une personne. Si cette signature semble trop prolifique, l'utilisation d'une IA est à suspecter fortement. Sur le site The Portal, déjà cité plus haut, un même "journaliste" a ainsi signé près de 7 000 articles en seulement neuf jours.

De plus, si les articles entre eux comportent de nombreuses similitudes dans leur forme et leur structure, il y a fort à parier que ceux-ci soient rédigés automatiquement. Les IA ont en effet tendance à produire des contenus très homogènes, surtout s'ils sont créés à partir de la même consigne utilisée en boucle. "L'IA imite, c'est la façon par laquelle elle fonctionne. Elle homogénéise un peu tout", fait remarquer Amélie Cordier.

4 Elles écrivent mal et citent rarement leurs source

Même si elles signent parfois d'un nom humain, les IA ne peuvent pas incarner leurs articles de la même manière qu'un journaliste en chair et en os. Si un journaliste n'a strictement aucune existence en ligne en dehors de sa page auteur, cela peut faire partie des indices qui laissent à penser à une rédaction par IA. Enfin, les articles publiés grâce à une IA ont souvent un ton très factuel, assez désincarné. Les IA citent très rarement leurs sources et ne font jamais intervenir de personne humaine sous forme de citation comme dans un article de presse.

Elles sont en revanche tout à fait capables d'en inventer si on leur demande de le faire. Dans un numéro paru en avril 2023, le magazine people allemand Die Aktuelle a poussé le vice jusqu'à publier une fausse interview exclusive de Michael Schumacher, générée par une AI, comme le raconte le site spécialisé Numerama. La famille de l'ancien champion de Formule 1 a porté plainte et la rédactrice en chef du magazine a finalement été limogée.

L'IA peut cependant être un outil intéressant, tant qu'elle reste sous supervision humaine. Le journaliste Jean Rognetta, créateur de la newsletter Qant, a quotidiennement recours à l'IA. Selon lui, il n'est "plus possible de reconnaître avec certitude un article écrit par une IA, si ce n'est que c'est souvent du mauvais journalisme". S'il utilise l'IA pour écrire sa newsletter, Jean Rognetta reste en effet convaincu de la nécessité d'effectuer une relecture et une correction humaine. "Notre newsletter est écrite avec, et non par une IA", martèle-t-il. Une approche qui pourrait bientôt se généraliser à d'autres journaux. Le 19 juillet dernier, le New York Times annonçait dans ses pages qu'un outil d'IA, destiné à automatiser certaines tâches effectuées par ses journalistes, était en cours de développement par Google.

5 Elles seront bientôt signalées par un filigrane

Face à la difficulté de plus en plus grande de détecter les contenus générés via une IA, l'Union européenne a adopté en juin dernier le "AI Act", avec l'objectif de réguler le secteur. A partir de l'application de la nouvelle réglementation, pas prévue avant 2026, les contenus générés par IA devront être signalés par un "watermark" (une signature en filigrane) indiquant clairement qu'ils n'ont pas été créés par un humain.

La forme de ce watermark n'est cependant pas encore entièrement définie. Il pourrait prendre la forme d'une phrase d'avertissement ou être dissimulé dans le texte, afin d'être moins facilement effaçable par les utilisateurs. Open AI a récemment annoncé travailler sur un watermark invisible. Comment ? Une récente étude (PDF) de l'université du Maryland propose par exemple que les IA soient programmées pour utiliser plus fréquemment une "liste spéciale" de mots définie à l'avance, permettant aux logiciels de détection d'être plus efficaces.

"Il y a de bonnes intentions au niveau de l'UE et des éditeurs, mais le problème reste la question de la mise en œuvre", estime Amélie Cordier. Si la régulation peut se mettre en place facilement pour les plus gros acteurs comme Open AI, Google, etc., elle sera impossible à imposer aux petites entités qui pullulent.

"Si l'utilisateur a le choix entre un logiciel avec 'watermark', ou un logiciel gratuit indétectable, la régulation risque d'être inefficace."

Une opinion que partage Virginie Mathivet, particulièrement en ce qui concerne les "fake news". "Une personne qui veut faire de la désinformation fera en sorte de ne pas avoir de watermark", conclut-elle.

Auteur: Internet

Info: https://www.francetvinfo.fr/, 2 sept 2023, Pauline Lecouvé

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-par-hommes

Depuis longtemps déjà, on a écrit que les mouvements des cuisses à bicyclette provoquaient des frottements, des frictions des lèvres et du clitoris et amenaient la femme à des pratiques vicieuses. Le grand argument de ceux qui appuyaient cette théorie était d'après eux la ressemblance entre les mouvements que fait l'ouvrière actionnant une machine à coudre et une touriste actionnant un cycle. Voici, découpées, dans un journal nullement médical, et qui, pour cette raison, tranche gravement les questions de médecine, quelques lignes parues au milieu de l'année 1894 :

"Pour les femmes, l'effet résultant de l'usage de la bicyclette est aussi très grave. Qu'on se souvienne des désordres, constatés médicalement, que causent les machines à coudre chez les ouvrières qui en font un usage constant et se livrent à cette fatigante occupation du matin au soir. Toutes sortes de maladies de genre spécial se sont révélées chez ces laborieuses, mais un fait particulier a été remarqué également, c'est le développement précoce dans ce milieu de travail de la nymphomanie et de l'hystérie caractérisée. La cyclomanie, en dehors de ses périls ordinaires, comporte pour les femmes les mêmes inconvénients que la machine à coudre. Elle amène les mêmes effervescences, les mêmes surexcitations lubriques, les mêmes accès de folie sensuelle."

Belle tirade peut-être, mais combien fausse ; il va nous être facile de le démontrer, tant par les articles des maîtres qui ont écrit sur ce sujet que par les résultats de notre enquête et de notre expérience déjà ancienne.

Il est très difficile, au premier abord, pour les médecins, dit le docteur Martin, d'analyser les sensations ressenties par les femmes qui recherchent dans cet instrument une excitation génésique d'ordre particulier, et la délicatesse du sujet empêchera souvent de pousser jusque-là l'interrogatoire, sans compter les révélations sur la voie desquelles on mettrait, par cela même, des jeunes filles inconscientes du fait.

Les effets produits par la machine à coudre et la bicyclette ont été comparés. On sait combien l'emploi de la première peut avoir de dangers, car le mouvement de va-et-vient de la pédale n'est ni large, ni complet, il ébranle la partie inférieure du corps ; c'est une sorte de crispation des mollets qui n'est pas compensée par le balancement du corps et des bras, les grandes lèvres frottent sur les petites et la chaleur qui en résulte provoque fréquemment l'onanisme.

Une femme à la machine à coudre reste dans une atmosphère confinée et doit avoir les yeux sur son travail. La position occasionne une pression sur les organes pelviens. Avec son mouvement court, rapide, limité aux muscles de la cuisse et du jarret sans déplacement du sujet, la machine à coudre ne peut être comparée à la bicyclette, qui met en action tout le membre inférieur et qui est utilisée en plein air. (...)

Tandis qu'à bicyclette, s'il y a masturbation, c'est qu'il y a manoeuvre de la femme, soit en se penchant en avant sur le pommeau de la selle, de façon à ce que la vulve vienne à frictionner sur ce pommeau, soit en serrant les cuisses pour actionner l'une contre l'autre les grandes lèvres et transmettre ainsi le mouvement aux petites lèvres et au clitoris." ( ... )

M. Verchère connaît une jeune dame bicycliste qui lui a avoué s'offrir à volonté, sur sa bicyclette, deux ou trois séances, à intervalles voulus, de masturbation complète. Elle avoua aussi, il est vrai, qu'elle avait d'autres procédés pour remplacer sa bicyclette.

D'autre part, M. Dickinson, dans The American Journal of Obstetrics (1895), écrit qu'une jeune femme, possédant une expérience très grande des plaisirs sexuels, ne pouvait pas obtenir de jouissances plus intenses que celles produites par l'usage de la bicyclette.

M. Wance a vu une jeune fille de 15 ans, cycliste assidue, devenue pâle, surmenée, quelque peu émaciée. Le bec de la selle faisait un angle de 35 degrés, s'abaissait et se relevait d'une manière sensible pendant la course. Il était facile de comprendre la cause de l'état de fatigue générale de la malade.

M. Martin a interrogé un grand nombre de femmes au sujet des sensations voluptueuses ressenties à bicyclette, et elles lui ont répondu affirmativement. Il est des cas où cette sorte de masturbation sportive les excite à tel point qu'elles augmentent progressivement leur vitesse, filent souvent avec une grande rapidité dans les descentes, sans apercevoir les obstacles placés sur leur chemin. C'est ainsi que l'une d'elles monta sur un trottoir et ne s'arrêta que par une chute heureusement peu grave dans un fossé. Une autre, dans les premières séances d'apprentissage, était tellement excitée qu'elle se précipita pâmée dans les bras du jeune homme qui la guidait dans ses exercices. Un ami de Monsieur le docteur Martin lui raconta qu'il était arrivé à être jaloux de la bicyclette. Sa maîtresse le délaissait chaque jour pour courir à son sport favori et arrivait au logis lassata, sed etiam satiata.

Il nous serait possible de multiplier ce genre d'observations. Ces faits ne sont pas rares, mais, hâtons-nous de le dire, ils appartiennent presque tous à cette classe de femmes désoeuvrées, qui dépensent le temps de la manière la plus joyeuse et la plus futile et dont la recherche d'émotions et de plaisirs est la principale occupation ; cependant nous les avons aussi rencontrés chez les femmes honnêtes. Les femmes qui recherchent l'excitation sexuelle et pour qui, suivant l'expression de Donnay, l'oxygène est presque un amant, trouveraient donc dans la bicyclette le moyen de satisfaire leur passion.

"La chose ne doit pas nous surprendre, mais pour nous il n'est pas besoin d'être perverti sexuel pour arriver à cette masturbation d'un nouveau genre. La femme grisée par le grand air, la vitesse, s'abandonne peu à peu à l'excitation ressentie, à la sensation de jouissance spéciale qui est peut-être la cause du plaisir éprouvé par elle sur une balançoire, sur les montagnes russes, plaisir qui souvent la conduit jusqu'à la volupté. Aussi faudra-t-il prescrire avec prudence l'usage du cyclisme chez les jeunes filles de 12 à 13 ans, au moment où la puberté s'établit. Il pourrait y avoir des inconvénients au point de vue de l'éveil de l'instinct génésique."

Certes, il y a des femmes qui éprouvent plus ou moins facilement des sensations voluptueuses, et il y a surtout des femmes qui les éprouvent dans des circonstances à elles propres et souvent bizarres. Ne connaissons-nous pas le cas d'une de nos clientes qui éprouve un réel plaisir à faire une promenade dans une voiture dont les roues sont munies de bandages pneumatiques ? M. Verchère ne dit-il pas lui aussi : "Je connais une fort honnête dame, qui ne peut traverser la place du Carrousel, si mal pavée, dans l'omnibus Batignolles-Clichy-Odéon, sans éprouver l'orgasme vénérien." S'ensuit-il que l'on doive interdire à toutes les femmes l'omnibus et la voiture munie de pneumatiques ?

Et si, par hasard, une promenade à bicyclette révèle à une cycliste novice une satisfaction génitale, il ne faut pas conclure que la bicyclette crée des dépravées.

Du reste, dans l'enquête ouverte par nous en vue de ce travail, toutes les réponses ont été négatives à cette question : Éprouvez-vous quelque plaisir d'ordre intime lorsque vous pédalez ? Il ne faut donc pas accuser la bicyclette, mais la bicycliste.

Auteur: O'Followell Ludovic Dr

Info: Bicyclette et organes génitaux, Baillière et fils, p 63

[ onanisme ] [ vélo ]

 

Commentaires: 0

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

Pourquoi les particules qui collisionnent révèlent la réalité 

Une grande partie de ce que les physiciens savent des lois fondamentales de la nature vient de la construction de machines destinées à écraser les particules entre elles.

Les physiciens ont commencé à développer des collisionneurs de particules à la suite de révélations selon lesquelles l’univers ne se résume pas à des atomes. Ernest Rutherford a perçu l'intérieur de l'atome lors de l'une des premières expériences de proto-collisionneur en 1909. Lui et son élève ont placé une matière radioactive derrière un bouclier en plomb percé d'un trou, de sorte qu'un flux de particules alpha (maintenant connues sous le nom de noyaux d'hélium) ) puisse passer à travers le trou. Lorsqu’ils ont projeté ce faisceau de particules sur une fine feuille d’or, ils ont observé qu’une particule sur 20 000 rebondissait directement vers l’arrière. Rutherford l'a comparé à un obus d'artillerie qui se refléterait sur une feuille de papier de soie. Les physiciens avaient découvert que les atomes d'or étaient pour la plupart constitués d'espace vide, mais que les particules alpha se dispersaient occasionnellement hors des noyaux denses et chargés positivement des atomes.

Deux des étudiants de Rutherford, John Cockcroft et Ernest Walton, ont ensuite assemblé et exploité le premier véritable collisionneur de particules en 1932. Ils ont utilisé un champ électrique pour accélérer les protons et les transformer en atomes de lithium avec suffisamment d'énergie pour briser les atomes de lithium en deux, divisant l'atome pour la première fois.

Au cours des décennies suivantes, les physiciens ont construit un défilé de collisionneurs de particules de plus en plus performants. Ils ont augmenté la densité des particules du projectile, ajouté des aimants supraconducteurs pour mieux les diriger et se sont offert plus de pistes en concevant des collisionneurs circulaires. Pour produire des feux d’artifice plus violents, ils ont brisé des faisceaux de particules circulant dans des directions opposées.

De nombreuses innovations technologiques visaient à produire des collisions à plus haute énergie pour générer des variétés de particules plus riches. Toute la matière que vous avez vue ou touchée est composée de seulement trois particules légères et fondamentales : des électrons et deux types de quarks. La nature laisse aussi entrevoir l'existence de plus d'une douzaine de particules élémentaires plus lourdes, mais seulement pour un instant, avant qu'elles ne se transforment en particules légères et stables. Pour savoir quelles particules massives peuvent exister, les physiciens exploitent l'interchangeabilité de la matière et de l'énergie découverte par Albert Einstein, exprimée dans sa célèbre équation E = mc 2. En générant des collisions plus énergétiques, ils virent émerger des particules plus lourdes.

Une autre façon de voir les choses est que les collisions à haute énergie s’enfoncent plus profondément dans le monde subatomique. Toutes les particules quantiques ont des propriétés ondulatoires, telles que les longueurs d'onde. Et leurs longueurs d’onde déterminent ce avec quoi ils peuvent interagir. Les ondes sonores peuvent contourner les murs parce qu'elles mesurent des mètres en longueur, par exemple, tandis que les ondes lumineuses sont arrêtées par tout ce qui est plus grand que leur longueur d'onde de quelques centaines de nanomètres. Les ondes incroyablement minuscules impliquées dans les collisions à haute énergie sont sensibles à des obstacles quantiques tout aussi minuscules. De cette manière, les énergies plus élevées permettent aux physiciens d’explorer les règles de la réalité à des échelles de plus en plus petites.

Suivant l’exemple de Rutherford et de ses étudiants, les chercheurs ont continué leurs explorations à un rythme effréné. L'énergie des collisions de particules a augmenté de 10 fois tous les six à huit ans pendant la majeure partie d'un siècle, ce qui correspond presque au rythme de la loi de Moore pour les puces informatiques. Ces progrès ont culminé avec la construction du Grand collisionneur de hadrons (LHC) en Europe, une piste souterraine circulaire de 27 kilomètres de circonférence qui écrase des protons à des énergies environ 20 millions de fois supérieures à celles utilisées par Cockcroft et Walton pour diviser l'atome. C’est au LHC en 2012 que les physiciens ont découvert le boson de Higgs, une particule lourde qui donne de la masse à d’autres particules fondamentales. Le Higgs était la dernière pièce manquante du modèle standard de la physique des particules, un ensemble d'équations qui rend compte de toutes les particules élémentaires connues et de leurs interactions. 

Quoi de neuf et remarquable

Le LHC, qui a entamé une nouvelle période d'exploitation de six mois en avril, a consolidé le modèle standard avec la découverte du boson de Higgs. Mais ce qui n'a pas été découvert a laissé le domaine en crise. Pendant des décennies, de nombreux théoriciens des particules ont espéré qu'une nouvelle " supersymétrie “ entre les particules de matière et les particules de force serait observée afin de résoudre une énigme appelée " problème de la hiérarchie ", et aider ainsi à relier les forces quantiques et fournir un candidat pour les particules de ” matière noire » qui maintiennent les galaxies ensemble.

Mais le LHC n’a vu aucun signe des particules prédites par la supersymétrie et, en 2016, les partisans de la théorie ont reconnu que notre univers n’est pas supersymétrique comme ils le pensaient simplement. La même année, l'évocation d'une nouvelle particule s'est avérée être un mirage statistique, et les physiciens ont dû se rendre compte que le LHC ne découvrirait probablement aucun nouveau phénomène au-delà des particules du modèle standard - une situation parfois appelée "scénario du cauchemar" .

Sans indices indiquant l’existence de particules plus lourdes qui pourraient être évoquées dans des collisions à plus haute énergie, il est difficile de justifier la construction d’un autre collisionneur de particules encore plus grand, de plusieurs milliards de dollars. Certains insistent sur le fait que cela en vaut la peine, car il reste encore beaucoup à étudier sur le boson de Higgs, qui pourrait contenir des indices sur d'éventuelles entités plus lourdes situées hors de portée du LHC. Mais aucun indice - ni aucune entité - de cette nature n'est garanti.

Une proposition visant à construire un collisionneur de nouvelle génération au Japon est au point mort. L'Europe réfléchit à un successeur du LHC de 100 kilomètres, mais s'il est approuvé et financé, sa construction prendra tellement de temps que les étudiants diplômés d'aujourd'hui seront à la retraite depuis longtemps avant que ce nouveau LHC ne démarre.

Les physiciens des particules américains ont reçu des nouvelles optimistes en décembre dernier lorsqu'un comité gouvernemental a soutenu l'étude des perspectives quant à un collisionneur de muons . Les muons sont des versions plus volumineuses d'électrons qui seraient plus puissantes lors des collisions, tout en étant dépourvues de la sous-structure des protons, de sorte qu'un collisionneur de muons relativement petit pourrait produire des collisions propres et à haute énergie. Un collisionneur de muons de pointe pourrait s’insérer dans la structure d’une installation existante, le Fermi National Accelerator Laboratory dans l’Illinois, et pourrait donc être construit plus rapidement et à moindre coût. Le problème est que les muons se désintègrent en quelques microsecondes et que la technologie nécessaire pour créer et contrôler des faisceaux étroits de ceux-ci n'existe pas encore. Néanmoins, si le projet va de l'avant, les partisans espèrent qu'un tel dispositif pourrait être opérationnel au moment où les élèves de maternelle d'aujourd'hui commencent à obtenir leur doctorat.

En attendant, les physiciens n’ont d’autre choix que de proposer des expériences alternatives et de nouvelles façons de reconstituer les indices que les collisionneurs leur ont déjà fournis.  

 

Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 2 juin 2024

[ impasse ] [ historique ] [ vulgarisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

corps-esprit

Lourdement handicapé, Stephen Hawking, auteur d’"Une brève histoire du temps" est le héros d’un film. L’anthropologue des sciences Hélène Mialet dévoile le système d’une personnalité fascinante.

Au-delà de ses contributions importantes sur la connaissance des trous noirs, l’exceptionnalité de l’homme réside aussi dans sa condition physique. Atteint de sclérose latérale amyotrophique, une dégénérescence des neurones moteurs, il est paralysé depuis des dizaines d’années. Ne pouvant plus parler, il communique par l’intermédiaire d’un ordinateur équipé d’un logiciel de synthèse vocale qu’il dirigeait au départ avec son doigt, plus récemment par une contraction de la joue. Grâce à ce système, il a écrit Une Brève Histoire du temps, ouvrage de référence vendu à près de dix millions d’exemplaires. A 73 ans, Stephen Hawking, élevé au statut d’icône du génie scientifique, continue d’écrire et de donner des conférences. Comment? C’est la question posée par Madame Mialet, philosophe et anthropologue des sciences, professeure invitée à l’Université de Californie à Davis, aux Etats-Unis, qui a côtoyé ce scientifique hors du commun. Elle a passé dix ans à l’interviewer, l’observer, à rencontrer ses proches et ses collègues.

Samedi Culturel: Qui est Stephen Hawking?

HM Difficile de répondre, parce qu’il est une icône. On imagine que Stephen Hawking, lourdement handicapé, est capable, seul, de produire de la science. Il incarne le mythe de notre modernité, qui trouve son origine dans l’interprétation de la pensée de Descartes, selon laquelle on n’a pas besoin d’un corps pour penser et qu’il suffit d’avoir un esprit. Stephen Hawking renchérit lui-même en disant: "Pour faire de la physique, un esprit suffit." J’ai pris ça au mot et en tant qu’ethnographe, j’ai passé des années à le suivre, à étudier sa façon de travailler, à interviewer ses étudiants et ses collègues. Il est devenu en quelque sorte ma tribu! J’ai reconstruit le réseau de compétences qui l’entoure et mis en évidence un collectif complexe. La question posée dans mon livre est plutôt: où est Stephen Hawking dans ce collectif?

SC : Est-ce que l’esprit brillant de Stephen Hawking suffit seul à faire de la science?

HM : Non, je ne pense pas. Parce qu’il ne peut pas bouger ni manipuler des objets. Il ne peut parler que par l’intermédiaire d’une voix de synthèse générée par un ordinateur. Il doit tout déléguer aux machines et aux individus. Ses proches ont appris à communiquer avec lui plus rapidement en lui posant des questions auxquelles il répond par oui ou non. Le type de vocabulaire engrangé dans son ordinateur est organisé, et le logiciel complète systématiquement ses phrases en reconnaissant ses motifs d’expression. Les gens aussi finissent ses phrases, ce qu’il n’aime pas d’ailleurs, et mettent en action ses énoncés. Contrairement à ce que l’on croit, tout n’est pas dans sa tête mais aussi à l’extérieur. Ses étudiants organisés autour de lui mènent les projets de recherche, font les calculs. En bout de course il est l’auteur principal et ceux qui l’ont aidé disparaissent du processus.

SC : Stephen Hawking est-il différent d’autres scientifiques?

HM : Non, son corps étendu au collectif lui permet de faire de la science comme tout chercheur à son niveau. Les chefs de laboratoire aussi lancent des pistes de recherche à d’autres qui font les expériences. Stephen Hawking est singulier car il est très collectivisé, et non parce qu’il serait coupé du monde social et matériel.

SC : Comment a-t-il réagi à la lecture de votre livre?

HM : Je le lui ai envoyé mais je n’ai pas eu de retour. Sa secrétaire m’a dit qu’il avait trouvé bizarre la couverture choisie par l’éditeur de la version anglaise [l’image montre une statue en marbre de lui dans son fauteuil flottant au milieu des étoiles]. Je suis assez d’accord, car cette illustration retombe dans le mythe du personnage.

SC : Comment se passaientvos rencontres?

HM : Ça m’a pris deux ans pour avoir accès à lui. Mon premier entretien, en 1998, a été très déstabilisant car toute l’interaction passait par l’ordinateur. Je n’arrivais pas à lire son langage corporel. Je posais mes questions, il répondait en tapant, et sa voix synthétique parlait souvent avec un décalage temporel. Nos deux regards étaient dirigés vers l’écran. Parfois, ses assistants s’occupaient de lui, ce qui troublait l’interaction. Un moment, la machine s’est arrêtée de fonctionner. En fait, quand on est très proche de lui, on ne sait plus où il est. Alors que quand on s’en éloigne, à travers les médias et les films, on perçoit Stephen Hawking, le génie, c’est-à-dire un individu doté de qualités stables, d’histoires reproduites sur sa personne et ses découvertes scientifiques.

SC : L’avez-vous revu par la suite?

HM : Oui, à la conférence sur la théorie des cordes à Berlin, en 1999. Nous avons dansé avec lui dans un night-club! Son attaché de presse avait passé plusieurs semaines à Berlin pour sélectionner le plus accessible. Quand nous sommes arrivés dans le night-club, il est allé au milieu de la piste et tout le monde a dansé autour de lui. Plus tard, à la fin de mon séjour à Cambridge, en 2007, il m’a invité plusieurs fois à souper à l’université ou chez lui. Il avait envie de parler plus intimement de sa façon de penser et de travailler.

SC : Comment pense Stephen Hawking?

HM : A cette question, il a répondu: "En images" Selon ses étudiants, il résout des problèmes en les mémorisant. Il a développé une façon de penser de manière visuelle en manipulant des diagrammes que ces étudiants dessinent sous ses yeux. Ils écrivent aussi, sous ses yeux, les démonstrations des équations à résoudre, et lui dit si elles sont justes ou pas. Mes observations montrent que même le travail intellectuel le plus abstrait nécessite l’usage du corps, dans le cas de Stephen Hawking, de ses yeux qui regardent les autres travailler et du corps des autres qui dessinent les diagrammes. C’est un va-et-vient constant.

SC : Quelle relation entretient-il avec son entourage?

HM : Il a beaucoup d’humour, ce qui lui permet d’établir un lien rapide avec les gens. Il fait preuve d’une grande force de caractère et exerce aussi un certain contrôle sur son entourage. Ses assistants les plus proches, qui s’occupent de la logistique, des voyages, restent rarement plus d’un an car ils sont épuisés de répondre jour et nuit à ses besoins. Et il maîtrise beaucoup son image auprès des journalistes.

SC : Il n’a jamais voulu changer l’accent américain de sa voix synthétique. Pourquoi?

HM : Beaucoup de compagnies anglaises ont voulu lui rendre son accent anglais. Il a résisté et n’a pas accepté car il disait que sa voix américaine était devenue sa voix. Des logiciels plus récents lui permettraient de communiquer plus vite mais il ne veut pas les changer car il s’y est habitué.

SC : En quoi Stephen Hawking est-il exceptionnel?

HM : Pour ses travaux scientifiques sur les trous noirs, évidemment, notamment ceux des années 1970, qui étaient des découvertes fondamentales. Mais pour moi, cet homme est exceptionnel car il devient un exemple par sa condition inhabituelle. Sa situation de handicap et de dépendance rend visible ce que l’on ne voit pas autrement, comme ce qu’il faut pour être une star, un chef de laboratoire, mais aussi ce qui est nécessaire pour penser visuellement ou pour qu’une conversation soit fluide.

A Cambridge, des archives sont en cours de construction avec les articles sur Stephen Hawking et ses propres articles. Elles posent la question de l’archivage d’un auteur à l’ère du digital. Pour lui, tout passe par la machine depuis longtemps, et il décide lui-même de ce qu’il veut garder ou non. Nous devenons tous dépendants de nos tablettes et ordinateurs, mais lui l’a été avant tout le monde. Il a utilisé des programmes qu’on utilise tous maintenant, comme ceux qui complètent ses mots et ses phrases. Stephen Hawking est un pionnier du post-humanisme. 

Auteur: Mialet Hélène

Info: Sur Le Temps.ch, 16 janvier 2015. A propos de : A la recherche de Stephen Hawking, de H M, 2014, Ed. Odile Jacob, 168 p.

[ starification ] [ scientifique vedette ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychosomatique

Le jumeau maléfique de l'effet placebo fait des ravages, selon l'essayiste états-unien Stewart Justman, pourfendeur du diagnostic qui rend malade Comme les héros des feuilletons télévisés, l’effet placebo a un jumeau maléfique: il s’appelle "nocebo". Le placebo, rappelons-le, est ce phénomène troublant qui veut qu’un bonbon lambda avalé en croyant prendre un médicament authentique peut apporter les mêmes bienfaits que le vrai remède, grâce à la suggestion. Le nocebo fonctionne sur le même mécanisme, mais avec l’effet inverse: il fait du mal. Dites-moi que j’ai ingurgité une denrée avariée, mes boyaux se tordront. Magique? Pas vraiment: le cerveau ayant pour tâche de gérer les fonctions du corps, il n’est pas étonnant que l’information qu’il absorbe infléchisse le processus. Dans The Nocebo Effect*, Stewart Justman, essayiste états-unien partageant son œuvre entre l’histoire de la littérature et la médecine (avec des passerelles fréquentes entre les deux), évoque les ravages du nocebo dans des territoires médicaux aussi différents que l’anorexie, le syndrome de fatigue chronique, la dépression, le trouble dissociatif de l’identité, l’hyperactivité, les cancers du sein et de la prostate. Parfois, le mal est un effet direct de l’imagination, aiguillée par la propagande pharmaceutique ou par les campagnes de prévention: "Une fois mises sur le marché, des idées sur telle ou telle maladie sont en mesure de susciter la maladie elle-même", constate Justman: un diagnostic peut déployer son potentiel nocif en "semant des suggestions dans l’esprit du patient". Est-ce fréquent? La question est apparemment très peu étudiée, en partie car il est éthiquement difficile de mener des expériences consistant à créer des problèmes chez les sujets. Des indications sur le "jumeau maléfique" se nichent toutefois dans les études sur l’effet placebo. Dans une étude troublante, publiée dans l’International Journal of Clinical Practice en 1998, l’Anglais A. F. Cooper découvrait par exemple, avec un groupe de patients souffrant de polyarthrite rhumatoïde, que ceux à qui l’on administrait une brève leçon de choses sur la maladie se portaient moins bien que ceux qu’on se bornait à soigner, sans rien leur dire. Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé Dans d’autres cas, c’est le dépistage à grande échelle qui fait des dégâts, débouchant sur des traitements qui se révèlent plus nuisibles – voire plus meurtriers – que le mal qu’ils sont censés soigner. Les mises en garde viennent du champ médical lui-même, qui s’inquiète des effets pervers de la traque systématique aux cancers du sein et de la prostate: on y revient plus loin. Qu’il agisse directement sur l’individu via la suggestion ou qu’il déploie ses conséquences à travers une prise en charge médico-sociale, l’effet nocebo résulte d’un phénomène de "surdiagnostic": Overdiagnosis and Its Costs ("Le surdiagnostic et ses coûts") est le sous-titre du livre de Stewart Justman. Morphine et neurasthénie Comment ça marche? Le rapport de cause à effet semble s’afficher parfois de manière évidente. "Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé", comme si "les personnes atteintes façonnaient inconsciemment leurs symptômes selon le modèle fourni par les médias". Il en va d’une manière semblable pour la neurasthénie, syndrome à la mode au cours de la Belle Epoque, "qui s’épanouit auprès des couches aisées, jusqu’à sa disparition au début du vingtième siècle". Identifié par le neurologue états-unien George Beard en 1869, le trouble était défini comme "une maladie englobante, dont le symptôme clé était une fatigue mentale et musculaire", mais dont les manifestations possibles remplissaient une liste de 70 entrées. "L’existence brève et spectaculaire de la neurasthénie témoigne de la manière dont une appellation a le pouvoir d’organiser et de mobiliser des symptômes", relève Justman. Certains maux paraissent ainsi atteindre les corps par une contagion socio-culturelle. Placebo et nocebo montrent que l’acte médical, loin d’être une simple interaction physique, est en réalité une "procédure sociale" à part entière: "Des expériences montrent que même un médicament aussi puissant que la morphine produit un effet plus important lorsqu’il est administré ouvertement, dans le cadre d’un rituel médical, que lorsqu’on le donne aux patients à leur insu." Exemple saisissant de la production d’un syndrome via le cérémoniel thérapeutique: le trouble dit "de la personnalité multiple", qui n’émerge le plus souvent qu’au moment où le soignant demande au patient de nommer ses alters egos. Sommeil et désarroi Faut-il parler de maladies imaginaires, de troubles socialement manufaturés à partir de néant? Dans le cas des symptômes de dépression, Justman suggère plutôt qu’il s’agit souvent d’états inhérents à la normalité de l’existence, qui se retrouvent médicalisés, c’est-à-dire transformés en pathologies. C’est "le désarroi commun et passager, produit par la vie elle-même, qui se résoudrait spontanément si on ne faisait rien"; ce sont "des constantes de la condition humaine", ou en tout cas "des difficultés qui se rattachent à la nature même de la civilisation". Le DSM-5, dernière édition du catalogue états-unien (et international) des troubles psychiques et de leurs symptômes, "intègre, à contrecœur, l’argument selon lequel ce qu’on appelle dépression peut être en fait une réponse justifiée à la vie elle-même". On pourrait, bien sûr, retourner la question: faut-il accepter le désarroi ordinaire en tant que composante inévitable de la normalité, ou peut-on aspirer à s’en débarrasser? Comme les sociologues Allan V. Horwitz et Jerome C. Wakefield Stewart, auteurs de Tristesse ou dépression? Comment la psychiatrie a médicalisé nos tristesses (2007), Justman défend l’existence de la mélancolie dans l’expérience humaine. D’autres cultivent le rêve utopiste de l’éradication de tout chagrin. Le problème, c’est que la médicalisation du malheur ordinaire aurait plutôt tendance à accroître la portée de ce dernier. "Ironiquement, un des effets du surdiagnostic de la dépression est que les antidépresseurs en vogue perturbent le sommeil", note Justman. Or, "un des facteurs de guérison les plus importants dans nos vies réside dans notre capacité de sombrer chaque soir dans l’endormissement réparateur"… La conscience est surestimée Y a-t-il donc un équilibre, un "bon" seuil de médicalisation à ne pas dépasser? La question est particulièrement lancinante dans le cas des cancers du sein et de la prostate. Dans les deux cas, le dépistage massif conduit à détecter et à traiter une quantité de cancers "dormants" ou "indolents" qui seraient inoffensifs et avec lesquels on vivrait sans problème. Le sein: selon une étude publiée en 2013 dans le British Medical Journal par le chirurgien Michael Baum, pour chaque décès évité par la mammographie on peut s’attendre à un chiffre de un à trois décès supplémentaires liés aux soins donnés aux femmes dépistées pour des cancers inoffensifs. La prostate: selon une étude européenne de 2009-2012, le dépistage réduit la mortalité engendrée par ce cancer, mais on compte 33 hommes rendus impuissants ou incontinents par une intervention non nécessaire pour chaque homme sauvé… Que faire? Eliminer les dépistages, plus nuisibles que bénéfiques comme le suggèrent plusieurs chercheurs? Brûler le DSM, véritable machine à surdiagnostiquer (et dénoncé en tant que tel par Robert Spitzer et Allen Frances, deux responsables successifs de la task force qui en coordonne la rédaction)? Arrêter net les campagnes d’information, sources majeures d’effets nocebo? Dans son élan, Justman jette peut-être quelques bébés avec l’eau du bain (notamment dans le domaine du traumatisme psychique). On retiendra néanmoins son éloge paradoxal de l’inconscience: nous vivons sous l’emprise d’un "culte de la conscientisation", mais "la conscience est surestimée". Notre cerveau fait son travail de gestion de la vie dans le silence des processus inconscients, où il n’est sans doute pas anodin de trop le déranger. Il travaille à notre insu, par habitude. Il est vrai que l’habitude a mauvaise presse. Et pourtant – la philosophie confucéenne et taoïste en avait l’intuition, les neurosciences le savent aujourd’hui –, "l’habitude est hautement opérationnelle, même dans des faits d’excellence".

Auteur: Ulmi Nic

Info: in le temps online du 15.9.2015 sous Effet nocebo: le patient qui en savait trop, *The Nocebo Effect. Overdiagnosis and Its Cost, par Stewart Justman, Palgrave Macmillan, 272 p

[ grégaire ] [ influençabilité ] [ corps-esprit ]

 

Commentaires: 0

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel