Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 12
Temps de recherche: 0.0616s

recul

Vivre, c'est participer à une course qui, de toute façon, prendra fin. Pourquoi vouloir à tout prix la gagner ?

Auteur: Sagesse populaire chinoise

Info:

[ tranquillité ] [ détachement ] [ proverbe ]

 

Commentaires: 0

gagner

Le principe de la guerre, c’est de truquer le jeu, de droguer l’adversaire, de menacer de briser les rotules des membres de sa famille s’il ne se soumet pas.

Auteur: Yoon Ha Lee

Info: Le Gambit du Renard

[ à tout prix ] [ barbarie ]

 

Commentaires: 0

Ajouté à la BD par miguel

écriture

Prends garde de ne pas vendre la parole pour gagner du pain et de ne pas rendre l’âme au service du corps. A tout prix, même à la richesse de Crésus, ne te réduis pas à l’esclavage de l’homme ! Si tu vends, il vaut mieux vendre ton bras plutôt que ta plume !...

Auteur: Jalal Al-e-Ahmad

Info: Zan-e zîâdî, Ferdowsî, neuvième édition, Téhéran, 1384, 2005

[ idéalisme ] [ désintéressée ] [ anticonsumériste ]

 

Commentaires: 0

à tout prix

Nous ne qualitions pas la guerre d'enfer parce qu'elle est menée sans retenue. Il est plus juste de dire que, lorsque certaines contraintes sont dépassées, l'enfer de la guerre nous pousse à rompre avec toutes les contraintes restantes afin de gagner. Voilà la tyrannie ultime : ceux qui résistent à l'agression sont contraints d'imiter, et peut-être même de dépasser, la brutalité de l'agresseur.

Auteur: Walzer Michael

Info: “Just and Unjust Wars: A Moral Argument with Historical Illustrations”, p.50, Basic Books  (2015).

[ sacrifice ] [ coûte que coûte ]

 

Commentaires: 0

Ajouté à la BD par miguel

beaux-arts

Ummiye travaille actuellement sur un scénario intitulé "Footless on Her Own Feet" (sans pieds sur ses propres pieds) . Ca raconte l'histoire d'une jeune fille handicapée que sa mère, âgée de cinquante ans, pousse chaque jour à l'école dans une brouette. Elle finit par gagner un concours national de dessin, en réalisant une image super réaliste d'elle-même dans la brouette. Avec l'argent du prix, elle s'achète un fauteuil roulant. Comme le théâtre Arslankoy*, le dessin de la jeune fille utilise la représentation artistique pour transformer la chose représentée. En dessinant une image réaliste de l'humiliante brouette, elle la transforme en un digne fauteuil roulant - tout comme un théâtre, en représentant l'injustice de la vie des villageoises, pourrait rendre cette vie plus juste. Nabokov a affirmé un jour que l'inspiration pour Lolita était une œuvre d'art élaborée par un singe du Jardin des Plantes : un dessin des barreaux de sa cage. C'est une bonne métaphore de la production artistique. Que dessinons-nous d'autre que les barreaux de notre cage, ou la brouette dans laquelle nous étions transportés quand nous étions enfants infirmes ? Comment les cages peuvent-elles être brisées autrement ? Sinon, comment pouvons-nous rester debout de nous-mêmes ?

Auteur: Batuman Elif

Info: Tirée d'un article du New yorker, "Stage Mothers", des 24 et 31 déc 2012, A propos d'une *troupe turque composée exclusivement de femmes qui se rend dans de petites villes pour monter des pièces sur le thème de la violence domestique.

[ libération ] [ thérapie ] [ canevas ] [ question ]

 

Commentaires: 0

Ajouté à la BD par miguel

amoralité

Et nombreux sont les supporters, et les dirigeants, qui préfèrent gagner sans honneur que perdre noblement.

Pepe Saria, l'avant uruguayen, racontait : "Lancer de la terre dans les yeux du goal ? Les dirigeants trouvent ça mal, quand ça se voit."

Les supporters argentins dirent mille merveilles du but que Maradona commit de la main lors du Mondial de 1986, parce que l'arbitre ne l'avait pas vu. Pendant les éliminatoires du Mondial 90, le gardien de la sélection chiliènne, Roberto Rojas, simula une blessure en se coupant au front et il fut pris la main dans le sac. Les supporters chiliens, qui l'adoraient et l'appelaient le condor, le transformèrent illico en méchant de cinéma parce que son truc avait loupé.

Dans le football professionnel, comme dans toute chose, peu importe le délit si l'alibi est bon. Prenons le mot culture au sens propre. Que cultive en nous la culture du pouvoir? Quelles peuvent être les tristes récoltes d'un pouvoir qui accorde l'impunité aux crimes de militaires et aux pillages des politiciens, et en fait des exploits?

Albert Camus, qui avait été gardien de but en Algérie, ne faisait pas allusion au football professionnel quand il disait : "Tout ce que je sais de la morale, c'est le football qui me l'a appris."

Auteur: Michéa Jean-Claude

Info: Le plus beau but était une passe

[ pas vu pas pris ] [ sport ] [ immoral ] [ gagner à tout prix ] [ morale du pouvoir ]

 

Commentaires: 0

Ajouté à la BD par miguel

recherche fondamentale

Personne ne prenait au sérieux les expériences quantiques de John F. Clauser. 50 ans plus tard, il reçoit un prix Nobel.

Le 4 octobre, John F. Clauser, 80 ans, s'est réveillé dans sa maison californienne pour apprendre qu'il avait reçu le prix Nobel de physique. Il le recevra lors d'une cérémonie à Stockholm, en Suède, le 10 décembre, avec Anton Zeilinger et Alain Aspect, pour leurs travaux sur l'intrication quantique. 

Un moment de fête pour Clauser, dont les expériences révolutionnaires sur les particules de lumière ont contribué à prouver des éléments clés de la mécanique quantique.

"Tout le monde veut gagner un prix Nobel", a déclaré M. Clauser. "Je suis très heureux."

Mais son parcours jusqu'à l'obtention du plus grand prix scientifique n'a pas toujours été simple. 

Dans les années 1960, Clauser était étudiant en physique à l'université Columbia. Par hasard, il découvrit à la bibliothèque de l'université un article qui allait façonner sa carrière et l'amener à poursuivre les travaux expérimentaux qui lui ont valu le prix Nobel.

L'article, écrit par le physicien irlandais John Stewart Bell et publié dans la revue Physics en 1964, se demandait si la mécanique quantique donnait ou non une description complète de la réalité. Le phénomène d'intrication quantique constituant le cœur de la question.

L'intrication quantique se produit lorsque deux ou plusieurs particules sont liées d'une certaine manière, et quelle que soit la distance qui les sépare dans l'espace, leurs états restent liés. 

Par exemple, imaginez une particule A qui s'envole dans une direction et une particule B dans l'autre. Si les deux particules sont intriquées - ce qui signifie qu'elles partagent un état quantique commun - une mesure de la particule A déterminera immédiatement le résultat de la mesure de la particule B. Peu importe que les particules soient distantes de quelques mètres ou de plusieurs années-lumière - leur liaison à longue distance est instantanée. 

Cette possibilité avait été rejetée par Albert Einstein et ses collègues dans les années 1930. Au lieu de cela, ils soutenaient qu'il existe un "élément de réalité" qui n'est pas pris en compte par la mécanique quantique. 

Dans son article de 1964, Bell soutenait qu'il était possible de tester expérimentalement si la mécanique quantique échouait à décrire de tels éléments de la réalité. Il appelait ces éléments non pris en compte des "variables cachées".

Bell pensait en particulier à des variables locales. Ce qui signifie qu'elles n'affectent la configuration physique que dans leur voisinage immédiat. Comme l'explique Clauser, "si vous placez des éléments localement dans une boîte et effectuez une mesure dans une autre boîte très éloignée, les choix de paramètres expérimentaux effectués dans une boîte ne peuvent pas affecter les résultats expérimentaux dans l'autre boîte, et vice versa."

Clauser décida de tester la proposition de Bell. Mais lorsqu'il voulut faire l'expérience, son superviseur l'exhorta à reconsidérer sa décision. 

"Le plus difficile au départ a été d'obtenir l'opportunité", se souvient Clauser. "Tout le monde me disait que ce n'était pas possible, donc à quoi bon !".

Le laboratoire quantique 

En 1972, Clauser a finalement eu l'occasion de tester la proposition de Bell alors qu'il occupait un poste postdoctoral au Lawrence Berkeley National Laboratory en Californie. Il s'associa à un étudiant en doctorat, Stuart Freedman. Ensemble, ils mirent sur pied un laboratoire rempli d'équipement optique. 

"Personne n'avait fait cela auparavant", a déclaré Clauser. "Nous n'avions pas d'argent pour faire quoi que ce soit. Nous avons dû tout construire à partir de rien. Je me suis sali les mains, ai été immergé dans l'huile, il y avait beaucoup de fils et j'ai construit beaucoup d'électronique."

Clauser et Freedman ont réussi à créer des photons intriqués en manipulant des atomes de calcium. Les particules de lumière, ou photons, s'envolaient dans des filtres polarisants que Clauser et Freedman pouvaient faire tourner les uns par rapport aux autres. 

La mécanique quantique prédit qu'une plus grande quantité de photons passerait simultanément les filtres que si la polarisation des photons était déterminée par des variables locales et cachées.

L'expérience de Clauser et Freedman mis en évidence que les prédictions de la mécanique quantique étaient correctes. "Nous considérons ces résultats comme des preuves solides contre les théories de variables cachées locales", ont-ils écrit en 1972 dans Physical Review Letters.

Des débuts difficiles

Les résultats de Clauser et Freedman furent confirmés par d'autres expériences menées par Alain Aspect et Anton Zeilinger. 

"Mes travaux ont eu lieu dans les années 70, ceux d'Aspect dans les années 80 et ceux de Zeilinger dans les années 90", a déclaré Clauser. "Nous avons travaillé de manière séquentielle pour améliorer le domaine".

Mais l'impact de l'expérience révolutionnaire de Clauser n'a pas été reconnu immédiatement.

"Les choses étaient difficiles", se souvient Clauser. "Tout le monde disait : "Belle expérience, mais vous devriez peut-être sortir et mesurer des chiffres et arrêter de perdre du temps et de l'argent et commencer à faire de la vraie physique"."

Il a fallu attendre 50 ans pour que Clauser reçoive le prix Nobel pour son travail expérimental. Son collègue, Stuart Freedman, est décédé en 2012. 

"Mes associés sont morts depuis longtemps. Mon seul titre de gloire est d'avoir vécu assez longtemps". a déclaré Clauser

Lorsqu'on lui a demandé s'il avait des conseils à donner aux jeunes chercheurs compte tenu de sa propre difficulté initiale, Clauser a répondu : "Si vous prouvez quelque chose que tout le monde pense vrai, et que vous êtes le premier à le faire, vous ne serez probablement pas reconnu avant 50 ans. C'est la mauvaise nouvelle. La bonne, c'est que j'ai eu beaucoup de plaisir à faire ce travail." 


Auteur: Internet

Info: https://www.livescience.com, Jonas Enande, 9 déc 2022

[ agrément moteur ] [ délectation ] [ observateur dualisant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

"Voyageons un peu dans le passé et transportons-nous à Falaise, petite ville de Normandie, à la fin du mois de janvier 1386.

Une truie, maladroitement costumée en habits féminins, est rituellement conduite à l’échafaud, puis pendue et brûlée. Qu’avait-elle fait ? Renversé le berceau d’un nourrisson mal surveillé et commencé à lui dévorer le visage.

Capturée, emprisonnée, conduite au tribunal, défendue par un avocat peu efficace, elle est condamnée à mort par le juge-bailli de Falaise qui l’estime responsable de ses actes. Son propriétaire, en revanche, n’écope d’aucune peine ni amende.

Aujourd’hui, de telles pratiques nous font rire, de même que nous nous esclaffons devant les questions que l’on se pose à la même époque en milieu clérical ou universitaire : peut-on faire travailler les animaux le dimanche ? Doit-on leur imposer des jours de jeûne ? Où vont-ils après la mort ? En Enfer ou au Paradis ? Que de croyances absurdes ? Que de superstitions grotesques ! Quels ramassis d’imbéciles tous ces médiévaux !

Nous avons tort de réagir ainsi. En jugeant le passé à l’aune des savoirs, des morales et des sensibilités du présent, nous montrons que nous n’avons rien compris à ce qu’était l’Histoire. En outre, nous oublions aussi que nos propres comportements sont tout aussi ridicules, qu’ils feront pareillement sourire nos successeurs dans quelques siècles, et qu’ils sont souvent plus atroces et beaucoup plus dangereux que ceux de nos ancêtres. Dangereux pour toutes les espèces vivantes, dangereux pour l’avenir de la planète.

Qui parmi nous a déjà visité une porcherie industrielle ? Je suis normand d’origine et breton de cœur, je n’ai aucune animosité envers les éleveurs de porcs, je ne milite dans aucune société protectrice des animaux ; je suis simplement historien, spécialiste des rapports entre l’homme et l’animal. Or l’honnêteté m’oblige à dire que ces porcheries industrielles sont des lieux abominables, constituant une sorte d’enfer sur terre pour les animaux qui s’y trouvent. Les truies sont enfermées par centaines dans des espaces qui leur interdisent de se déplacer. Leur vie durant, elles ne voient jamais la lumière du soleil, ne fouillent jamais le sol, sont nourries d’aliments chimiques, gavées d’antibiotiques, inséminées artificiellement. Elles doivent produire le maximum de porcelets en une seule portée, avoir le maximum de portées dans les quelques années de leur misérable vie, et lorsqu’elles ne sont plus fécondes, elles partent à l’abattoir. Les porcelets eux-mêmes doivent engraisser le plus vite possible, produire le maximum de viande, et tout cela, bien sûr, au moindre coût. Ces crétins du Moyen-Âge qui pensaient que les cochons étaient des êtres sensibles, qu’ils avaient une âme et qu’ils pouvaient comprendre ce qu’était le Bien et le Mal, n’avaient certainement jamais pensé à cela : martyriser des porcs pour gagner de l’argent !

Récemment, un directeur de porcherie industrielle située dans les Côtes d’Armor à qui je venais de faire part de mon indignation m’a répondu d’une manière sordide : "Mais, Cher Monsieur, pour les poulets c’est bien pire". De fait, dans des établissements carcéraux du même genre, les poulets ne peuvent pas poser leurs deux pattes au sol en même temps : il y circule un courant électrique qui les oblige, à longueur de vie, à poser au sol une patte après l’autre. Pourquoi un tel supplice ? Pour faire grossir leurs cuisses, bien sûr, et les vendre ainsi plus cher. La cupidité de l’être humain est devenue sans limite.

Où sont passés les cochons de nos campagnes ? Où peut-on encore les voir gambader autour de la ferme, jouer les uns avec les autres, se faire caresser par les enfants, partager la vie des paysans. Nulle part ! Nous avons oublié que les cochons – mais cela est vrai de tous les animaux de la ferme - étaient des êtres vivants et non pas des produits. Qui, dans la presse, évoque leur sort pitoyable, leur vie de prisonniers et de condamnés lorsque l’actualité parle du prix de la viande de porc et du mécontentement des éleveurs ? Qui a le courage de rappeler qu’avant d’être un produit de consommation le cochon était un animal vivant, intelligent, sensible, anatomiquement et physiologiquement cousin très proche de l’être humain ? A ma connaissance, personne. De même, à propos des débats autour des cantines scolaires, qui s’interroge sur les raisons qui font que certains peuples mangent du porc et d’autres non ? C’est pourtant un dossier passionnant, l’occasion de s’instruire et de rappeler les nombreuses hypothèses qui ont été avancées depuis le Moyen-Âge pour expliquer les rejets et les tabous qui entourent cet animal.

Les animaux domestiques n’ont plus d’histoire, plus de mythologie, plus de symbolique. Ils ne suscitent plus aucune curiosité, aucune interrogation, aucune nostalgie. Ils n’ont même plus droit à une vie simplement animale. Ce sont des produits ! Comme tels, ils doivent participer au "redressement productif" de notre pays (cette expression est en elle-même absolument répugnante) et générer du profit. Un profit ironiquement bien mince, voire inexistant pour les éleveurs de porcs, ce qui rend encore plus aberrante et intolérable l’existence de ces porcheries industrielles, inhumaines, "inanimales" même, si l’on peut oser un tel néologisme. Elles polluent l’air, la terre, les eaux des rivières et celles de la mer. Dans mon petit coin de Bretagne, des sangliers sont morts à cause du rejet dans la nature du lisier produit par l’élevage intensif de leurs cousins domestiques. Un comble ! À la cupidité s’ajoute l’absurdité.

L’être humain est devenu fou. Il tue non seulement ses semblables mais tout ce qui vit autour de lui. Il rêve même d’aller sur Mars ou ailleurs vérifier si la vie existe et, si c’est le cas, y semer la mort. Tout en donnant des leçons à l’univers entier et en paradant à la COP 21, 22, 23, 24.

Protéger la nature, défendre l’environnement, sauver la planète ? Certes. Mais pour quoi faire ? Pour sauver une humanité barbare et suicidaire, cruelle envers elle-même, ennemie de tous les êtres vivants ? Le mérite-t-elle vraiment ? Le souhaite-t-elle réellement ? Il est permis d’en douter."

Auteur: Pastoureau Michel

Info: France Inter, carte blanche du 21 oct 2019

[ historique ]

 
Commentaires: 2
Ajouté à la BD par miguel

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel