Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.047s

question

Quand les simulations par ordinateur remplacent de plus en plus l'expérience et que la logique des banques de données impose ses codes au langage scientifique, avons-nous toujours affaire à ce que nous avions l'habitude de nommer la science ?

Le traitement de l'information est en passe de devenir le modèle dominant pour penser les processus physiques et biologiques.

Déjà les sciences de la cognition ne conçoivent plus la mémoire, l'apprentissage ou la perception que schématisés par des algorithmes.

Auteur: Lévy Pierre

Info: La machine univers. Création et culture informatique

[ homme-machine ] [ métalangage ] [ consensus élargi ] [ objectif - subjectif ] [ métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

L'intégration des mots ou vecteurs de mots est un moyen pour les ordinateurs de comprendre la signification des mots dans un texte écrit par des personnes. L'objectif est de représenter les mots comme des listes de nombres, où de petits changements dans les nombres représentent de petits changements dans la signification du mot. Cette technique permet de créer des algorithmes d'intelligence artificielle pour la compréhension du langage naturel. En utilisant les vecteurs de mots, l'algorithme peut comparer les mots en fonction de leur signification, et pas seulement de leur orthographe.

Auteur: Speer Robert

Info: less-stereotyped word vectors. Dans le traitement du langage naturel (NLP), vectorisation des mots concerne la représentation des mots pour l'analyse de texte, càd sous forme d'un vecteur à valeur réelle qui encode la signification du mot de telle sorte que les mots qui sont plus proches dans l'espace vectoriel sont censés avoir une signification similaire. L'intégration des mots peut être obtenue en utilisant un ensemble de techniques de modélisation du langage et d'apprentissage des caractéristiques où les mots ou les phrases du vocabulaire sont mis en correspondance avec des vecteurs de nombres réels.

[ intelligence artificielle ] [ métadonnées outils ] [ mots expressions abrégées ] [ abstraction mécanique ] [ sémantique industrielle ] [ nuances automatiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

En terme de classification intriquée FLP peut être appréhendé comme un système subjectif souple, au sens où la personne qui insère l'extrait appréhende chaque terme-formule comme un "quasi esprit", autrement dit une sorte d'univers-carrefour sémantique. 

Alors que dans un classement par Intelligence Artificielle, tout autant entremêlé, chaque mot-expression se retrouve vectorisé, transformé en une sorte d'être mathématique. Entité qui, avec l'affinement apporté par la force brute du traitement statistiques des métadonnées, limite les possibilités d'erreurs, de malentendus... dont beaucoup furent, et sont encore, à la source de grandes découvertes humaines.

Auteur: Mg

Info: 29 oct. 2022

[ lexicologie ] [ citation s'appliquant à ce logiciel ] [ taxinomie linguistique ] [ sérendipité ]

 

Commentaires: 0

Ajouté à la BD par miguel

apprentissage automatique

Cette dicipline du traitement des métadonnées a connu plusieurs périodes de transition depuis le milieu des années 90. De 1995 à 2005, l'accent a été mis sur le langage naturel, la recherche et la récupération d'informations. Les outils de machine learning étaient plus simples que ceux que nous utilisons aujourd'hui ; avec des éléments comme la régression logistique, les SVM (machines à vecteurs de support), les noyaux avec SVM et le PageRank. Google a connu un immense succès grâce à ces technologies, en élaborant des produits phares tels que Google News et le classificateur de spam Gmail via des algorithmes faciles à distribuer pour le classement et la classification de textes - c'est à dire des technologies déjà au point au milieu des années 90.

Auteur: Zadeh Reza

Info:

[ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

fiasco

Echec du lancement de Galactica, IA générative scientifique de Meta

Le 15 novembre dernier, Meta a mis en ligne une version démo de Galactica, une IA développée pour la recherche scientifique. Deux jours après son lancement, elle a été retirée du Web pour avoir débité des inepties. 

Galactica est un modèle de langage à grande échelle (LLM), entraînée sur 48 millions de données scientifiques comprenant 120 milliards de paramètres. Il a pour mission de "résumer des articles universitaires, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, et bien plus encore".

Dès sa diffusion sur le Web, de nombreuses réponses aux questions posées par les utilisateurs se sont révélées confuses, absurdes ou fausses.

Par exemple, l’IA a inventé l’existence d’un logiciel Gaydar pour trouver des homosexuels sur Facebook et a proposé une étude sur les avantages de manger du verre pilé. Dans d’autres résultats de recherche, de nombreuses références et citations étaient fabriquées de toute pièce et attribuées à des vrais scientifiques.

Selon Carl Bergstrom, professeur de biologie à l’Université de Washington, il s’agit - pardonnez l’expression - "d’un générateur de conneries aléatoires".

D’après Dan Hendrycks, chercheur en sécurité de l’intelligence artificielle à l’Université de Californie à Berkeley, interrogé dans C/Net, Meta aurait dû sonder leur IA pour ce type de dérives avant de la diffuser et souligne au passage que "la division IA de Meta ne dispose pas d’une équipe chargée de la sécurité, contrairement à ses homologues, DeepMind, Anthropic et OpenAI".

C’est incompréhensible que le géant du Web ait rendu publique cette version aussi imparfaite que dangereuse. D’ailleurs chaque résultat généré était accompagné de l’avertissement: "Les résultats peuvent être peu fiables. Les modèles de langage ont tendance à inventer".

De nombreuses études le démontrent, le défaut l’IA générative - un fait connu et reconnu - est sa tendance à halluciner le matériel qu’elle présente dans le contexte d’informations factuelles.

Il faut toujours vérifier les faits énoncés par un logiciel IA de rédaction. L’utilisation de ce type d’outils demande un esprit critique, car à chaque nouveau prompt ou invite, l’IA débite un nouveau texte, parfois en contradiction avec le précédent.

L’objectif de Galactica est louable en voulant aider les scientifiques à traiter la masse pharaonique d’informations scientifiques publiées, impossible à assimiler par un cerveau humain.

Mais c’est la deuxième fois en quelques mois qu’une IA de Meta déçoit. Le robot conversationnel BlenderBot lancé en septembre, devait permettre aux utilisateurs de discuter avec lui afin d’approfondir ses connaissances, mais le niveau des échanges était tout simplement médiocre. Un timing incompréhensible, car ce lancement faisait suite à la polémique autour de LaMDA en juin, le Chatbot de Google, dont les propos étaient si sensés et profonds, qu’il avait convaincu un ingénieur d’avoir atteint le stade de la conscience.

La ferveur est grande autour de l’IA générative, elle est décrite comme le "BIG BANG de la Silicon Valley" et "l’invention qui va définir la décennie à venir".

En lançant cette version prématurée de Galactica, Meta a jeté un discrédit sur ces logiciels. Il ne faut pas en tenir compte. Une véritable révolution est en marche et tous les secteurs de l’économie seront touchés.  

Auteur: Turrettini Emily

Info: Bilan.ch, 24 nov 2022. Sources de l'auteure : C/Net / Cosmos / Venture Beat / TechTalk / The Daily Beast

[ ratage ] [ traitement des métadonnées ] [ bêtise encyclopédique ]

 

Commentaires: 0

Ajouté à la BD par miguel

santé numérique

Comment une société américaine siphonne les données de votre carte Vitale.

Une enquête de Cash Investigation révèle la mainmise du data broker IQVIA sur nos données de santé.

Dans l’enquête "Nos données valent de l’or", réalisée par Linda Bendali et qui sera diffusée ce jeudi 20 mai sur France 2 l’équipe d’Élise Lucet s’intéresse à la collecte, l’exploitation, la vente et l’ensemble du business juteux qui tourne autour des données personnelles.

Entre une exploration des pratiques des sites de vente ou de Doctissimo en matière de données, l’enquête s’arrête aussi sur un phénomène plus étonnant : IQVIA, société inconnue du grand public, est un data broker. Un courtier en données, en l’occurrence spécialisé dans le domaine de la santé, dont le fonds de commerce consiste à récolter des données afin de les revendre à des entreprises, pour que celles-ci puissent mieux cibler les utilisateurs dans leurs campagnes marketing.

IQVIA a obtenu, via un partenariat noué avec le réseau Pharmastat, la possibilité de récupérer les informations de vente de "plus de 14 000 pharmacies" sur le territoire français, soit plus de 60 % des pharmacies de métropole et DOM. Ce qui représente 40 millions des Français.

En un mot, lorsque vous présentez votre carte Vitale pour récupérer un traitement prescrit dans ces pharmacies, vos informations d’achat sont transmises à la société. Par l’entremise d’un logiciel de traitement, transmis gracieusement par IQVIA aux pharmaciens, où ils entrent les données de leur client (numéro de Sécurité sociale, médicaments délivrés, etc.) En sus, lesdites pharmacies récupèrent la maigre somme de 6 euros par mois et des études de marché sur les ventes de médicaments proposées par IQVIA, selon Cash Investigation.

Toutefois, les pharmaciens sont peu au courant de la destination finale de ces données et leur utilisation, précise l’émission. Ils devraient pourtant informer les clients et leur demander leur aval pour l’utilisation de ces données de santé, selon une obligation mis en place par la CNIL. Cash Investigation a fait le test dans 200 pharmacies, sans trouver la trace d’un quelconque signalement.

La réponse de la CNIL

Dans un communiqué de presse diffusé le 17 mai, la CNIL, qui a autorisé IQVIA à mettre en place sa filiale française, précise que ces "entrepôts de données de santé" doivent être anonymisés. "En principe, les données stockées dans ces entrepôts ne comportent plus l’identité des personnes concernées : elles sont dites 'pseudonymisées'. La CNIL est attentive à ce que le degré de pseudonymisation rende la réidentification des personnes la plus difficile possible", souligne la Commission.

Elle affirme aussi que des "garanties" ont été mises en place en 2018, lors de l’autorisation délivrée à IQVIA. Celles-ci concernent la finalité de l’utilisation des données, l’obligation pour les pharmaciens de prévenir leur client ou la possibilité de refuser. Des garanties qui sont mises à mal par l’enquête de Cash Investigation.

"Le fonctionnement de l’entrepôt de données de la société IQVIA autorisé en 2018 a été mis en cause dans l’émission Cash Investigation qui sera diffusée le 20 mai prochain. La CNIL précise qu’à ce jour, elle n’a pas reçu de plainte relative au fonctionnement de cet entrepôt mais annonce, au regard des éléments portés à la connaissance du public, qu’elle diligentera des contrôles", conclut la CNIL.

Auteur: Internet

Info: Benjamin Bruel, 18/05/2021. https://techno.konbini.com

[ France ] [ métadonnées ]

 
Commentaires: 2
Ajouté à la BD par miguel

société de surveillance

Dans les sociétés développées du début du XXIe siècle, un individu un tant soit peu “intégré” laisse tout au long de ses journées des traces de son activité dans des dizaines d’ordinateurs.

Des bornes électroniques enregistrent son passage dans les stations de métro, à bord des bus ou aux péages autoroutiers – un simple clic depuis sa voiture, et voici que la barrière se lève, que son compte bancaire est automatiquement débité. Ça roule. Toutes les antennes relais près desquelles il passe avec son téléphone portable s’en souviendront aussi. Les ordinateurs qu’il utilise gardent en mémoire l’ensemble des sites Internet qu’il visite et, symétriquement, tous ces sites retiennent l’adresse IP de la machine depuis laquelle il était connecté (à moins qu’il prenne des dispositions particulières pour brouiller les pistes). Qui plus est, bon nombre de ces sites lui demandent une foule de renseignements personnels qu’ils utilisent ou revendent. Sans parler de la mise à nu que demande (et permet) la fréquentation de sites de “rencontres” ou de “réseaux sociaux”…

S’il est salarié d’une entreprise ou d’une administration, une partie essentielle de son activité peut être recensée et évaluée par sa hiérarchie grâce à l’outil informatique. Même le cadre le plus “nomade” est tenu en laisse par son téléphone et son ordinateur portables, témoins de ses efforts et de ses relâchements pendant le temps qu’il passe loin du siège. Quant aux camionneurs, leur travail et leurs trajets sont absolument transparents aux yeux de leurs patrons. Grâce à l’informatique embarquée et au GPS, les possibilités pour un employé du fret routier d’assouplir son itinéraire, de dissimuler des pauses ou des détours indus sont réduites à presque rien. Des capteurs reliés à l’ordinateur de bord permettent même d’analyser après coup sa manière de conduire, pour pouvoir lui donner des “conseils” qui réduiront le risque de panne, la consommation d’essence ou… sa propre fatigue.

Si notre contemporain ordinaire est un agriculteur subventionné par l’Europe, l’administration peut vérifier grâce à des photos satellites qu’il ne ment pas au sujet des cultures qu’il déclare et de leur superficie, afin de ne pas lui attribuer des primes qu’il ne “mérite” pas. S’il est éleveur, il est sommé d’installer une puce électronique à l’oreille de ses bêtes, pour que leur identité soit reconnue par les lecteurs des services vétérinaires qui contrôlent les troupeaux, et par ceux des abattoirs où les animaux seront “bipés” comme n’importe quel article de supermarché. Traçabilité oblige.

En France, s’il est écolier, il figure dans toute une batterie de fichiers qui sont abreuvés d’informations à son sujet, de la maternelle jusqu’à la fin des études et même au-delà. La Base Élèves n’était qu’un ballon d’essai, désormais chaque élève aura son Livret personnel (et numérique) de compétences, véritable banque de données sur son parcours depuis le plus jeune âge, qui sera plus tard consultable par des recruteurs ou des agents de Pôle Emploi censés l’aider à trouver un travail. Il y a aussi, entre autres, le logiciel Suivi de l’orientation, qui vise à répertorier les 150 000 élèves sortant chaque année du système scolaire sans diplôme, ou le logiciel Sconet qui enregistre les notes, les absences, les sanctions des collégiens. Il y a les bornes biométriques pour accéder au réfectoire, dans les établissements où la traditionnelle carte de cantine est jugée trop archaïque et malcommode. Il y a, de plus en plus, des systèmes d’envoi automatisé de SMS aux parents dès qu’une absence de leur progéniture est constatée par les ordinateurs du lycée.

S’il demande un congé maladie, une allocation de chômage ou un revenu minimum, il doit prendre garde aux recoupements d’informations que la gestion informatique facilite entre les différentes caisses d’assurance et d’assistance, l’administration fiscale et les banques. Enfin, s’il a commis un délit, fût-ce le plus insignifiant, en a été victime ou simplement retenu comme témoin, il figure pour plusieurs dizaines d’années dans le STIC : le Système de traitement des infractions constatées, à ce jour le plus généreux et le plus ouvert des fichiers de police, avec ses quarante-cinq millions d’inscrits.

Il y a dix ou quinze ans, un tel tableau du futur proche pouvait encore sembler improbable et paranoïaque. Aujourd’hui, il est banal, la plupart de ses éléments sont connus de tous, certains font d’ailleurs l’objet d’indignations aussi récurrentes qu’inconséquentes. Demain, il se pourrait qu’il paraisse enfantin, préhistorique.

Auteur: Groupe Marcuse

Info: La liberté dans le coma

[ vie quotidienne ] [ management du parc humain ] [ métadonnées ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

homme-machine

Quand l'ordinateur façonne sa propre compréhension du monde
Des ordinateurs capables de regrouper, à partir d'une seule photo de vous, toutes les informations que contient votre empreinte numérique... Des machines aptes à auto générer des résumés à partir de textes complexes, ou encore en mesure de détecter un problème de santé à partir de l'imagerie médicale sans l'aide d'un médecin...
Le mariage des deux sciences que sont l'intelligence artificielle et le traitement des métadonnées est consommé. Et, si leur progéniture technologique est déjà parmi nous sous différentes formes, on prévoit que leurs futurs rejetons révolutionneront encore bien davantage notre quotidien.
C'est ce que prédit notamment Yoshua Bengio, professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal et directeur de l'Institut des algorithmes d'apprentissage de Montréal. Cet organisme compte près de 70 chercheurs, ce qui en fait le plus grand groupe de recherche en apprentissage profond (deep learning) du monde dont les activités sont concentrées en un seul endroit.
Les conséquences des avancées scientifiques actuelles et à venir sont encore difficiles à imaginer, mais l'explosion du volume de données numériques à traiter pose tout un défi : selon une estimation d'IBM, les échanges de données sur Internet devraient dépasser le zettaoctet, soit un milliard de fois la capacité annuelle d'un disque domestique...
Comment l'intelligence artificielle - IA pour les intimes - permettra-t-elle de traiter ces informations et de les utiliser à bon escient ?
Avant de répondre à la question, clarifions d'abord ce qu'on entend par "intelligence". Le célèbre psychologue suisse Jean Piaget en avait résumé une définition très imagée : "L'intelligence n'est pas ce qu'on sait, mais ce qu'on fait quand on ne sait pas." Plusieurs décennies plus tard, Yoshua Bengio applique cette définition à l'intelligence artificielle.
Apprentissage profond
Inspiré par les théories connexionnistes, Yoshua Bengio ainsi que les chercheurs Geoffrey Hinton et Yann LeCun ont donné naissance, il y a 10 ans, aux algorithmes d'apprentissage profond. Il s'agit de réseaux de neurones artificiels dont le nombre de couches plus élevé permet de représenter des concepts plus abstraits et donc d'apprendre mieux. Chaque couche se construit sur la précédente et combine les concepts plus simples captés à la couche précédente.
Par exemple, au cours des dernières années, différents chercheurs ont tenté d'améliorer la capacité de l'ordinateur à traiter le langage naturel, selon le concept de représentation distribuée : on associe chaque mot à une représentation, puis on utilise les neurones pour obtenir la probabilité du prochain mot.
"On crée de la sorte des relations sémantiques, explique M. Bengio. Si l'on dit "chien" dans une phrase, il est fort possible que cette phrase demeure correcte même si l'on remplace "chien" par "chat", puisque ces mots partagent de nombreux attributs sémantiques : l'ordinateur découvre des attributs communs et, par une forme de déduction, il devient capable d'opérer des transformations successives qui permettent par exemple à l'ordinateur de traduire d'une langue vers une autre."
De sorte que, là où il fallait auparavant plusieurs êtres humains pour montrer à l'ordinateur comment acquérir des connaissances, celui-ci est de plus en plus apte à façonner lui-même sa propre compréhension du monde. C'est là le propre de l'apprentissage profond.
Quelques applications actuelles
Combinée avec les avancées en recherche opérationnelle et les métadonnées, l'intelligence artificielle est déjà présente dans notre vie sous diverses formes. Il n'y a qu'à penser à la façon dont on peut désormais interagir verbalement avec son téléphone portable pour lui faire accomplir une tâche, comme lui demander d'avertir notre conjoint qu'on sera en retard, lui faire ajouter un rendez-vous à notre agenda ou, encore, lui demander de nous suggérer un restaurant italien à proximité de l'endroit où l'on se trouve... Il peut même vous indiquer qu'il est temps de partir pour l'aéroport en raison de la circulation automobile difficile du moment pour peu que vous lui ayez indiqué l'heure de votre vol !
"Ce n'est pas encore une conversation soutenue avec l'ordinateur, mais c'est un début et les recherches se poursuivent", indique de son côté Guy Lapalme, professeur et chercheur au laboratoire de Recherche appliquée en linguistique informatique de l'UdeM, spécialisé entre autres en génération interactive du langage et en outils d'aide à la traduction.
Et maintenant la recherche porte sur la combinaison langage et image. "Après un entraînement au cours duquel l'ordinateur a appris en visionnant plus de 80 000 photos associées chacune à cinq phrases descriptives, il est à présent en mesure de mettre lui-même par écrit ce que l'image évoque; il y a deux ans à peine, je n'aurais pas cru qu'il était possible d'en arriver là", mentionne M. Bengio, qui collabore régulièrement avec le Massachusetts Institute of Technology, Facebook ou Google.
"Nous avons fait de grands progrès récemment, mais nous sommes loin, très loin, de reproduire l'intelligence humaine, rassure l'éminent chercheur. Je dirais que nous avons peut-être atteint le degré d'intelligence d'une grenouille ou d'un insecte, et encore, avec plusieurs imperfections..."

Auteur: Internet

Info: 9 oct. 2015

[ Internet ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

extensibilité FLP

Le langage, si on approfondit la connaissance qu'on en a, révèle et circonstancie la priméité de C.S. Peirce. C'est à dire qu'on grandit avec et en lui, tout comme le monde extérieur dont nous sommes issus se développe et se définit via une science qui en dévoile petit à petit les détails au fur et à mesure de ses progrès et affinements. Malgré le différentiel de complexité inouï qui existe entre langages-vocabulaires et sciences-rationalismes. Pour s'en rendre compte amusons nous simplement à prendre exemple sur les millions de protéines différentes recensées de nos jours, et comparer ce très partiel et scientifique listing protéique de notre réel avec nos vocabulaires.  

Il y a le premier livre... et le second. Le second se divisant dans notre idée en deux parties 1) Linguistique subjective et 2) scientifico-informatique objective.

Il n'en reste pas moins que mots et langages afférents développent suffisamment de méandres et de complications pour que n'importe qui qui s'y intéresse puisse, via la lecture, la recherche, le plaisir, l'écriture, etc. y développer sa propre idiosynchrasie. Comme l'arbre qui s'intégre à sa forêt : "la nature individualise et généralise en même temps". Processus orthogonal susceptible d'augmenter et intégrer la variété - en favorisant le développement personnel de chacun au sein du corpus des savoirs verbalisés humains.

Et puis est récemment arrivée l'informatique, cybernétique post-leibnizienne, avec ses divers traitements automatiques du langage. Outils numériques qui permettent l'études des idiomes et dialectes sur trois axes en constante évolution :

a) Le langage du "maintenant présent" que le dictionnaire Internet permet de désambiguer sans cesse. 

b) Le langage devenu métadonnées, telles que manipulées-étudiées-utilisées par les traitements automatique des langues (TAL) ou "machine learning" ou Machine-homme. Avec maintenant Bard et/ou ChatGpt, sortis en mars de cette année,  agents conversationnels apte au compendium d'immenses données et qui peuvent répondre à des questions précises en partant de n'importe quelle idée qu'on leur soumet ; gérant et "précisant" points de vue et réponses en fonction d'algorithmes et autres "transformers" de plus en plus efficaces .

Outils très intéressants, mais aussi extrêmement limités puisqu'il s'agit de compilateurs, (qui donc peuvent difficilement donner leurs sources - ou pas du tout ) et qui ne fonctionnent in fine qu'avec la latence d'un certain a postériori. Agents dialogueurs qui "rebondissent" sur questions et propositions, en fonction des instructions humaines de ses programmateurs. Reste qu'il faut reconnaitre que la puissance perspectiviste de ces bots, et leurs facultés à éviter pas mal de biais humains grâce aux transformers, est assez bluffante. 

On mettra ici aussi l'accent sur les profondes différences sémantiques du terme "intelligence" en français (ensemble des fonctions mentales apte à connaître, comprendre et à s'adapter facilement sur une base rationelle) et en anglais (collecte d'informations ayant une valeur militaire ou politique, tout autant que : capacité d'acquérir et d'appliquer des connaissances et des compétences.) Mais stop.

c) Le langage tel que FLP veut l'aborder, c'est à dire un traitement "Homme-machine", continu, qui propose à des participants qui aiment lire et réfléchir !!!  Oui oui - de faire émerger collectivement (et maintenir à flot) - un dictionnaire intriqué susceptible de développer une réflexion naturelle, organique... humaine collective. Le tout en conservant un minimum de précision sémantique consensuelle. 

Processus FLP francophone qui part évidemment du "terme simple", pour immédiatement s'intéresser aux premières combinaisons, à 2 mots - ou radicaux de mots - et aller vers "plus long et plus complexe" via une incessante quête de compréhension et de partage du consensus sémantique et syntaxique des participants. On pourra parler ici de tropisme vers un genre de logique formelle ensemble. Logique formelle qui recherche l'ouverture puisque ce "monde humain verbalisé" n'a d'autre limite que "le sens contextualisé des mots et des phrases", que ce soit dans le rationnel, la littérature, la poésie, le religieux ou pur imaginaire... ou même la fantaisie potache.

Au passage et pour l'anecdote il y a aussi cette piste "théologico-scientifique" ou "mystico-rationnelle", plutôt d'ordre ludique et maniaque et issue des Dialogue avec l'ange, qui veut s'inspirer et relier les septénaires tels que les recherches et classification humaines ont pu les discerner - et les faire apparaitre à tous niveaux-endroits et échelles possibles.

Partant de l'idée que le sept au-delà de tous les symboles culturels et cognitifs humains, porte en lui une inouie complexité dans la mesure où ce nombre peut s'apprécier géométriquement comme le mélange du cercle et du carré. Mélange, une fois utilisé comme mètre dans le rythme musical, qui nous apparait comme un carrousel infini

Le sept pourra-t'il éventuellement être corrélé un jour de manière plus générale, via par exemple une AI perspectiviste suffisamment puissante pour le faire ? Qui établira plus profondément et formellement un multidimensionnel maillage du réel de la cognition humaine sous cet angle septénaire après l'avoir comparé à d'autres maillages possibles (par 12, ou 5, ou autre).

En attendant de rencontrer - et pouvoir communiquer - avec une autre race, extraterrestre si possible, histoire de voir si pareil angle de perception est éventuellement partagé. 

Si tel est le cas nous pourrons alors parler d'exo-spiritualité ...ou de religion cosmique.

Hon hon hon hon hon hon hon...

Auteur: Mg

Info: avril-mai 2023 *on pourra presque dire ici que la matière nous parle

[ gnose ] [ polydipsique curiosité ] [ théologico-humoristico-mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel