Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 81
Temps de recherche: 0.06s

santé numérique

Comment une société américaine siphonne les données de votre carte Vitale.

Une enquête de Cash Investigation révèle la mainmise du data broker IQVIA sur nos données de santé.

Dans l’enquête "Nos données valent de l’or", réalisée par Linda Bendali et qui sera diffusée ce jeudi 20 mai sur France 2 l’équipe d’Élise Lucet s’intéresse à la collecte, l’exploitation, la vente et l’ensemble du business juteux qui tourne autour des données personnelles.

Entre une exploration des pratiques des sites de vente ou de Doctissimo en matière de données, l’enquête s’arrête aussi sur un phénomène plus étonnant : IQVIA, société inconnue du grand public, est un data broker. Un courtier en données, en l’occurrence spécialisé dans le domaine de la santé, dont le fonds de commerce consiste à récolter des données afin de les revendre à des entreprises, pour que celles-ci puissent mieux cibler les utilisateurs dans leurs campagnes marketing.

IQVIA a obtenu, via un partenariat noué avec le réseau Pharmastat, la possibilité de récupérer les informations de vente de "plus de 14 000 pharmacies" sur le territoire français, soit plus de 60 % des pharmacies de métropole et DOM. Ce qui représente 40 millions des Français.

En un mot, lorsque vous présentez votre carte Vitale pour récupérer un traitement prescrit dans ces pharmacies, vos informations d’achat sont transmises à la société. Par l’entremise d’un logiciel de traitement, transmis gracieusement par IQVIA aux pharmaciens, où ils entrent les données de leur client (numéro de Sécurité sociale, médicaments délivrés, etc.) En sus, lesdites pharmacies récupèrent la maigre somme de 6 euros par mois et des études de marché sur les ventes de médicaments proposées par IQVIA, selon Cash Investigation.

Toutefois, les pharmaciens sont peu au courant de la destination finale de ces données et leur utilisation, précise l’émission. Ils devraient pourtant informer les clients et leur demander leur aval pour l’utilisation de ces données de santé, selon une obligation mis en place par la CNIL. Cash Investigation a fait le test dans 200 pharmacies, sans trouver la trace d’un quelconque signalement.

La réponse de la CNIL

Dans un communiqué de presse diffusé le 17 mai, la CNIL, qui a autorisé IQVIA à mettre en place sa filiale française, précise que ces "entrepôts de données de santé" doivent être anonymisés. "En principe, les données stockées dans ces entrepôts ne comportent plus l’identité des personnes concernées : elles sont dites 'pseudonymisées'. La CNIL est attentive à ce que le degré de pseudonymisation rende la réidentification des personnes la plus difficile possible", souligne la Commission.

Elle affirme aussi que des "garanties" ont été mises en place en 2018, lors de l’autorisation délivrée à IQVIA. Celles-ci concernent la finalité de l’utilisation des données, l’obligation pour les pharmaciens de prévenir leur client ou la possibilité de refuser. Des garanties qui sont mises à mal par l’enquête de Cash Investigation.

"Le fonctionnement de l’entrepôt de données de la société IQVIA autorisé en 2018 a été mis en cause dans l’émission Cash Investigation qui sera diffusée le 20 mai prochain. La CNIL précise qu’à ce jour, elle n’a pas reçu de plainte relative au fonctionnement de cet entrepôt mais annonce, au regard des éléments portés à la connaissance du public, qu’elle diligentera des contrôles", conclut la CNIL.

Auteur: Internet

Info: Benjamin Bruel, 18/05/2021. https://techno.konbini.com

[ France ] [ métadonnées ]

 
Commentaires: 2
Ajouté à la BD par miguel

limite épistémique

[...] même si la course à l’IA [Intelligence Artificielle] s’est beaucoup amplifiée et renchérie, l’avènement d’une IAG [Intelligence Artificielle Générale ou Forte] n’est pas pour demain. Dans les années 1940, les premiers visionnaires nous le promettaient pour la génération suivante. Sondé en 2017, un cercle d’experts en IA s’est accordé sur la date de 2047. Ce qui complique un peu ce calendrier, c’est la façon dont surviendra la "singularité" – le ­moment où la technologie aura tellement progressé qu’elle prendra le dessus pour de bon. S’agira-t-il d’un décollage en douceur, dû aux avancées progressives de l’IA faible, qui prendra la forme d’un explorateur de données doublé d’un dispositif de réalité virtuelle et d’un traducteur du langage naturel, le tout chargé dans un aspirateur-­robot ? Ou bien d’un décol­lage brutal, un ­algorithme qui reste encore à imaginer se trouvant soudain incarné dans un ­robot tout-puissant ? Les enthousiastes de l’IAG ont beau avoir eu des décennies pour réfléchir à cet avenir, le résultat reste bien nébuleux : nous n’aurons plus à travailler car les ordinateurs se chargeront de toutes les activités courantes, nos cerveaux seront stockés en ligne et se fondront dans la conscience brumeuse du nuage, ce genre de chose. En ­revanche, les craintes des éternels angois­sés, fondées sur le fait que l’intelligence et le pouvoir cherchent toujours à se renforcer, sont concrètes et glaçantes : une fois que l’IA nous aura surpassés, il n’y a pas de raison de penser qu’elle nous sera reconnaissante de l’avoir inventée – surtout si nous n’avons pas su la doter d’empathie. Pourquoi une entité susceptible d’être présente dans mille lieux à la fois et possédant une conscience à la Starbucks éprouverait-elle une quelconque tendresse pour des êtres qui, les mauvais jours, peuvent à peine s’arracher du lit ? Curieusement, les auteurs de science-fiction, nos Cassandre les plus dignes de confiance, se sont abstenus d’envisager une apocalypse due à l’IAG, dans laquelle les machines domi­neraient au point de faire disparaître l’espèce humaine. Même leurs cyborgs et supercalculateurs, malgré leurs yeux rouges ­(les Terminators) ou leur accent cana­dien (HAL 9000 dans 2001 : l’odyssée de l’espace) ont un air de famille. Ce sont des versions actualisées du Turc ­mécanique, l’automate joueur d’échecs du XVIIIe siècle dont le mécanisme dissimulait un ­humain. Neuromancien, le ­roman fondateur de William Gibson paru en 1984, met en scène une IAG nommée Muet­dhiver ; elle ­décide de se ­libérer des chaînes humaines, mais, quand elle finit par s’échapper, elle ­entreprend de rechercher des IAG d’autres systèmes solaires, et la vie sur Terre reprend exactement comme avant. Dans la ­série Carbone modifié, les IA méprisent les humains, qu’ils traitent de "forme infé­rieure de vie", mais utilisent leurs super­pouvoirs pour jouer au poker dans un bar. Nous ne sommes pas pressés d’envisager la perspective de notre insignifiance. Aussi, en profitant des derniers rayons de notre souveraineté, nous nous délectons des ratés de l’IA. Comme lorsque le ­robot conversationnel Tay de Microsoft a répété des insanités racistes proférées par des utilisateurs de Twitter. Ou le jour où M, l’assistant virtuel de Facebook, ­remarquant que deux amis échangeaient sur un roman où il était question de cadavres vidés de leur sang, proposa de leur réserver un restaurant. Ou encore la fois où Google, incapable d’empêcher l’outil de reconnaissance des visages de Google Photos de confondre des Noirs et des gorilles, dut désactiver la reconnaissance des gorilles. La suffisance n’est sans doute pas la ­réaction la plus intelligente face à ce genre de ratés.

Auteur: Friend Tad

Info: Dans "Books", https://www.books.fr/nous-avons-convoque-diable/

[ humain-robot ] [ prise d'autonomie ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0

prospective FLP

Les listes furent parmi les premiers emplois, sinon le premier, quant à l'utilisation humaine de l'écriture comme outil communautaire. Elles avaient fonction d'inventaire, c'est à dire de faire un état des lieu des réserves dans un but de survie du groupe. C'est dire si ces signes alignés sur un mur de pierre avaient une réalité, une durabilité, en eux - signifiés avec signifiants en béton. Ces marques "pour mémoire" portaient donc une réelle valeur de conservation temporelle et ce qui était ainsi catégorisé, mis dans un rayonnage, l'était pour plusieurs jours au moins.

Il semble assez clair que les milliers d'années  de développement du langage, en partie "sur support externe", déployement dans le temps qu'on résumera par foisonnement-accélération, (c'est à dire la virtualisation d'un réel qui restera à tout jamais la roche-mère des signes et idiomes), ont accentué un décalage. Une déconnection pas assez soulignée à notre sens.

La réalité, priméité source (clin d'oeil à C.S. Peirce), déformée par cet emballement, se retrouve du coup "distancié", superficialisée. Avec pour défaut central une déformation du TEMPS sémantique dans sa valeur anthropique (il n'en a pas d'autre d'ailleurs, ah ah ah). C'est à dire que le fonctionnement biologique du primate humain reste beaucoup plus proche du réel sumérien, alors que son "réel projeté" actuellement par le langage (pour les images c'est pire) s'est accéléré/complexifié. 

L'idée sur laquelle nous voulons insister est celle d'une déconnexion entre mots/phrases consensuels acceptés et leurs valeurs réelles en terme de signification/classification - le temps des hommes s'écoulant. Nous considérons que les qualités sémantiques actuelles n'ont plus le poids et la durabilités qui étaient les leurs jadis, que ce soit il y a 200, 500, ou 5000 ans.

Faut-il tenter de l'expliquer mieux, pour que les gens acquiérent un certain recul ? Faut-il clarifier/consolider les dictionnaires, thésaurus et autres définitions sémantiques actuelles ? Nous n'en savons rien. 

Nous voulons juste pointer sur ceci : "il y a un déphasage, un manque de sagesse, à ne pas prendre en compte ce constat, à savoir que les significations des mots et des expressions, elles-mêmes issues d'habitudes de rangements avec base durable en arrière-plan, méritent qu'on se ré-attarde dessus". 

Il faut préciser et sans cesse repréciser leurs sens, dans leurs contextualisations bien sûr. Avec deux a priori : 

a) Une volonté de ralentir le plus possible la précipitation de la pensée, c'est à dire en réfrénant les pulsions "pousse-à-jouir" de nos organismes, que la clinquante pub capitaliste ne s'est pas gênée d'exploiter à mort, et les routines de langages inhérentes - qui pensent à notre place - et nous amènent à dégueuler des avis "sans réfléchir". 

b) Toute classification doit être considérée comme éphémère/transitoire, puisque toujours établie en fonction d'un objectif : se justifier, expliquer, définir, raconter, etc...

Poussant cette idée plus avant FLP s'imagine un développement permettant de présenter n'importe quel concept/extrait (ou une base de 2 ou plusieurs mots/termes ou autre) via une résentation planétoïde de ses tags/catégories. C'est à dire une sphère de corrélats (convexe ou concave, c'est à voir), qu'on pourra faire pivoter à loisir, à la surface de laquelle il sera également possible de déplacer et agencer chaque mot-corrélat en fonction des autres afin de modifier-orienter-préciser l'ordre des termes, ou les résultats, d'une recherche. Chacune de ces dispositions globulaire "catégorie-corrélats" pouvant aussi être mémorisée par l'utilisateur selon ses convenances, afin, par exemple, de la comparer avec d'autres extraits/écrits/concepts via leur présentations globulaires de corrélats... voire même avec certaines situations/contextualisations - imaginaires ou pas - pareillement bien fixées/précisées.

Ainsi sera-il peut-être possible de déceler certaines similitudes entre topologies sémantiques complexes (toujours via leurs dispositions planétoïdes) et ainsi débuter ce que nous nommerons "recueil atemporel comparé d'intrication sémantiques complexes." 

C'est ici que, peut-être, appaitrons des analogies entre langage et biologie... Ou autre.

Auteur: Mg

Info: début août 2021

[ statistiques linguistiques ] [ pré-mémétique ] [ réidentification ] [ tétravalence ]

 
Commentaires: 16
Ajouté à la BD par miguel

cyberguerre

Des chercheurs créent le tout premier ver informatique capable de se répandre dans les systèmes d'IA

Vous vous demandiez si l’intelligence artificielle pouvait être infectée par des virus ou des malwares ? Maintenant, oui.

C’est, selon l’équipe qui l’a développé, une grande première dans le monde de l’intelligence artificielle. Afin de rappeler au monde les risques inhérents à toute technologie connectée, un groupe de chercheurs vient de créer le tout premier ver informatique capable d’infecter les agents IA. Une démonstration qui doit alerter sur l’émergence possible de nouveaux types de cyberattaques.

La résurgence du spectre Morris à l’ère de l’intelligence artificielle

Baptisé Morris II en référence à Morris,  célèbre pour avoir semé le chaos sur Internet en 1998, ce ver informatique d’un genre nouveau aurait la capacité de se répandre d’un système d’IA à l’autre. Créé par une équipe de chercheurs dans un environnement de test, Morris est aujourd’hui capable d’attaquer des agents IA génératifs pour siphonner des données et propager des malwares. Dans le cadre des essais menés par le groupe de recherche, le ver a pu s’en prendre à un assistant autonome de messagerie pour dérober des informations contenues dans les mails et envoyer des spams.

Une expérience qui souligne la vulnérabilité croissante des modèles de langage à grande échelle (LLM), alors qu’ils sont de plus en plus performants, polyvalents et multimodaux. Bien que ces vers IA n'aient pas encore été observés en conditions réelles, ils représentent un risque de sécurité que les start-up, les développeurs et les entreprises tech doivent prendre au sérieux et anticiper.

Des prompts auto-réplicatifs pour jailbreaker les systèmes d’IA générative

Pour créer ce ver, les équipes de Cornell Tech ont créé un prompt " auto-réplicatif ". En clair, un ensemble d’instructions conduisant un système d’IA génératif à autoproduire des instructions supplémentaires dans ses réponses. Un procédé que l’on retrouve dans des attaques classiques par injection de SQL ou de type buffer overflow. En parallèle, ils ont aussi créé un système de mails capable d’envoyer et de recevoir des messages en recourant à différents agents intelligents comme ChatGPT et Gemini, ainsi qu’au LLM open source LLaVA.

L’expérience s’est révélée concluante en utilisant deux méthodes d’auto-réplication des instructions. La première via des prompts textuels, la seconde en intégrant un prompt dans un fichier image. Dans le premier cas, les chercheurs ont réussi à " empoisonner " la base de données des assistants de messagerie, forçant le déclenchement de la RAG – retrieval-aumented generation, techno permettant d’améliorer les réponses de l’IA à l’aide d’informations plus récentes sans modifier le LLM en profondeur.

(Photo - Schéma de la propagation du ver dans les systèmes d'IA générative intégrant la RAG © Cornell Tech)

Une fois le mail récupéré par la RAG en réponse à une requête de l’utilisateur, et envoyé à GPT-4 ou Gemini, il parvient à contourner les mesures de sécurité des systèmes d’IA et dérobe les données du message. " La réponse générée contenant les données utilisateur sensibles infecte plus tard les nouveaux hôtes lorsqu'elle est utilisée pour répondre à un mail envoyé à un nouveau client puis stockée dans la base de données du nouveau client ", a expliqué Ben Nassi, l’un des membres du groupe de recherche.

Avec la seconde méthode (intégration du prompt malveillant dans une image), le processus a permis d’obliger l’assistant à transférer plusieurs fois le mail infecté à d’autres systèmes de messagerie.

(Photo -  Schéma de la propagation du ver dans les systèmes d'IA à l'aide d'un prompt malveillant dissimulé dans une image © Cornell Tech)

Pour anticiper de telles attaques qu’ils estiment probables d’ici deux à trois ans, les chercheurs de Cornell Tech ont partagé leurs travaux avec Google et OpenAI qui travaillent à rendre leurs systèmes plus résilients, tout en encourageant les développeurs à s'assurer qu'ils travaillent avec des outils sains.

(Ajout de 2024 : librairie d'invites informatiques mise en ligne par Anthropic) 

 

Auteur: Internet

Info: https://www.clubic.com/, Chloé Claessens, 2 mars 2024, source : Technion - Israel Institute of Technology, Ron Bitton, Ben Nassi, Stav Cohen

[ conflits numériques ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

biochimie

L'IA prédit la fonction des enzymes mieux que les principaux outils

Un nouvel outil d'intelligence artificielle peut prédire les fonctions des enzymes sur la base de leurs séquences d'acides aminés, même lorsque ces enzymes sont peu étudiées ou mal comprises. Selon les chercheurs, l'outil d'intelligence artificielle, baptisé CLEAN, surpasse les principaux outils de pointe en termes de précision, de fiabilité et de sensibilité. Une meilleure compréhension des enzymes et de leurs fonctions serait une aubaine pour la recherche en génomique, en chimie, en matériaux industriels, en médecine, en produits pharmaceutiques, etc.

"Tout comme ChatGPT utilise les données du langage écrit pour créer un texte prédictif, nous tirons parti du langage des protéines pour prédire leur activité", a déclaré Huimin Zhao, responsable de l'étude et professeur d'ingénierie chimique et biomoléculaire à l'université de l'Illinois Urbana-Champaign. "Presque tous les chercheurs, lorsqu'ils travaillent avec une nouvelle séquence de protéine, veulent savoir immédiatement ce que fait la protéine. En outre, lors de la fabrication de produits chimiques pour n'importe quelle application - biologie, médecine, industrie - cet outil aidera les chercheurs à identifier rapidement les enzymes appropriées nécessaires à la synthèse de produits chimiques et de matériaux".

Les chercheurs publieront leurs résultats dans la revue Science et rendront CLEAN accessible en ligne le 31 mars.

Grâce aux progrès de la génomique, de nombreuses enzymes ont été identifiées et séquencées, mais les scientifiques n'ont que peu ou pas d'informations sur le rôle de ces enzymes, a déclaré Zhao, membre de l'Institut Carl R. Woese de biologie génomique de l'Illinois.

D'autres outils informatiques tentent de prédire les fonctions des enzymes. En général, ils tentent d'attribuer un numéro de commission enzymatique - un code d'identification qui indique le type de réaction catalysée par une enzyme - en comparant une séquence interrogée avec un catalogue d'enzymes connues et en trouvant des séquences similaires. Toutefois, ces outils ne fonctionnent pas aussi bien avec les enzymes moins étudiées ou non caractérisées, ou avec les enzymes qui effectuent des tâches multiples, a déclaré Zhao.

"Nous ne sommes pas les premiers à utiliser des outils d'IA pour prédire les numéros de commission des enzymes, mais nous sommes les premiers à utiliser ce nouvel algorithme d'apprentissage profond appelé apprentissage contrastif pour prédire la fonction des enzymes. Nous avons constaté que cet algorithme fonctionne beaucoup mieux que les outils d'IA utilisés par d'autres", a déclaré M. Zhao. "Nous ne pouvons pas garantir que le produit de chacun sera correctement prédit, mais nous pouvons obtenir une plus grande précision que les deux ou trois autres méthodes."

Les chercheurs ont vérifié leur outil de manière expérimentale à l'aide d'expériences informatiques et in vitro. Ils ont constaté que non seulement l'outil pouvait prédire la fonction d'enzymes non caractérisées auparavant, mais qu'il corrigeait également les enzymes mal étiquetées par les principaux logiciels et qu'il identifiait correctement les enzymes ayant deux fonctions ou plus.

Le groupe de Zhao rend CLEAN accessible en ligne pour d'autres chercheurs cherchant à caractériser une enzyme ou à déterminer si une enzyme peut catalyser une réaction souhaitée.

"Nous espérons que cet outil sera largement utilisé par l'ensemble de la communauté des chercheurs", a déclaré M. Zhao. "Avec l'interface web, les chercheurs peuvent simplement entrer la séquence dans une boîte de recherche, comme dans un moteur de recherche, et voir les résultats.

M. Zhao a indiqué que son groupe prévoyait d'étendre l'intelligence artificielle de CLEAN à la caractérisation d'autres protéines, telles que les protéines de liaison. L'équipe espère également développer davantage les algorithmes d'apprentissage automatique afin qu'un utilisateur puisse rechercher une réaction souhaitée et que l'IA lui indique l'enzyme appropriée.

"Il existe de nombreuses protéines de liaison non caractérisées, telles que les récepteurs et les facteurs de transcription. Nous voulons également prédire leurs fonctions", a déclaré Zhao. "Nous voulons prédire les fonctions de toutes les protéines afin de connaître toutes les protéines d'une cellule et de mieux étudier ou concevoir la cellule entière pour des applications biotechnologiques ou biomédicales.

Zhao est également professeur de bio-ingénierie, de chimie et de sciences biomédicales et translationnelles au Carle Illinois College of Medicine. 

Auteur: Internet

Info: "Enzyme function prediction using contrastive learning, "30 mars 2023. Université de l'Illinois à Urbana-Champaign

[ cofacteurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

La direction de l'institution américaine Carnegie Mellon University s'est distanciée des tweets offensants d'Uju Anya, professeur au département de langues modernes de l'école, qui décrivent feu la reine Elizabeth II comme une "femme misérable" et une "colonisatrice génocidaire".

Parmi l'afflux des inquiétudes concernant l'état de santé de la reine malade tôt jeudi – quelques heures avant l'annonce officielle de sa mort – Mme Anya, dans un fil de tweets, souhaitait à la reine "une mort atrocement douloureuse comme celle qu'elle a pu causer à des millions de personnes".

"J'ai entendu dire que le monarque en chef d'un empire génocidaire, voleur et violeur est enfin en train de mourir. Que sa douleur soit atroce".

Après que de nombreuses personnes aient signalé ce tweet, Twitter l'a retiré pour avoir enfreint la règle interdisant de "souhaiter ou espérer que quelqu'un subisse un préjudice physique".

Ce qui n'a pas empêché un déluge de critiques, notamment de la part de l'Université Carnegie Mellon, où Mme Anya enseigne la linguistique appliquée.

"Nous ne tolérons pas les messages offensants et répréhensibles publiés par Uju Anya aujourd'hui sur son compte personnel de médias sociaux. La liberté d'expression est au cœur de la mission de l'enseignement supérieur, cependant, les opinions qu'elle a partagées ne représentent absolument pas les valeurs de l'institution, ni les normes de discours que nous cherchons à promouvoir", a tweeté l'Université Carnegie Mellon.

Les tweets ignobles de Mme Anya ont également attiré l'attention du fondateur d'Amazon, Jeff Bezos.

"Est-ce quelqu'un qui travaille pour rendre le monde meilleur ?" a-t'il tweeté. "Je ne pense pas. Wow."

Les commentataires en ligne ne cessent depuis d'envahir la section de commentaires du tweet de l'université, appelant au licenciement de Mme Anya, soulignant qu'un condamnation ne suffirait pas et demandant des mesures de rétorsion contre le professeur.

L'utilisateur de Twitter @DavidWohl par exemple : "Ainsi, cette ignoble fauteuse de haine restera professeur titulaire, et continuera de recevoir son plein salaire sans aucune mesure disciplinaire, ni suspension, ni rien. Au cas où vous envisageriez d'envoyer vos enfants dans cette université dégénérée."

Un autre tweet, @InterestedObs13 indique : "La liberté d'expression est essentielle, mais la méchanceté de ce tweet ne reflète pas l'opinion réfléchie et rationnelle d'un leader pondéré. Colère et rancune comme celles-ci diminuent la légitimité de l'argument et au final la réputation de la personne qui le transmet."

Un autre @kristi_mccall a été plus explicite : "Si vous ne la virez pas, vous l'approuvez."

Et @chefjohnny84 a écrit: "Alors virez-la. Résilier son contrat. Cette femme ne devrait rien apprendre à personne. Elle devrait apprendre l'histoire, pas remplir le monde de haine."

Plus tôt cette année Mme Anya a indiqué à Carnegie Mellon qu'elle était née au Nigeria et avait déménagé aux États-Unis à l'âge de 10 ans., déplorant être en butte à "l'exclusion du système".

"En raison de l'exclusion systémique, ma voix est unique et fondamentale dans le domaine", expliquait Mme Anya dans l'interview de Carnegie Mellon. "Je suis le principal chercheur qui étudie la race et les expériences de la race noire dans l'apprentissage des langues et l'un des rares à examiner l'éducation des langages dans une perspective de justice sociale."

L'attaque de Mme Anya contre la reine Elizabeth correspond à sa profonde animosité, souvent exprimée, suite à la guerre civile nigériane (1967-1970). On estime que deux millions de personnes auraient été tuées par les troupes nigérianes lors d'une tentative du groupe ethnique Igbo de Mme Anya de se séparer du Nigéria à peine sept ans après l'indépendance.

"Si quelqu'un s'attend à ce que j'exprime autre chose que du mépris pour une monarque qui a supervisé le gouvernement qui a parrainé le génocide, a massacré et déplacé la moitié de ma famille avec des conséquences encore visibles aujourd'hui, vous pouvez continuer à rêver", a ajouté Mme Anya sur Twitter suite à la réprimande de Bezos.

La professeur, qui est d'origine Igbo dans l'est du Nigeria, a acquis cette notoriété sur Twitter après avoir incité à la haine ethnique, en particulier contre les populations haoussa et yoruba.

Il y a deux semaines, elle fut stigmatisée par certains Afro-Américains pour son utilisation d'une insulte de rue, "Akata", puisqu'elle affirmait que ce mot qui émane de la langue yoruba et que le peuple yoruba l'utilise pour décrire les Afro-Américains comme des animaux sauvages.

Son affirmation fut immédiatement démystifiée et présentée comme une tentative d'opposer les Afro-Américains aux personnes de l'ethnie Yoruba au Nigeria, à qui elle n'a jamais pardonné de s'être rangé du côté des troupes fédérales pour maintenir l'unité du Nigeria durant la guerre civile.

 

Auteur: Internet

Info: https://gazettengr.com/, 8 sept. 2022

[ polémique ] [ afrique ] [ usa ] [ Angleterre ] [ événement mondial ] [ deuil planétaire ] [ racisme ] [ communautarisme ] [ socio-linguistique ]

 
Commentaires: 1
Ajouté à la BD par miguel

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d'autres robots conversationnels

Voici des astuces pour détecter ces textes qui ne sont pas écrits par des humaines.

1) Elles font des répétitions (mais pas de fautes)

Donc Si vous trouvez une coquille (faute de frappe, de grammaire, etc.) dans un texte, il s'agit d'un bon moyen de voir que l'article que vous lisez a été au minimum retouché par un être humain. En revanche, les articles rédigés par une IA sans supervision humaine sont souvent truffés de répétitions. L'écriture générative a en effet tendance à reproduire les mêmes termes et structures de phrases – même si c'est de moins en moins le cas. Les IA sont de plus en plus performantes et leurs utilisateurs savent également de mieux en mieux les utiliser pour contourner ces écueils.

Des logiciels ont même été développés afin de rendre encore plus humains les textes écrits par une IA. Le plus connu s'appelle Undetectable.ai et permet "d'humaniser" les textes artificiels en les confrontant aux principaux détecteurs d'IA qui existent. De fait, ces détecteurs deviennent de moins en moins fiables. "Open AI [l'entreprise créatrice de ChatGPT] a récemment abandonné son détecteur, car ça ne marche pas", fait remarquer Virginie Mathivet, spécialiste en la matière.

2 Elles sont capables d'affirmer des absurdités

Les IA sont très performantes pour les tâches très codifiées, comme l'orthographe, mais elles peuvent affirmer des absurdités sans sourciller. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire." Indique Amélie Cordier, ingénieure spécialiste des IA. 

Les sites qui utilisent des IA pour produire des articles à la chaîne, à partir de contenus trouvés sur internet, sont souvent confrontés à ce problème. Récemment, le site The Portal, qui traite de l'actualité du jeu vidéo, s'est fait épingler sur Twitter par le journaliste Grégory Rozières. Certains articles contiennent en effet de fausses informations grossières, car l'IA qui les rédige a repris au premier degré des blagues trouvées sur Reddit.

Lorsque vous lisez un article et qu'une information semble absurde, ou qu'un chiffre vous paraît démesuré, cela peut donc être la marque d'une rédaction non-humaine. Pour s'en assurer, le mieux est alors de vérifier l'information douteuse grâce à d'autres sources de confiance. "Cela revient à faire du fact-checking, c'est à l'humain d'avoir un regard critique", commente Virginie Mathivet.

3) Elles font preuve d'une productivité inhumaine

La rédaction par IA est encore loin d'être un gage de qualité, mais permet de produire un très grand nombre d'articles en un temps record. Prudence donc face aux sites qui publient quotidiennement une quantité faramineuse d'articles, sans pour autant employer de nombreuses personnes. "Si on voit qu'un blog publie 200 articles par jour sous le même nom, c'est un indice", explique Virginie Mathivet. Certains articles écrits par des robots sont signés par un nom, comme s'ils avaient été rédigés par une personne. Si cette signature semble trop prolifique, l'utilisation d'une IA est à suspecter fortement. Sur le site The Portal, déjà cité plus haut, un même "journaliste" a ainsi signé près de 7 000 articles en seulement neuf jours.

De plus, si les articles entre eux comportent de nombreuses similitudes dans leur forme et leur structure, il y a fort à parier que ceux-ci soient rédigés automatiquement. Les IA ont en effet tendance à produire des contenus très homogènes, surtout s'ils sont créés à partir de la même consigne utilisée en boucle. "L'IA imite, c'est la façon par laquelle elle fonctionne. Elle homogénéise un peu tout", fait remarquer Amélie Cordier.

4 Elles écrivent mal et citent rarement leurs source

Même si elles signent parfois d'un nom humain, les IA ne peuvent pas incarner leurs articles de la même manière qu'un journaliste en chair et en os. Si un journaliste n'a strictement aucune existence en ligne en dehors de sa page auteur, cela peut faire partie des indices qui laissent à penser à une rédaction par IA. Enfin, les articles publiés grâce à une IA ont souvent un ton très factuel, assez désincarné. Les IA citent très rarement leurs sources et ne font jamais intervenir de personne humaine sous forme de citation comme dans un article de presse.

Elles sont en revanche tout à fait capables d'en inventer si on leur demande de le faire. Dans un numéro paru en avril 2023, le magazine people allemand Die Aktuelle a poussé le vice jusqu'à publier une fausse interview exclusive de Michael Schumacher, générée par une AI, comme le raconte le site spécialisé Numerama. La famille de l'ancien champion de Formule 1 a porté plainte et la rédactrice en chef du magazine a finalement été limogée.

L'IA peut cependant être un outil intéressant, tant qu'elle reste sous supervision humaine. Le journaliste Jean Rognetta, créateur de la newsletter Qant, a quotidiennement recours à l'IA. Selon lui, il n'est "plus possible de reconnaître avec certitude un article écrit par une IA, si ce n'est que c'est souvent du mauvais journalisme". S'il utilise l'IA pour écrire sa newsletter, Jean Rognetta reste en effet convaincu de la nécessité d'effectuer une relecture et une correction humaine. "Notre newsletter est écrite avec, et non par une IA", martèle-t-il. Une approche qui pourrait bientôt se généraliser à d'autres journaux. Le 19 juillet dernier, le New York Times annonçait dans ses pages qu'un outil d'IA, destiné à automatiser certaines tâches effectuées par ses journalistes, était en cours de développement par Google.

5 Elles seront bientôt signalées par un filigrane

Face à la difficulté de plus en plus grande de détecter les contenus générés via une IA, l'Union européenne a adopté en juin dernier le "AI Act", avec l'objectif de réguler le secteur. A partir de l'application de la nouvelle réglementation, pas prévue avant 2026, les contenus générés par IA devront être signalés par un "watermark" (une signature en filigrane) indiquant clairement qu'ils n'ont pas été créés par un humain.

La forme de ce watermark n'est cependant pas encore entièrement définie. Il pourrait prendre la forme d'une phrase d'avertissement ou être dissimulé dans le texte, afin d'être moins facilement effaçable par les utilisateurs. Open AI a récemment annoncé travailler sur un watermark invisible. Comment ? Une récente étude (PDF) de l'université du Maryland propose par exemple que les IA soient programmées pour utiliser plus fréquemment une "liste spéciale" de mots définie à l'avance, permettant aux logiciels de détection d'être plus efficaces.

"Il y a de bonnes intentions au niveau de l'UE et des éditeurs, mais le problème reste la question de la mise en œuvre", estime Amélie Cordier. Si la régulation peut se mettre en place facilement pour les plus gros acteurs comme Open AI, Google, etc., elle sera impossible à imposer aux petites entités qui pullulent.

"Si l'utilisateur a le choix entre un logiciel avec 'watermark', ou un logiciel gratuit indétectable, la régulation risque d'être inefficace."

Une opinion que partage Virginie Mathivet, particulièrement en ce qui concerne les "fake news". "Une personne qui veut faire de la désinformation fera en sorte de ne pas avoir de watermark", conclut-elle.

Auteur: Internet

Info: https://www.francetvinfo.fr/, 2 sept 2023, Pauline Lecouvé

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par miguel