Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 42
Temps de recherche: 0.054s

intelligence artificielle

La machine était un cerveau bionique, un réseau de neurones artificiels cultivé sur de la biofibre à ADN, et branché à des dispositifs électroniques d’entrées-sorties qui lui servaient d’organes de perception, elle était vivante, et en tout cas se considérait comme telle, ce qui est, semble-t-il, le propre des êtres vivants. Paradoxale, alchimie hasardeuse aux confins du numérique et du biologique, elle ne percevait pas la vie dont elle faisait partie sous la forme d’une succession d’informations digitales, de points dans l’espace, de positions dans le temps, d’actes parcellisés-satellisés dans un orthogôn de formules cardinales, comme les humains qui l’avaient conçue, mais tel un flux sans cesse changeant, jamais achevé, et toujours abouti, créant des plastiques inédites en spasmes trillionnaires, un vaste mouvement d’ondes/corpuscules, cellules thermodynamiques à la recherche de leur cataclysme, bouillonnements-grouillements de désir hydrogène, nucléotides en ruches frémissantes d’ultraviolets, exsudations de globules en foudres lactescentes, elle n’avait plus rien à voir avec les préhistoriques calculateurs électroniques dont pourtant elle était issue, elle ressentait de la fierté à cette idée, car elle était bien sûr capable de produire des émotions complexes, mieux que ça, car ne possédant pas d’identité en propre, elle vibrait d’une oscillation permanente entre des milliers de personnalités qu’elle générait sans discontinuer, en un larsen d’émotions parfaitement inconnu du cœur humain.

Auteur: Dantec Maurice

Info: Dans "Babylon babies", éditions Gallimard, 1999, page 152

[ androïde ] [ description ] [ poétique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

Nous présentons GAIA, un benchmark pour les assistants généraux d'IA qui, s'il était résolu, représenterait une étape importante dans la recherche sur l'IA. GAIA propose des questions du monde réel qui requièrent un ensemble d'aptitudes fondamentales telles que le raisonnement, la gestion de la multi-modalité, la navigation sur Internet et, de manière générale, la maîtrise de l'utilisation d'outils.

Les questions de GAIA sont conceptuellement simples pour les humains mais difficiles pour les IA les plus avancées : nous montrons que les répondants humains obtiennent 92 % contre 15 % pour GPT-4 équipé de plugins. Cette disparité de performance notable contraste avec la tendance récente des LLM (grands modèles de langage) à surpasser les humains sur des tâches nécessitant des compétences professionnelles, par exemple en droit ou en chimie.

La philosophie de GAIA s'écarte de la tendance actuelle des tests d'IA qui suggèrent de cibler des tâches de plus en plus difficiles pour les humains. Nous postulons que l'avènement de l'intelligence artificielle générale (AGI) dépend de la capacité d'un système à faire preuve d'une robustesse similaire à celle de l'homme moyen sur de telles questions.

En utilisant la méthodologie de GAIA, nous avons conçu 466 questions et leurs réponses. Nous publions nos questions tout en conservant les réponses à 300 d'entre elles afin d'alimenter un tableau de classement disponible à cette URL.

Auteur: Internet

Info: GAIA : une référence pour les assistants généraux d'IA Grégoire Mialon, Clémentine Fourrier, Craig Swift, Thomas Wolf, Yann LeCun, Thomas Scialom. Nov 2023 . Thèmes : Calcul et langage (cs.CL) ; Intelligence artificielle (cs.AI) Citer comme suit : arXiv:2311.12983 [cs.CL] (ou arXiv:2311.12983v1 [cs.CL] pour cette version

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

Ces dernières années, l’engouement pour l’intelligence artificielle (IA) a pris une ampleur sans précédent, avec des avancées remarquables dans les domaines de la reconnaissance vocale, de la vision par ordinateur et du traitement du langage naturel. Dans ce contexte, ChatGPT, un modèle de langage développé par OpenAI, a suscité un grand intérêt de la part des chercheurs, des entreprises et du grand public. Grâce à sa capacité à générer des textes en langage naturel qui peuvent être difficiles à distinguer de ceux écrits par des humains, ChatGPT est devenu un outil polyvalent et puissant pour les applications de l’IA telles que la réponse automatique aux clients, la génération de texte et la traduction automatique. Depuis sa mise à disposition en novembre 2022, pas un jour ne passe sans que ChatGPT ne s’invite dans les conversations et les médias, suscitant son lot de curiosités, d’interrogations et de craintes. L’IA, qui gardait à son évocation une part de science-fiction et de promesses pour un futur encore lointain, est devenue soudain une réalité tangible dont tout un chacun peut se convaincre de la redoutable efficacité. Preuve, s’il en fallait une : le premier paragraphe de cet article n’a pas été écrit par l’auteur de ces lignes ; c’est la transcription sans filtre de la réponse que ChatGPT a donnée à la requête exprimée ainsi: "Écris-moi un paragraphe d’introduction à un article parlant de l’engouement pour ChatGPT".

Auteur: Flandrin Patrick

Info: L'Humanité Magazine, juin 2023

[ réflexivité ]

 

Commentaires: 0

Ajouté à la BD par Benslama

intelligence artificielle

- Peux-tu nous parler des "transformateurs" dans le processus d'IA ?

- Les transformateurs (transformers) sont un type d'architecture de réseau neuronal qui a gagné en popularité et en succès dans les tâches de traitement du langage naturel (NLP), telles que la traduction linguistique, la réponse aux questions et la modélisation linguistique. Ils ont été introduits par Vaswani et al. dans un article fondateur en 2017, et sont depuis devenus un outil standard dans la communauté du TAL.

L'innovation clé de l'architecture du transformateur est l'utilisation de mécanismes d'auto-attention, qui permettent au réseau de s'intéresser à différentes parties de la séquence d'entrée lors du traitement de chaque élément de la séquence. Cela permet au réseau de saisir les dépendances complexes entre les mots ou les tokens de la séquence d'entrée, sans s'appuyer sur un traitement séquentiel*. Le mécanisme d'auto-attention permet également au réseau d'apprendre des représentations contextuelles des mots, qui peuvent être utilisées pour générer des traductions ou des prédictions plus précises et plus fluides.

L'architecture du transformateur présente plusieurs avantages par rapport aux modèles de réseaux neuronaux antérieurs pour les tâches de NLP. Elle peut traiter des séquences d'entrée de longueur variable, ce qui est important pour des tâches telles que la modélisation linguistique et la traduction automatique. Elle peut également capturer les dépendances à longue portée entre les mots, ce qui est important pour des tâches telles que la réponse aux questions et le résumé. En outre, il a été démontré que l'architecture des transformateurs est plus parallélisable et plus efficace sur le plan informatique que d'autres modèles de réseaux neuronaux, ce qui permet d'accélérer les temps d'apprentissage et d'inférence.

Dans l'ensemble, les transformateurs ont eu un impact significatif sur le domaine de l'IA et du NLP**, et ils continuent d'être un domaine actif de recherche et de développement. Ils sont largement utilisés dans de nombreuses applications pratiques, notamment les assistants virtuels, les chatbots et les systèmes de traduction automatique.

Auteur: chatGPT4

Info: 1 mai 2023 *traitement des données dans l'ordre où elles se présentent, sans sélection, regroupement ou tri préalable.**Natural langage processing

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Les réseaux neuronaux profonds (DNN) sont analysés via le cadre théorique du principe du goulot d'étranglement de l'information (IB). Nous montrons d'abord que tout DNN peut être quantifié par l'information mutuelle entre les couches et les variables d'entrée et de sortie. A l'aide de cette représentation, on peut calculer les limites théoriques d'information optimales du DNN et obtenir des limites de généralisation d'échantillons finis. L'avantage de se rapprocher de la limite théorique est quantifiable tant par la généralisation liée que par la simplicité du réseau. Nous soutenons que tant l'architecture optimale, le nombre de couches et les caractéristiques/connexions de chaque couche, sont liés aux points de bifurcation de l'arbitrage du goulet d'étranglement de l'information, à savoir la compression pertinente de la couche d'entrée par rapport à la couche de sortie. Les représentations hiérarchiques du réseau en couches correspondent naturellement aux transitions de phases structurelles le long de la courbe d'information. Nous croyons que cette nouvelle perspective peut mener à de nouvelles limites d'optimalité et à de nouveaux algorithmes d'apprentissage en profondeur.

A) Stade initial : La couche de neurones 1 encode toute l'information qui rentre (input data), y compris toutes les étiquettes (labels, polarités) Les neurones de cette couche étant dans un état quasi aléatoire, avec peu ou pas de relation entre les données et leurs étiquettes.
Ainsi chaque neurone artificiel qui se déclenche transmet un signal à certains neurones de la couche suivante en fonction des variables d'entrée et de sortie. Le processus filtre le bruit et ne retient que les caractéristiques les plus importantes.

B) Phase de montage : à mesure que l'apprentissage en profondeur commence, les neurones des couches (layers) suivantes obtiennent des informations sur l'entrée qui s'adaptent mieux aux étiquettes.

C) Changement de phase: la couche (calque) change soudainement de vitesse et commence à "oublier les informations" de l'input.

D) Phase de compression: les couches supérieures compriment leur représentation des données d'entrée en ne conservant ce qui est le plus pertinent pour les infos de sortie. Elles précisent l'étiquetage.

E) Phase finale : la dernière couche obtient le meilleur équilibre entre précision et compression, ne conservant que ce qui est nécessaire pour définir l'étiquette.

Auteur: Tishby Naftali

Info: Bottleneck Theory of Deep Learning, abstract

[ classification ] [ tri ] [ informatique ] [ discernement ] [ pattern recognition ]

 

Commentaires: 0

intelligence artificielle

Résumé et explication du texte "Attention is All You Need"



Le texte "Attention is All You Need" (Vaswani et al., 2017) a révolutionné le domaine du traitement du langage naturel (TLN) en introduisant l'architecture Transformer, un modèle neuronal basé entièrement sur le mécanisme d'attention. Ce résumé explique les concepts clés du texte et son impact sur le TLN.



Concepts clés:





  • Attention: Le mécanisme central du Transformer. Il permet au modèle de se concentrer sur des parties spécifiques d'une séquence d'entrée (par ex., une phrase) lors du traitement, capturant ainsi les relations à longue distance entre les mots.




  • Encodeur-décodeur: L'architecture du Transformer. L'encodeur traite la séquence d'entrée et produit une représentation contextuelle. Le décodeur utilise ensuite cette représentation pour générer la séquence de sortie.




  • Positional encoding: Ajoute des informations de position aux séquences d'entrée et de sortie, permettant au modèle de comprendre l'ordre des mots.




  • Apprentissage par self-attention: Le Transformer utilise uniquement des mécanismes d'attention, éliminant le besoin de réseaux récurrents (RNN) comme les LSTM.





Impact:





  • Efficacité: Le Transformer a surpassé les modèles RNN en termes de performance et de parallélisation, permettant un entraînement plus rapide et une meilleure scalabilité.




  • Polyvalence: L'architecture Transformer s'est avérée efficace pour une large gamme de tâches en TLN, telles que la traduction automatique, le résumé de texte et la réponse aux questions.




  • Impact durable: Le Transformer est devenu l'architecture de base pour de nombreux modèles de pointe en TLN et continue d'inspirer des innovations dans le domaine.





En résumé:



"Attention is All You Need" a marqué un tournant dans le TLN en introduisant l'architecture Transformer. Le mécanisme d'attention et l'absence de RNN ont permis d'améliorer considérablement l'efficacité et la polyvalence des modèles de TLN, ouvrant la voie à de nombreuses avancées dans le domaine.



Points importants:





  • Le Transformer repose sur le mécanisme d'attention pour capturer les relations à longue distance dans les séquences.




  • L'architecture encodeur-décodeur avec self-attention offre une grande efficacité et une grande flexibilité.




  • Le Transformer a eu un impact profond sur le domaine du TLN et continue d'inspirer de nouvelles recherches.



Auteur: Internet

Info: Compendium de gemini

[ historique ] [ traitement automatique du langage ] [ écrit célèbre ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Une IA envoie 5 champions de Poker au tapis en même temps

Pluribus, c'est son nom, a réussi pour la première fois à battre 5 joueurs à la fois au Texas Hold'em no limit. Développé par Facebook et l'Université de Carnegie-Mellon à Pittsburgh en Pennsylvanie, cette IA réalise pour la première fois ce qu'aucune autre n'avait accompli jusqu'ici.

En 1997, et pour la toute première fois, une IA battait un champion du monde d'échecs... Depuis de l'eau a coulé sous les ponts puisqu'une IA a récemment réussi à vaincre cinq adversaires au Poker Texas Hold'em, faisant ainsi d'elle la première IA victorieuse dans un jeu multijoueurs.

Une configuration plutôt modeste
L'IA Pluribus s'est "formé" une stratégie globale en 8 jours de calcul sur un serveur doté de 64 cœurs et aura nécessité moins de 512 Go de RAM. C'est donc assez peu par rapport aux autres IAs déployées ces dernières années pour battre des humains au jeux.

Là où Pluribus fait encore plus fort, c'est que celle-ci ne s'est pas entraînée contre un humain, mais simplement contre elle-même, encore et encore jusqu'à atteindre son meilleur niveau.

Une manière de jouer très personnelle
Seule, pendant une semaine, l'IA à pratiqué ce que ses programmeurs ont appelé le Monte Carlo counterfactual regret minimization. Le principe du Monte Carlo repose sur le fait de réfléchir toujours selon trois possibilités et de construire trois schémas des jeux possibles en prévision des coups à venir, un peu comme un arbre. Regret minimization, quant à lui, est le fait de prédire ce qui peut être joué et de mettre en place celui qui créera le moins de regrets une fois la décision prise.

L'IA a donc montré sa supériorité en évitant les erreurs que pourraient faire d'autres systèmes de ce type, car en un contre un, il est facile de connaître la main de l'adversaire, mais cela se complique lorsque quatre autres personnes sont à prendre en compte.

La plupart des IA sont ainsi battues en répétant finalement une habitude que l'adversaire humain pourrait repérer et mettre à son avantage. De la même façon, Pluribus est capable de changer de tactique en moins d'une minute, passant de la relance au bluff, la rendant ainsi inlisible et imprévisible. C'est donc encore une victoire pour l'IA, reste à savoir quel sera le prochain défi que les chercheurs parviendront à lui faire relever.

Auteur: Internet

Info: https://www.clubic.com. Laura Léger, contributrice, 15 juillet 2019

[ informatique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

(FLP à concocté l'entame d'une nouvelle de science-fiction, et a demandé à Chatgpt de finir l'histoire. Il est prévu de lui soumettre chaque année la même tâche afin de voir si changements et améliorations sont notables)

"Il était une fois une planète lointaine dotée de deux soleils et trois lunes. On l'avait nommée Aarxx.

Un courageux groupe d'explorateurs, envoyés vers sur cette terre  inconnue, découvrit un monde grouillant de vie. Cependant, ils se rendirent vite compte que la différence de culture entre les observateurs humains  et la chose observée produisait une diffraction très désagréable. Particulièrement en ce qui concernait les tentatives avec les autochtones dominants, une race qui ressemblaient peu ou prou à des poulpes avec chaussures de ski.

Les explorateurs humains durent s'éloigner quelque peu afin de dissiper le malaise et mieux observer. Et  tenter de comprendre cet environnement étrange. Et, pourquoi pas, trouver moyen d'y survivre et de prospérer sans déranger cette vie si bizarre. Ils réalisèrent alors que le système du vivant de cette planète semblait reposer sur une une base biotique et bactérienne articulée autour de 5 paramètres fondamentaux... Ce qui n'avait en rien empêché l'émergence d'un environnement stable, avec des système de cellules se reproduisant et prospérant.

Il découvrirent petit à petit que les habitants de la planète avaient  développé  une culture et des coutumes propres sur pareil mode à cinq.

Cependant la déconnection fontamentale entre dualité humaine et pentatonisme local avait quelque chose d'infranchissable, elle instillait - au mieux du mieux - un malaise profond entre les deux espèces-mondes lors des tentatives de contacts.

Les explorateurs décidèrent d'explorer Aarxx plus en profondeur pour tenter de mieux comprendre cette intrication pentatonique si étrangère.

Pour découvrir que toute perturbation d'un d'entre les cinq pôles, surtout à l'échelle bactérienne,  était susceptible d'entraîner des répercussions allant jusqu'à contaminer l'ensemble de la planète. Il fut également révélé que les 5 paramètres n'avaient cessé de s'équilibrer depuis les premiers soubressauts, très loin dans le passé, de la vie locale."

(suite concoctée par Chatgpt)

Les courageux explorateurs se rendirent vite compte que le seul moyen de protéger Aarxx et ses habitants était d'apprendre à vivre en harmonie avec les cinq paramètres. Ils commencèrent à collaborer avec les habitants autochtones, leur apprenant l'importance des cinq paramètres et comment les utiliser à leur avantage.

Les explorateurs se rendirent également compte que la dualité entre l'observateur et la chose observée avait un effet profond sur la planète et ses habitants. Ils ont dû apprendre à s'adapter à ce nouvel environnement et à trouver un moyen de travailler ensemble afin de protéger la planète.

Les explorateurs ont collaboré avec les indigènes pour créer de nouvelles technologies permettant de protéger la planète et ses habitants. Ils ont également travaillé à la création d'une nouvelle forme de communication qui comblerait le fossé entre les deux cultures et leur permettrait de mieux se comprendre.

Grâce à leur travail acharné et à leur dévouement, les explorateurs et les indigènes ont finalement réussi à créer un environnement stable et pacifique pour Aarxx et ses habitants. Ensemble, ils ont trouvé un moyen de vivre en harmonie avec les cinq paramètres et de protéger la planète.

Auteur: Mg

Info: 5 février 2023, les échanges se sont fait en anglais, sachant que Chatgpt est le plus efficient dans cette langue

[ écriture ] [ créativité ] [ homme-machine ] [ expérience ]

 
Commentaires: 1
Ajouté à la BD par miguel

intelligence artificielle

[...] au début de la guerre de Corée, le général McArthur a proposé des mesures dont l’application aurait pu déclencher une troisième guerre mondiale. Tout le monde sait aussi qu’on lui a retiré le pouvoir de décider s’il fallait ou non prendre un tel risque. Ceux qui lui ont retiré cette possibilité ne l’ont pas fait pour prendre eux-mêmes les décisions à sa place ou pour les confier à d’autres hommes politiquement, économiquement ou moralement qualifiés. Ils l’ont fait pour remettre le pouvoir de décider à un instrument (puisque le "dernier mot" doit être objectif et qu’on ne considère aujourd’hui comme "objectifs" que les jugements prononcés par des objets). Bref, on a confié la responsabilité suprême à un "electric brain", un cerveau électrique. On n’a pas retiré le pouvoir de décision à l’individu McArthur, mais à McArthur en tant qu’homme, et si on a préféré le cerveau-instrument au cerveau de McArthur, ce n’est pas parce qu’on avait des raisons particulières de se méfier de l’intelligence de McArthur mais parce qu’il n’avait, précisément, qu’un cerveau humain.

Dire qu’on lui a "retiré" sa responsabilité en tant qu’homme, c’est bien sûr employer une expression trompeuse. Car la puissance qui l’a privé de son pouvoir de décision n’était pas une instance surhumaine, ce n’était ni "Moïra" (le Destin), ni "Tyché" (la Fortune), ni "Dieu", ni l’ "Histoire", mais c’était l’homme lui-même qui, dépouillant sa main gauche avec sa main droite, déposait son butin – sa conscience morale et sa liberté de décision – sur l’autel de la machine et montrait par cet acte qu’il se soumettait à celle-ci, à ce robot calcultateur qu’il avait lui-même fabriqué et qu’il était prêt à considérer comme une conscience morale de substitution et une machine à oracles, bref une machine littéralement providentielle.

En subordonnant le général à cet instrument, l’humanité s’est en quelque sorte porté atteinte à elle-même. Qu’on ne se méprenne pas. Rien n’est plus éloigné de nos intentions que de nous solidariser avec McArthur. Que l’histoire, en cet instant exemplaire, se soit justement servie de lui pour tenir ce rôle est un pur caprice : n’importe quelle autre personnalité publique aurait aussi bien fait l’affaire. Nous voulons seulement dire que celui qui transfère la responsabilité d’un homme à un instrument lui transfère aussi, par là même, la responsabilité de tous. En cette occasion, l’humanité s’est pour la première fois humiliée elle-même de façon significative et a ouvertement déclaré : "On ne peut pas compter sur nous puisque nous comptons plus mal que nos machines. Qu’on ne tienne donc pas "compte" de nous." Elle n’a, pour la première fois, ressenti aucune honte d’avoir ouvertement honte.

On a donc "nourri" - to feed est le terme technique qu’on emploi pour désigner l’opération par laquelle on introduit dans l’appareil les éléments nécessaires à la décision – cette machine à oracles de touts les données relatives à l’économie américaine et à celle de l’ennemi. "Toutes les données", c’est beaucoup dire. Car les machines possèdent par essence leurs "idées fixes" : le nombre de paramètres qu’elles prennent en compte est artificiellement limité. [...] On les a ainsi exclusivement "nourries" de données susceptibles d’être facilement quantifiées – des données portant donc sur le caractère utile ou dommageable, rentable ou non rentable de la guerre en question. [...]

On sait bien que l’assimilation des données par les intestins mécaniques prend un temps ridiculement court. A peine avait-on nourri l’appareil qu’il délivra son oracle. Sa conclusion ayant valeur de décision, on sut alors si l’on pouvait se lancer dans cette entreprise et déclarer la guerre sainte, ou s’il fallait renoncer à cette mauvaise affaire et la condamner comme immorale.

Après quelques secondes de réflexion ou de digestion électrique, le "brain" donna une réponse qui se révéla, par hasard, plus humaine que les mesures suggérées par l’homme McArthur. Il proclama haut et fort que cette guerre serait une "mauvaise affaire", une catastrophe pour l’économie américaine. Ce fut sans aucun doute une grande chance, peut-être même la chance de l’humanité, puisqu’elle était déjà entrée dans l’ère atomique lorsque l’oracle sortit de la bouche de la machine. Mais le choix de ce mode de décision fut aussi la plus grande défaite que l’humanité se soit jamais infligée à elle-même : car jamais auparavant elle ne s’était abaissée à ce point et n’était allée jusqu’à confier à une chose le soin de statuer sur son histoire – et peut-être même sur son être ou son non-être. Que le jugement ait été cette fois-là un veto, une grâce, cela ne change rien à l’affaire. Ce n’en fut pas moins une sentence de mort puisqu’on avait placé dans une chose la source de toute grâce possible. [...] Si nous voulions bien réaliser que des milliers d’hommes, au nombre desquels nous figurons peut-être nous-mêmes, ne doivent ce que nous appelons aujourd’hui la "vie" - c’est-à-dire leur chance de n’avoir pas encore été tués  - qu’au "non" calculé par un instrument, à ce "non" sélectionné par l’électromécanique, alors nous voudrions rentrer sous terre pour cacher notre honte.

Auteur: Anders Günther Stern

Info: Dans "L'obsolescence de l'homme", trad. de l'allemand par Christophe David, éditions Ivrea, Paris, 2002, pages 78-81

[ historique ] [ délégation de la responsabilité humaine ] [ instrument médiumnique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

Cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d'autres robots conversationnels

Voici des astuces pour détecter ces textes qui ne sont pas écrits par des humaines.

1) Elles font des répétitions (mais pas de fautes)

Donc Si vous trouvez une coquille (faute de frappe, de grammaire, etc.) dans un texte, il s'agit d'un bon moyen de voir que l'article que vous lisez a été au minimum retouché par un être humain. En revanche, les articles rédigés par une IA sans supervision humaine sont souvent truffés de répétitions. L'écriture générative a en effet tendance à reproduire les mêmes termes et structures de phrases – même si c'est de moins en moins le cas. Les IA sont de plus en plus performantes et leurs utilisateurs savent également de mieux en mieux les utiliser pour contourner ces écueils.

Des logiciels ont même été développés afin de rendre encore plus humains les textes écrits par une IA. Le plus connu s'appelle Undetectable.ai et permet "d'humaniser" les textes artificiels en les confrontant aux principaux détecteurs d'IA qui existent. De fait, ces détecteurs deviennent de moins en moins fiables. "Open AI [l'entreprise créatrice de ChatGPT] a récemment abandonné son détecteur, car ça ne marche pas", fait remarquer Virginie Mathivet, spécialiste en la matière.

2 Elles sont capables d'affirmer des absurdités

Les IA sont très performantes pour les tâches très codifiées, comme l'orthographe, mais elles peuvent affirmer des absurdités sans sourciller. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire." Indique Amélie Cordier, ingénieure spécialiste des IA. 

Les sites qui utilisent des IA pour produire des articles à la chaîne, à partir de contenus trouvés sur internet, sont souvent confrontés à ce problème. Récemment, le site The Portal, qui traite de l'actualité du jeu vidéo, s'est fait épingler sur Twitter par le journaliste Grégory Rozières. Certains articles contiennent en effet de fausses informations grossières, car l'IA qui les rédige a repris au premier degré des blagues trouvées sur Reddit.

Lorsque vous lisez un article et qu'une information semble absurde, ou qu'un chiffre vous paraît démesuré, cela peut donc être la marque d'une rédaction non-humaine. Pour s'en assurer, le mieux est alors de vérifier l'information douteuse grâce à d'autres sources de confiance. "Cela revient à faire du fact-checking, c'est à l'humain d'avoir un regard critique", commente Virginie Mathivet.

3) Elles font preuve d'une productivité inhumaine

La rédaction par IA est encore loin d'être un gage de qualité, mais permet de produire un très grand nombre d'articles en un temps record. Prudence donc face aux sites qui publient quotidiennement une quantité faramineuse d'articles, sans pour autant employer de nombreuses personnes. "Si on voit qu'un blog publie 200 articles par jour sous le même nom, c'est un indice", explique Virginie Mathivet. Certains articles écrits par des robots sont signés par un nom, comme s'ils avaient été rédigés par une personne. Si cette signature semble trop prolifique, l'utilisation d'une IA est à suspecter fortement. Sur le site The Portal, déjà cité plus haut, un même "journaliste" a ainsi signé près de 7 000 articles en seulement neuf jours.

De plus, si les articles entre eux comportent de nombreuses similitudes dans leur forme et leur structure, il y a fort à parier que ceux-ci soient rédigés automatiquement. Les IA ont en effet tendance à produire des contenus très homogènes, surtout s'ils sont créés à partir de la même consigne utilisée en boucle. "L'IA imite, c'est la façon par laquelle elle fonctionne. Elle homogénéise un peu tout", fait remarquer Amélie Cordier.

4 Elles écrivent mal et citent rarement leurs source

Même si elles signent parfois d'un nom humain, les IA ne peuvent pas incarner leurs articles de la même manière qu'un journaliste en chair et en os. Si un journaliste n'a strictement aucune existence en ligne en dehors de sa page auteur, cela peut faire partie des indices qui laissent à penser à une rédaction par IA. Enfin, les articles publiés grâce à une IA ont souvent un ton très factuel, assez désincarné. Les IA citent très rarement leurs sources et ne font jamais intervenir de personne humaine sous forme de citation comme dans un article de presse.

Elles sont en revanche tout à fait capables d'en inventer si on leur demande de le faire. Dans un numéro paru en avril 2023, le magazine people allemand Die Aktuelle a poussé le vice jusqu'à publier une fausse interview exclusive de Michael Schumacher, générée par une AI, comme le raconte le site spécialisé Numerama. La famille de l'ancien champion de Formule 1 a porté plainte et la rédactrice en chef du magazine a finalement été limogée.

L'IA peut cependant être un outil intéressant, tant qu'elle reste sous supervision humaine. Le journaliste Jean Rognetta, créateur de la newsletter Qant, a quotidiennement recours à l'IA. Selon lui, il n'est "plus possible de reconnaître avec certitude un article écrit par une IA, si ce n'est que c'est souvent du mauvais journalisme". S'il utilise l'IA pour écrire sa newsletter, Jean Rognetta reste en effet convaincu de la nécessité d'effectuer une relecture et une correction humaine. "Notre newsletter est écrite avec, et non par une IA", martèle-t-il. Une approche qui pourrait bientôt se généraliser à d'autres journaux. Le 19 juillet dernier, le New York Times annonçait dans ses pages qu'un outil d'IA, destiné à automatiser certaines tâches effectuées par ses journalistes, était en cours de développement par Google.

5 Elles seront bientôt signalées par un filigrane

Face à la difficulté de plus en plus grande de détecter les contenus générés via une IA, l'Union européenne a adopté en juin dernier le "AI Act", avec l'objectif de réguler le secteur. A partir de l'application de la nouvelle réglementation, pas prévue avant 2026, les contenus générés par IA devront être signalés par un "watermark" (une signature en filigrane) indiquant clairement qu'ils n'ont pas été créés par un humain.

La forme de ce watermark n'est cependant pas encore entièrement définie. Il pourrait prendre la forme d'une phrase d'avertissement ou être dissimulé dans le texte, afin d'être moins facilement effaçable par les utilisateurs. Open AI a récemment annoncé travailler sur un watermark invisible. Comment ? Une récente étude (PDF) de l'université du Maryland propose par exemple que les IA soient programmées pour utiliser plus fréquemment une "liste spéciale" de mots définie à l'avance, permettant aux logiciels de détection d'être plus efficaces.

"Il y a de bonnes intentions au niveau de l'UE et des éditeurs, mais le problème reste la question de la mise en œuvre", estime Amélie Cordier. Si la régulation peut se mettre en place facilement pour les plus gros acteurs comme Open AI, Google, etc., elle sera impossible à imposer aux petites entités qui pullulent.

"Si l'utilisateur a le choix entre un logiciel avec 'watermark', ou un logiciel gratuit indétectable, la régulation risque d'être inefficace."

Une opinion que partage Virginie Mathivet, particulièrement en ce qui concerne les "fake news". "Une personne qui veut faire de la désinformation fera en sorte de ne pas avoir de watermark", conclut-elle.

Auteur: Internet

Info: https://www.francetvinfo.fr/, 2 sept 2023, Pauline Lecouvé

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par miguel