Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 52
Temps de recherche: 0.0516s

homme-animal

Chaque entrée du livre est indexée à un terme (Corps, Génie, Imprévisibles, Justice) et à une question provocatrice ("Les singes savent-ils singer ?" "Les oiseaux font-ils de l'art ?" "Peut-on conduire un rat à l'infanticide ?" "Les animaux font-ils des compromis ?"), ces couplages étranges se trouvent eux-mêmes rapportés aux cas empiriques (des éléphants thaïlandais qui peignent des esquisses devant les touristes, des pingouins aux identités sexuelles multiples, des pies menteuses, des orangs-outans qui lancent leurs selles à la tête des scientifiques, des perroquets qui ne répètent pas ce que l'on voudrait…) indifféremment extraits de corpus de recherches éthologiques ou de Youtube. L'auteure ne répond pas aux questions posées en début de chaque chapitre mais au contraire nous propose de la suivre dans ses hésitations, elle donne ainsi à voir différentes situations où ces questions reçoivent d'autres réponses que celles envisagées par les scientifiques (cf. V comme Versions) ces derniers étant bien souvent incapables de les recevoir pour la double raison qu'elles échappent aux dispositifs d'établissement de la preuve mais surtout qu'ils n'attendent aucune réponse qui puisse être formulée par les animaux eux-mêmes.

Parmi la foule d'exemples qui sont avancés, je proposerais d'en extraire simplement deux d'entre eux, pas les plus drôles, dont je laisse le plaisir de la découverte aux lecteurs du livre, mais sans doute ceux qui nous (êtres humains) concernent le plus. Le premier exemple se trouve à la lettre "S comme Séparations", sous-titré de "Peut-on mettre un animal en panne ?" ; y est examiné le régime de production de preuves qui a conduit à la formulation de la théorie de l'attachement par le psychologue Harry Harlow. "Le poison de l'héritage" d'Harry Harlow tient selon Vincianne en la manière dont le laboratoire expérimental a produit les preuves d'une des plus grandes évidences sensibles que nous avons en commun avec beaucoup d'animaux : l'affection. Pour parvenir à démontrer la nécessité vitale du lien tactile, Harlow a répété avec des rates, puis avec de petits macaques rhésus, des procédures de séparations d'avec leurs petits. De là, le type de questions qu'il pose sont les suivantes : que se passe-t-il si l'on affame la mère et qu'on lui donne le choix entre se nourrir et rejoindre son petit ? Que se passe-t-il si la mère est remplacée par un mannequin en tissu ? Que se passe-t-il si le mannequin est en métal et fournit du lait ? "L'expérience de séparation ne s'arrête pas à séparer des êtres les uns des autres, elle consiste à détruire, à démembrer et, surtout à enlever. Comme si c'était le seul acte qui puisse être accompli […] Apparaît alors le véritable fil qui guide cette histoire : celui d'une routine qui s'emballe et devient folle. Séparer les mères et leurs petits, puis séparer les mères d'elles-mêmes, dans leur propre corps, enlever les ovaires, les yeux, le bulbe olfactif". Cette fois-ci rien de drôle, bien au contraire. La science expérimentale apparaît comme une machine non plus simplement "à rendre bête" mais plus littéralement comme un appareil de torture. Le fait qu'à aucun moment Harry Harlow interroge ce que les dispositifs eux-mêmes induisent, que jamais ne soit imaginé qu'ils puissent largement "causer" le désespoir qu'ils sont précisément censés permettre d'enregistrer, fait dire à l'auteure que la théorie de Harlow ne tient qu'à une chose : "un exercice systématique et aveugle de l'irresponsabilité."

Le choix de donner à lire le court texte qui suit, extrait du roman Ennemonde de Jean Giono, est une tentative de poursuivre la déambulation (et le rire) de Vinciane Despret, parce que ni l'indignation à distance ni la tristesse ne le permettent. Le pari de la forme de poíêsis qu'elle propose dans son livre étant celui de la création possible de sens entre des formes de vie, pourquoi pas donc "fabuler" avec les errants de Giono et imaginer quelles étranges compositions communes pourraient en surgir ? 

"Le tueur s'installe dans la cour de la ferme. L'animal du sacrifice est amené malgré ses cris : chose étrange, il suffit au tueur de frotter ses couteaux l'un sur l'autre pour que le cochon se taise, d'un coup. Quand c'est un bon tueur. Mais généralement c'est un bon tueur, si on l'a choisi parmi les errants. Certains fermiers font venir des bouchers de profession. Les bouchers de profession ne sont pas de bons tueurs. Les bêtes n'acceptent pas la mort qu'ils apportent ; elles acceptent celle qu'apportent les errants ; si le boucher arrive à la ferme, serait-ce en simple visite d'amitié, la porcherie, la bergerie et même l'écurie sont en émoi. L'errant arrive avec ses couteaux : tout reste calme ; il y a juste un peu de gémissements, quand le grand moment approche. Si on cherche à savoir ce qu'il y a au fond de cet étrange comportement, on s'aperçoit qu'il s'agit purement et simplement de cérémonie ; qu'on soit promis au saucisson ou à la résurrection, la mort est le moment précis où le naturel revient au galop. Or, le boucher, c'est de la technique pure, rien ne compte pour lui à part les rapports poids de chair, poids d'argent ; l'errant vient du fond des âges, il vit, bras dessus, bras dessous avec la faim. On est sûr qu'avec lui les rites seront respectés : et, de fait, tout se passe avec une rapidité, une facilité, une politesse à faire envie. Déjà la bête saigne dans le seau, comme un baril dont on a le plus simplement du monde ouvert le robinet."

Auteur: Eliçabe Rémi

Info: A propos du livre de Vinciane Despret,  "Que diraient les animaux, si... on leur posait les bonnes questions ?" Paris, La Découverte, coll. "Les Empêcheurs de penser en rond", 2012

[ éthique ] [ morale ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Les capacités imprévisibles des grands modèles d'IA

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles. (...)

Au-delà de l'imitation

En 2020, Dyer et d’autres de Google Research ont prédit que les LLM auraient des effets transformateurs – mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et diverses afin de tracer les limites extérieures de ce qu'un LLM pouvait faire. Cet effort a été appelé projet Beyond the Imitation Game Benchmark (BIG-bench), inspiré du nom du " jeu d'imitation " d'Alan Turing, un test permettant de déterminer si un ordinateur peut répondre aux questions d'une manière humaine et convaincante. (Ceci deviendra plus tard connu sous le nom de test de Turing.) Le groupe s'est particulièrement intéressé aux exemples dans lesquels les LLM ont soudainement atteint de nouvelles capacités qui étaient complètement absentes auparavant.

"La façon dont nous comprenons ces transitions brusques est une grande question de recherche", a déclaré Dyer.

Comme on pouvait s'y attendre, sur certaines tâches, les performances d'un modèle se sont améliorées de manière fluide et prévisible à mesure que la complexité augmentait. Et sur d’autres tâches, l’augmentation du nombre de paramètres n’a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont découvert ce qu’ils ont appelé des " percées " : des progrès rapides et spectaculaires dans les performances à une certaine échelle seuil. Ce seuil variait en fonction de la tâche et du modèle.

Par exemple, les modèles avec relativement peu de paramètres (quelques millions seulement) ne pouvaient pas résoudre avec succès les problèmes d’addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a augmenté dans certains modèles. Des sauts similaires se sont produits pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le déchiffrement des lettres d'un mot, l'identification du contenu offensant dans les paragraphes de Hinglish (une combinaison d'hindi et d'anglais) et la génération d'un équivalent anglais similaire des proverbes kiswahili.

Mais les chercheurs se sont vite rendu compte que la complexité d’un modèle n’était pas le seul facteur déterminant. Certaines capacités inattendues pourraient être extraites de modèles plus petits avec moins de paramètres – ou entraînées sur des ensembles de données plus petits – si les données étaient de qualité suffisamment élevée. De plus, la façon dont une requête était formulée influençait l’exactitude de la réponse du modèle. Lorsque Dyer et ses collègues l'ont fait avec la tâche des emoji de film via un format à choix multiples, par exemple, l'amélioration de la précision était moins un saut soudain qu'une augmentation progressive avec plus de complexité. Et l'année dernière, dans un article présenté à NeurIPS , la réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (une capacité appelée raisonnement en chaîne de pensée) pouvait résoudre correctement un problème de mots mathématiques, alors que le même le modèle sans cette invite ne pourrait pas.

Yi Tay, un scientifique de Google Brain qui a travaillé sur l'enquête systématique sur les percées, souligne des travaux récents suggérant que l'incitation à la chaîne de pensée modifie les courbes d'échelle et donc le point où l'émergence se produit. Dans leur article NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites de chaîne de pensée pouvait susciter des comportements émergents non identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d’expliquer son raisonnement, pourraient aider les chercheurs à commencer à étudier les raisons pour lesquelles l’émergence se produit.

Des découvertes récentes comme celles-ci suggèrent au moins deux possibilités pour expliquer pourquoi l'émergence se produit, a déclaré Ellie Pavlick, une informaticienne à l'Université Brown qui étudie les modèles informatiques du langage. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les modèles plus grands acquièrent effectivement spontanément de nouvelles capacités. "Il se peut très bien que le mannequin ait appris quelque chose de fondamentalement nouveau et différent qu'il n'aurait pas pu apprendre dans une taille plus petite", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'un changement fondamental se produit lorsque les modèles sont étendus."

L’autre possibilité, moins sensationnelle, dit-elle, est que ce qui semble émerger pourrait plutôt être le point culminant d’un processus interne, axé sur les statistiques, qui fonctionne selon un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement apprendre des heuristiques hors de portée pour ceux qui disposent de moins de paramètres ou de données de moindre qualité.

Mais, a-t-elle déclaré, déterminer laquelle de ces explications est la plus probable dépend d’une meilleure compréhension du fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit."

Pouvoirs et pièges imprévisibles

Il y a un problème évident à demander à ces modèles de s’expliquer : ce sont des menteurs notoires. " Nous comptons de plus en plus sur ces modèles pour effectuer le travail de base ", a déclaré Ganguli, « mais je ne me contente pas de leur faire confiance. Je vérifie leur travail. Comme exemple parmi de nombreux exemples amusants, Google a présenté en février son chatbot IA, Bard. Le billet de blog annonçant le nouvel outil montre que Bard fait une erreur factuelle .

L’émergence conduit à l’imprévisibilité, et l’imprévisibilité – qui semble augmenter avec l’échelle – rend difficile pour les chercheurs d’anticiper les conséquences d’une utilisation généralisée.

" Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés ", a déclaré Ganguli. "Et pour étudier des phénomènes émergents, vous devez avoir un cas en tête, et vous ne saurez pas avant d'avoir étudié l'influence de l'échelle quelles capacités ou limitations pourraient survenir."

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont examiné si les modèles montreraient certains types de préjugés raciaux ou sociaux, un peu comme ceux précédemment rapportés dans les algorithmes non basés sur LLM utilisés pour prédire quels anciens criminels sont susceptibles d'en commettre un autre. crime. Cette étude a été inspirée par un paradoxe apparent directement lié à l’émergence : à mesure que les modèles améliorent leurs performances lors de leur mise à l’échelle, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des dommages.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", a déclaré Ganguli. Il cite une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. " Les modèles plus grands deviennent brusquement plus biaisés. " Ne pas prendre en compte ce risque, a-t-il ajouté, pourrait mettre en péril les sujets de ces modèles.

Mais il propose un contrepoint : lorsque les chercheurs ont simplement dit au modèle de ne pas s’appuyer sur des stéréotypes ou des préjugés sociaux – littéralement en tapant ces instructions – le modèle était moins biaisé dans ses prédictions et ses réponses. Cela suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a fait état d'un nouveau mode " d'autocorrection morale ", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

L’émergence, a déclaré Ganguli, révèle à la fois un potentiel surprenant et des risques imprévisibles. Les applications de ces grands LLM prolifèrent déjà, donc une meilleure compréhension de cette interaction aidera à exploiter la diversité des capacités des modèles linguistiques.

"Nous étudions comment les gens utilisent réellement ces systèmes", a déclaré Ganguli. Mais ces utilisateurs bricolent aussi constamment. "Nous passons beaucoup de temps à discuter avec nos modèles", a-t-il déclaré, "et c'est en fait là que vous commencez à avoir une bonne intuition sur la confiance – ou son absence."

Auteur: Internet

Info: Quanta Magazine, Stephen Ornes, 16 mars 2023 - Les capacités imprévisibles des grands modèles d'IA Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

[ dépassement ]

 

Commentaires: 0

Ajouté à la BD par miguel