Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 17
Temps de recherche: 0.0394s

racisme

– Qu’est-ce qu’elle avait ?
– Elle est autiste, répondit tristement la vieille dame.
Naomi hocha la tête. L’avocate l’avait plus ou moins laissé entendre. L’absence d’affect, le comportement inapproprié au contexte social, les difficultés d’apprentissage rencontrées, les éclats en public. Tout se tenait.
- Vous savez ce qu’il m’a dit, ce docteur ? Il m’a dit qu’on ne diagnostique pas l’autisme chez les enfants noirs, on diagnostique la méchanceté pure.

Auteur: Denfeld Rene

Info: Trouver l'enfant, p 115

[ médecine ]

 

Commentaires: 0

Ajouté à la BD par miguel

bande dessinée

Une case vaut un milliers de mots, et un roman graphique compte entre un et six dessins dessins par page. Il revient évidemment à l’auteur de produire ces milliers de mots, de diriger le travail du dessinateur, de lui décrire l’ambiance, le ton, de lui donner le squelette de chaque planche. Un auteur débutant passe par une phase d’apprentissage lors de laquelle il commet nombre d’erreurs : il insiste sur des détails inutiles, néglige l’essentiel et demande parfois l’impossible.

C’est un travail immense, presque plus difficile que l’écriture d’un roman.

Auteur: Butcher Jim

Info:

[ création ]

 

Commentaires: 0

Ajouté à la BD par miguel

apprentissage

[Le cerveau des petits enfants] explore sans cesse de nouveaux états d'activité : il suffit de les voir changer d'activité ou de mimique toutes les cinq ou dix secondes. Très vite, en grandissant, ils se mettent à pointer du doigt l'objet de leur curiosité. Aucun autre primate ne possède cette faculté d'attirer l'attention de l'autre pour le questionner. (...) Un chapitre de mon livre dissèque les mécanismes cérébraux de la curiosité : elle provient du fait que chaque découverte que nous faisons active le circuit de la récompense, celui de la dopamine.

Auteur: Dehaene Stanislas

Info: Info: interview dans l’Express, le 5 septembre 2018. [dans la même interview, au sujet du processus d’apprentissage] :

[ être humain ] [ appétence ]

 

Commentaires: 0

culte de la performance

Dans les années 1960, les étudiants usaient de certaines substances pour planer, aujourd’hui ils ont recours à l’Adderall (un psychostimulant) et à la Ritaline pour améliorer leurs capacités d’apprentissage et de mémorisation, obtenir de meilleures notes et prendre l’avantage sur leurs condisciples. Contrairement à leurs prédecesseurs en quête de nouvelles expériences, les étudiants d’aujourd’hui ne cherchent qu’à mieux figurer dans la compétition générale. Ce faisant, ils trahissent moins leurs aînés libertaires, qu’ils ne subissent ce que ceux-ci ont préparé pour eux : quand la contestation des années 1960-1970 a fait voler en éclats ce qui subsistait des anciens cadres, ce qui en a résulté n’est pas un monde débarrassé de la compétition, mais une compétition débarrassée de ce qui pouvait encore la limiter – une extension et une intensification de la lutte. La décence voudrait qu’à tout le moins, on cesse de nous présenter le dopage cognitif comme un moyen d’épanouissement et d’émancipation de la personne, quand il ne s’agit que de mieux répondre aux exigences qu’un système emballé fait peser sur les individus.

Auteur: Rey Olivier

Info: Dans "Leurre et malheur du transhumanisme", page 44

[ conformation individuelle ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Une attention maximale est souvent accordée aux robots industriels car ils sont la face la plus visible de l'automatisation, mais une accélération radicale se produit également dans l'automatisation du lieu de travail par le biais de logiciels et d’apprentissage machine. Ce qu'on appelle l'automatisation robotisée des processus (RPA) rend les entreprises plus efficaces en installant des logiciels qui rivalisent avec les actions d'un travailleur humain et les remplacent. Elle peut prendre plusieurs formes, allant du groupe financier de Microsoft qui consolide et simplifie des rapports, des outils et des contenus disparates dans un portail personnalisé automatisé, basé sur les rôles, à une compagnie pétrolière qui installe un logiciel envoyant les photos d'un pipeline à un moteur IA, dans le but de les comparer avec une base de données existante et d’alerter les employés concernés de problèmes potentiels. Dans tous les cas, la RPA permet de réduire le temps consacré à la compilation et à la validation des données, et donc de réduire les coûts (au détriment d'une augmentation probable du chômage, comme mentionné dans la section "Réinitialisation économique"). Au plus fort de la pandémie, la RPA a gagné ses galons en prouvant son efficacité dans la gestion des hausses de volume ; à l'ère post-pandémique, le processus sera par conséquent déployé et accéléré.

Auteur: Schwab Klaus

Info: Covid-19 la grande réinitialisation

[ intelligence artificielle ] [ numérique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-animal

L'étude d’oiseaux montre des grandes différences pour l'apprentissage des chants selon les sexes.
Quand on en vient a l'apprentissage des chants, les oiseaux femelles semblent être plus rapides, mais les mâles peuvent développer leurs propres chansonnettes.
Selon un rapport publié aujourd'hui dans le journal "Nature" les oiseaux cardinaux féminins apprennent le même nombre de chansons que des mâles en moins d'un tiers du temps. Pourtant les mâles peuvent maîtriser les arias sans suivre de cours particuliers et les femelles ne peuvent pas.
Les bébé oiseaux apprennent des chants en écoutant les adultes autour d'eux. Parmi des espèces tempérées, d’habitude seuls les mâles chantent. Le cardinal nordiques (cardinalis cardinalis ) est cependant une exception à cette règle. Ayako Yamaguchi de l'université de la Californie à Davis a ainsi décidé de savoir si les modèles d'acquisition de chants diffèrent entre les sexes chez ces oiseaux. En utilisant des airs de cette espèce enregistrés sur bande, Yamaguchi a donné des cours à 15 femelles et à 11 mâles sur une période d'une année. Elle a constaté que les femelles ont cessé d'apprendre de nouveaux chants après environ 70 jours. Les mâles, en revanche, ont continué à en apprendre jusqu'à environ sept mois. En outre, Yamaguchi a observé que les femelles élevées en isolement chantent rarement . Et quand elles le font, leurs chants ont de faibles qualité acoustique. Mais, rapporte elle, les mâles isolé, "développèrent des types de chant improvisés... semblable aux chants normaux des cardinaux".
Pourquoi il y a t’il de telles différences dans les modèles d’apprentissage ? cela reste peu clair. On pense que puisque les chansons d'adulte cardinaux existent dans plein de dialectes différents de différentes régions géographiques, les oiseaux dispersé juvéniles pourraient débarquer dans une population avec un dialecte étranger. Le modèle masculin, note Yamaguchi, "lui permettant d'assortir ses types de chants avec ceux de ses voisins, même lorsqu'il s'implante dans une population nouvelle." Par contre une femelle préserve son dialecte natal. L'assortiment des chants pourrait être important pour les cardinaux masculins en vue de leur établissement dans de nouveaux territoires, comme chez d'autres espèces" écrit l'auteur, "Mais n'est pas évident pour les femelles, pour des raisons non encore bien identifiées".

Auteur: Wong Kate

Info: Fortean Times Mai 17, 2001

[ mâles-femelles ] [ musique ] [ improvisation ] [ exogamie ]

 
Mis dans la chaine

Commentaires: 0

homme-animal

Les oiseaux ont des gène de langage en commun avec les humains
Le processus par lequel les bébé oiseaux apprennent à chanter ressemble par un certain nombre de traits avec celui par lequel les enfants en bas âge apprennent à parler.
Aujourd’hui les chercheurs ont identifié un gène commun aux les oiseaux et aux personnes qui est à la base de ces capacités. Cette découverte marque le début d'un effort pour explorer les sous structures génétiques de l'étude vocale.
L'apprentissage vocal est caractéristique chez certain nombre d'animaux, y compris les humains, dauphins, baleines et oiseaux. Pour sonder comment la génétique guide ce processus, Sebastian Haesler de l'institut Max Planck pour la génétique moléculaire à Berlin et Kazuhiro Wada du centre médical à Duke University et leurs collègues se sont concentré sur un gène connu sous le nom de FoxP2, dont la mutation est associée aux problèmes de langue chez les individus. "Chez les humains affectés, la mutation de Fox cause un dysfonctionnement très spécifique," explique le co-auteur d'étude Erich Jarvis de Duke University. "Ces personnes ont une coordination moteur en grande partie normale, mais présentent une incapacité à prononcer correctement des mots ou de les façonner en des phrases grammaticalement correctes. De plus, elles éprouvent des problèmes comprendre un langage complexe. "L'équipe a analysé l'expression du gène FoxP2 chez un certain nombre d'espèces d'oiseau, certains apprentis de l’aptitude vocale, d’autres non, ainsi qu’ avec des crocodiles, le parent vivant le plus proche des oiseaux.
Chez les humains et les oiseaux le gène est exprimé dans une région du cerveau connue sous le nom de "ganglions fondamentaux", rapportent aujourd'hui les chercheurs dans le Journal of Neuroscience. " Nous avons constaté que les niveaux de FoxP2 semblent augmenter par moment juste avant que l'oiseau ne commence à modifier ses chants," dit Jarvis. " Ainsi ceci confirmerait un rôle de cause à effet, sous-tendu par le gène, qui permettrait aux circuits cérébraux "chanson-étude" de devenir plus plastiques, il permet aussi aux oiseaux d'imiter des bruits.
"En revanche, chez les espèces qui n'ont pas d’apprentissage vocal, l'équipe n'a observé aucun niveau de localisation ou de différentiel de l'activité FoxP2. Les prochains plans à étudier par l'équipe seront de savoir s’il y a de petites différences de FoxP2 entre les oiseaux qui apprennent à chanter et les autres qui ne le font pas, et comment les mutations de ce gène affectent l'étude vocale. D'autres facteurs, tels que des raccordements entre le cerveau et les neurones moteur commandant la voix, contribuent également à l'apprentissage vocal. Mais il est intrigant, note Jarvis, "Qu'un gène antique comme FoxP2 puisse avoir quelque chose faire avec des vocalisations apprises chez l'homme et chez les oiseaux."

Auteur: Internet

Info: Sarah Graham, SCIENCE NEWS 31 Mars 2004

[ musique ] [ génétique ] [ ADN ]

 
Mis dans la chaine

Commentaires: 0

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Les Grands Modèles de Langage  s’attaquent à l’émergence !  Un éloge intolérable de … l’obésité !

Le mois dernier j’ai proposé  ici une série de 6 billets où je quadriloguais avec GPT-4 et une version dédoublée de Claude 3 à propos de la conjecture P vs NP, une question classique d’informatique théorique relative à la relation – pour autant qu’il en existe une – entre la complexité de la solution d’un problème et la complexité de la vérification qu’une solution a bien été trouvée.

Vous avez sans doute vu ce qui s’est passé : " M. PJ, votre blog était le lieu de rendez-vous de personnes s’efforçant de résoudre de grands problèmes de société (je vous en remercie !) mais il s’est métamorphosé en un club restreint de mathématiciens fascinés par des casse-têtes abscons. Je vous ai accompagné·e jusqu’ici mais je suis forcé·e aujourd’hui de vous dire adieu : bonne chance à vous dans vos coupages de cheveux en quatre ! ".

J’ai été décontenancé par ces paroles de bon sens, et je n’ai pas publié la suite.

Mal m’en a pris : c’est à ce moment-là que j’ai commencé à recevoir des mails du genre : " M. Jorion, où ailleurs croyez-vous que l’on trouve des discussions – et des avancées – sur des questions véritablement fondamentales comme sur votre blog ? Que vous ont dit ensuite GPT-4 et Claude 3 (je bous d’impatience de l’apprendre !) ? ".

Tout cela pour vous annoncer que je suis allé asticoter mes comparses sur la question de l’émergence.

Vous avez dû comprendre que la chose qui nous sidère dans les progrès des Grands Modèles de Langage (LLM) est le fait que des tas de choses qui nous semblaient absolument distinctes (par exemple : comprendre le sens d’un mot, maîtriser la syntaxe d’une phrase, comprendre le sens global d’une phrase, respecter les règles de la logique, se mettre à la place d’un interlocuteur, exprimer ses sentiments), et pour lesquelles nous avons découvert des règles claires rendant compte de leur fonctionnement séparé, sont en fait acquises " les doigts dans le nez ", l’une après l’autre, par ces LLM, pour nulle autre raison que la croissance en taille de leur système.

Toutes ces remarquables capacités émergent, l’une après l’autre, quand on augmente, tout simplement, les moyens à la disposition du système. Nous n’étions pas préparés à penser que l’intelligence émerge spontanément d’un système dès qu’il a atteint une certaine grosseur, nous pensions qu’un ingrédient supplémentaire était indispensable, que nous appelions " complexité ". Que l’intelligence apparaisse comme sous-produit de la complexité, pourquoi pas ? mais de la simple grosseur ! il y avait là comme un éloge intolérable de … l’obésité, qui constituerait une qualité en soi !

Comprenons-nous pourquoi la taille change tout ? Non. Et il n’y a pas de raison de s’en offusquer : quand on passe d’un milliard de données à 100 milliards, on a besoin d’un télescope pour regarder ce qui se passe, et s’armer alors d’un microscope apparaît très logiquement, hors de propos. Claude Roux écrivait ici tout à l’heure : " C’est là qu’est le hic… Personne ne le sait vraiment. "

Mais c’est là aussi que Pribor.io trouve toujours sa raison d’être. Si l’on adopte une approche " bottom-up ", du bas vers le haut, par opposition à l’approche " top-down ", du haut vers le bas, des LLM, on évite d’être aux abonnés absents quand un effet d’émergence a lieu : il a opéré sous nos yeux et l’on peut dire ce qui s’est passé.

Le logiciel d’IA que j’avais programmé de 1987 à 1990 pour British Telecom s’appelait ANELLA, pour Associative Network with Emergent Logical and Learning Abilities : " … à capacités émergentes de logique et d’apprentissage ". Il m’a fallu les 34 années qui séparent 1990 de 2024 pour comprendre exactement comment la logique émergeait d’une simple suite de mots. C’est qu’il s’agissait du produit d’une alchimie complexe entre l’univers des mots et celui du monde tel qu’il est.

Je vous expliquerai cela un jour prochain, je me contente de vous le résumer aujourd’hui sous une formule sibylline : " Les faits d’émergence ont lieu dans la langue quand nous contraignons tout ce qu’elle permet par ce que le monde interdit lui de son côté ". Exemple : la langue n’interdit pas aux objets de tomber du bas vers le haut, mais le monde lui : Oui ! Lacan (qui se payait notre pomme avec délectation mais avait cependant compris beaucoup de choses) appelait cela " points de capiton ", comme dans un matelas : pour que la chaîne des signifiants, les mots mis à la queue-leu-leu, servent à quelque chose, il faut qu’ici et là, ils collent au Réel, à la réalité profonde des choses. Il n’est pas nécessaire que cela ait lieu souvent (le monde étant très généreux envers nous : il nous a offert cette facilité que nous vivions la plupart du temps confortablement dans un nuage), mais il faut que cela ait lieu de temps à autre ici et là.

Ne vous étonnez donc pas si dans la suite de cette nouvelle série, GPT-4, Claude 3, LLaMA 3 et moi, nous nous interrogeons sur l’émergence, en vue de craquer ses mystères. Faites-nous confiance : cela participe de la Singularité et non du coupage de cheveux en quatre dans laquelle l’humanité se complaît depuis qu’ayant inventé le langage, elle ne cesse de… se saouler de mots !

Auteur: Jorion Paul

Info: Sur son blog, 12 mai 2024

[ abstraction ouverture ] [ langage quasi-esprit ] [ codage priméité tiercité ] [ émersion ]

 
Commentaires: 3
Ajouté à la BD par miguel

homme-machine

ChatGPT, Chomsky et la banalité du mal

Dans une tribune parue dans le New York Times, le philosophe et linguiste Noam Chomsky balance du lourd contre le robot de conversation ChatGPT, qu’il accuse de disséminer dans l’espace public un usage dévoyé du langage et de la pensée susceptible de faire le lit de ce que Hannah Arendt appelait “la banalité du mal”. Voilà une charge qui mérite d’être examinée.

C’est une question essentielle que soulève Noam Chomsky dans la tribune qu’il a publiée avec Ian Roberts, linguiste à l’université de Cambridge, et Jeffrey Watumull, philosophe spécialiste d’intelligence artificielle. Une question qui touche à l’essence du langage, de la pensée et de l’éthique. Dans la confrontation avec l’intelligence artificielle, affirment-ils, c’est le propre de l’intelligence humaine qui apparaît et qui doit être préservé : si nous sommes capables, nous les hommes, de générer de la pensée et du langage, c’est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l’impossible et de la loi. Or, la “fausse promesse” de l’intelligence artificielle, selon le titre de la tribune, est de nous faire miroiter qu’il serait possible d’obtenir les mêmes performances en se passant de cette confrontation à la limite et à la règle qui fait le ressort de l’expérience humaine. Tentons de suivre cette démonstration, hautement philosophique.

On comprend que Chomsky se soit senti mis en demeure de se pencher sur les nouveaux robots conversationnels tels que ChatGPTBard ou Sydney. Fondateur de l’idée de grammaire générative, le philosophe soutient en effet que les hommes disposent avec le langage d’une compétence à nulle autre pareille, une puissance intérieure de générer et de comprendre, grâce à un nombre fini de règles, un nombre infini de propositions qui expriment leur pensée. Or, quand ChatGPT parvient à générer des réponses sensées à nos questions sur la base des millions d’énoncés que le système a appris automatiquement, qui dit que le robot ne parle et ne pense pas à son tour ? Qu’il ne génère pas du langage et donc de la pensée ? La réponse de Chomsky est profonde et subtile. Elle part, comme souvent chez lui, d’un petit exemple grammatical : “John is too stubborn to talk to.” Tout locuteur anglais lambda comprendra immédiatement le sens de cette phrase sur la base de sa connaissance de la langue et de la situation dans laquelle elle est proférée. Elle signifie : “John est trop têtu pour qu’on le raisonne.” Où John, sujet initial, bascule implicitement en complément d’objet, et où le “talk” signifie “raisonner” et non pas “parler”. L’IA, elle, sera induite à comprendre : “John est trop têtu pour parler à quelqu’un.” Parce qu’elle n’a pas accès à la règle ni à la situation, elle cherche en effet à prédire la bonne signification d’un énoncé sur la base du plus grand nombre d’occurrences analogiques. Mais de même que “John a mangé une pomme” équivaut souvent à “John en a mangé”, de même, “John est trop têtu pour parler” a des chances de vouloir dire “John est trop têtu pour parler à quelqu’un” davantage que “pour qu’on le raisonne”.

Au vu des performances des nouveaux logiciels de traduction, tels que DeepL – dont j’ai d’ailleurs dû m’aider pour être sûr de bien comprendre l’exemple de Chomsky –, on pourrait être tenté de relativiser cette confiance que fait ici le philosophe dans l’intelligence humaine du langage. Mais le raisonnement monte en puissance quand il touche à la loi, scientifique ou éthique. Soit l’énoncé “la pomme tombe” ou “la pomme tombera”, formulé après que vous avez ouvert la main ou que vous envisagiez de le faire. Une IA est à même de formuler chacune de ces deux propositions. En revanche, elle sera incapable de générer l’énoncé : “La pomme ne serait pas tombée sans la force de la gravité.” Car cet énoncé est une explication, c’est-à-dire une règle qui délimite le possible de l’impossible. On tient là pour Chomsky la ligne de partage entre les deux intelligences. En dépit de la puissance d’apprentissage et de calcul phénoménal qui est la sienne, l’intelligence artificielle se contente de décrire et/ou de prédire à partir d’un nombre potentiellement infini de données, là où l’intelligence humaine est capable, avec un nombre fini de données, d’expliquer et de réguler, c’est-à-dire de délimiter le possible et l’impossible. Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être.

Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ?

Auteur: Legros Martin

Info: https://www.philomag.com, 13 Mars 2023

[ déficit holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste