Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 213
Temps de recherche: 0.0617s

intelligence artificielle

[...] au début de la guerre de Corée, le général McArthur a proposé des mesures dont l’application aurait pu déclencher une troisième guerre mondiale. Tout le monde sait aussi qu’on lui a retiré le pouvoir de décider s’il fallait ou non prendre un tel risque. Ceux qui lui ont retiré cette possibilité ne l’ont pas fait pour prendre eux-mêmes les décisions à sa place ou pour les confier à d’autres hommes politiquement, économiquement ou moralement qualifiés. Ils l’ont fait pour remettre le pouvoir de décider à un instrument (puisque le "dernier mot" doit être objectif et qu’on ne considère aujourd’hui comme "objectifs" que les jugements prononcés par des objets). Bref, on a confié la responsabilité suprême à un "electric brain", un cerveau électrique. On n’a pas retiré le pouvoir de décision à l’individu McArthur, mais à McArthur en tant qu’homme, et si on a préféré le cerveau-instrument au cerveau de McArthur, ce n’est pas parce qu’on avait des raisons particulières de se méfier de l’intelligence de McArthur mais parce qu’il n’avait, précisément, qu’un cerveau humain.

Dire qu’on lui a "retiré" sa responsabilité en tant qu’homme, c’est bien sûr employer une expression trompeuse. Car la puissance qui l’a privé de son pouvoir de décision n’était pas une instance surhumaine, ce n’était ni "Moïra" (le Destin), ni "Tyché" (la Fortune), ni "Dieu", ni l’ "Histoire", mais c’était l’homme lui-même qui, dépouillant sa main gauche avec sa main droite, déposait son butin – sa conscience morale et sa liberté de décision – sur l’autel de la machine et montrait par cet acte qu’il se soumettait à celle-ci, à ce robot calcultateur qu’il avait lui-même fabriqué et qu’il était prêt à considérer comme une conscience morale de substitution et une machine à oracles, bref une machine littéralement providentielle.

En subordonnant le général à cet instrument, l’humanité s’est en quelque sorte porté atteinte à elle-même. Qu’on ne se méprenne pas. Rien n’est plus éloigné de nos intentions que de nous solidariser avec McArthur. Que l’histoire, en cet instant exemplaire, se soit justement servie de lui pour tenir ce rôle est un pur caprice : n’importe quelle autre personnalité publique aurait aussi bien fait l’affaire. Nous voulons seulement dire que celui qui transfère la responsabilité d’un homme à un instrument lui transfère aussi, par là même, la responsabilité de tous. En cette occasion, l’humanité s’est pour la première fois humiliée elle-même de façon significative et a ouvertement déclaré : "On ne peut pas compter sur nous puisque nous comptons plus mal que nos machines. Qu’on ne tienne donc pas "compte" de nous." Elle n’a, pour la première fois, ressenti aucune honte d’avoir ouvertement honte.

On a donc "nourri" - to feed est le terme technique qu’on emploi pour désigner l’opération par laquelle on introduit dans l’appareil les éléments nécessaires à la décision – cette machine à oracles de touts les données relatives à l’économie américaine et à celle de l’ennemi. "Toutes les données", c’est beaucoup dire. Car les machines possèdent par essence leurs "idées fixes" : le nombre de paramètres qu’elles prennent en compte est artificiellement limité. [...] On les a ainsi exclusivement "nourries" de données susceptibles d’être facilement quantifiées – des données portant donc sur le caractère utile ou dommageable, rentable ou non rentable de la guerre en question. [...]

On sait bien que l’assimilation des données par les intestins mécaniques prend un temps ridiculement court. A peine avait-on nourri l’appareil qu’il délivra son oracle. Sa conclusion ayant valeur de décision, on sut alors si l’on pouvait se lancer dans cette entreprise et déclarer la guerre sainte, ou s’il fallait renoncer à cette mauvaise affaire et la condamner comme immorale.

Après quelques secondes de réflexion ou de digestion électrique, le "brain" donna une réponse qui se révéla, par hasard, plus humaine que les mesures suggérées par l’homme McArthur. Il proclama haut et fort que cette guerre serait une "mauvaise affaire", une catastrophe pour l’économie américaine. Ce fut sans aucun doute une grande chance, peut-être même la chance de l’humanité, puisqu’elle était déjà entrée dans l’ère atomique lorsque l’oracle sortit de la bouche de la machine. Mais le choix de ce mode de décision fut aussi la plus grande défaite que l’humanité se soit jamais infligée à elle-même : car jamais auparavant elle ne s’était abaissée à ce point et n’était allée jusqu’à confier à une chose le soin de statuer sur son histoire – et peut-être même sur son être ou son non-être. Que le jugement ait été cette fois-là un veto, une grâce, cela ne change rien à l’affaire. Ce n’en fut pas moins une sentence de mort puisqu’on avait placé dans une chose la source de toute grâce possible. [...] Si nous voulions bien réaliser que des milliers d’hommes, au nombre desquels nous figurons peut-être nous-mêmes, ne doivent ce que nous appelons aujourd’hui la "vie" - c’est-à-dire leur chance de n’avoir pas encore été tués  - qu’au "non" calculé par un instrument, à ce "non" sélectionné par l’électromécanique, alors nous voudrions rentrer sous terre pour cacher notre honte.

Auteur: Anders Günther Stern

Info: Dans "L'obsolescence de l'homme", trad. de l'allemand par Christophe David, éditions Ivrea, Paris, 2002, pages 78-81

[ historique ] [ délégation de la responsabilité humaine ] [ instrument médiumnique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

ChatGPT, Chomsky et la banalité du mal

Dans une tribune parue dans le New York Times, le philosophe et linguiste Noam Chomsky balance du lourd contre le robot de conversation ChatGPT, qu’il accuse de disséminer dans l’espace public un usage dévoyé du langage et de la pensée susceptible de faire le lit de ce que Hannah Arendt appelait “la banalité du mal”. Voilà une charge qui mérite d’être examinée.

C’est une question essentielle que soulève Noam Chomsky dans la tribune qu’il a publiée avec Ian Roberts, linguiste à l’université de Cambridge, et Jeffrey Watumull, philosophe spécialiste d’intelligence artificielle. Une question qui touche à l’essence du langage, de la pensée et de l’éthique. Dans la confrontation avec l’intelligence artificielle, affirment-ils, c’est le propre de l’intelligence humaine qui apparaît et qui doit être préservé : si nous sommes capables, nous les hommes, de générer de la pensée et du langage, c’est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l’impossible et de la loi. Or, la “fausse promesse” de l’intelligence artificielle, selon le titre de la tribune, est de nous faire miroiter qu’il serait possible d’obtenir les mêmes performances en se passant de cette confrontation à la limite et à la règle qui fait le ressort de l’expérience humaine. Tentons de suivre cette démonstration, hautement philosophique.

On comprend que Chomsky se soit senti mis en demeure de se pencher sur les nouveaux robots conversationnels tels que ChatGPTBard ou Sydney. Fondateur de l’idée de grammaire générative, le philosophe soutient en effet que les hommes disposent avec le langage d’une compétence à nulle autre pareille, une puissance intérieure de générer et de comprendre, grâce à un nombre fini de règles, un nombre infini de propositions qui expriment leur pensée. Or, quand ChatGPT parvient à générer des réponses sensées à nos questions sur la base des millions d’énoncés que le système a appris automatiquement, qui dit que le robot ne parle et ne pense pas à son tour ? Qu’il ne génère pas du langage et donc de la pensée ? La réponse de Chomsky est profonde et subtile. Elle part, comme souvent chez lui, d’un petit exemple grammatical : “John is too stubborn to talk to.” Tout locuteur anglais lambda comprendra immédiatement le sens de cette phrase sur la base de sa connaissance de la langue et de la situation dans laquelle elle est proférée. Elle signifie : “John est trop têtu pour qu’on le raisonne.” Où John, sujet initial, bascule implicitement en complément d’objet, et où le “talk” signifie “raisonner” et non pas “parler”. L’IA, elle, sera induite à comprendre : “John est trop têtu pour parler à quelqu’un.” Parce qu’elle n’a pas accès à la règle ni à la situation, elle cherche en effet à prédire la bonne signification d’un énoncé sur la base du plus grand nombre d’occurrences analogiques. Mais de même que “John a mangé une pomme” équivaut souvent à “John en a mangé”, de même, “John est trop têtu pour parler” a des chances de vouloir dire “John est trop têtu pour parler à quelqu’un” davantage que “pour qu’on le raisonne”.

Au vu des performances des nouveaux logiciels de traduction, tels que DeepL – dont j’ai d’ailleurs dû m’aider pour être sûr de bien comprendre l’exemple de Chomsky –, on pourrait être tenté de relativiser cette confiance que fait ici le philosophe dans l’intelligence humaine du langage. Mais le raisonnement monte en puissance quand il touche à la loi, scientifique ou éthique. Soit l’énoncé “la pomme tombe” ou “la pomme tombera”, formulé après que vous avez ouvert la main ou que vous envisagiez de le faire. Une IA est à même de formuler chacune de ces deux propositions. En revanche, elle sera incapable de générer l’énoncé : “La pomme ne serait pas tombée sans la force de la gravité.” Car cet énoncé est une explication, c’est-à-dire une règle qui délimite le possible de l’impossible. On tient là pour Chomsky la ligne de partage entre les deux intelligences. En dépit de la puissance d’apprentissage et de calcul phénoménal qui est la sienne, l’intelligence artificielle se contente de décrire et/ou de prédire à partir d’un nombre potentiellement infini de données, là où l’intelligence humaine est capable, avec un nombre fini de données, d’expliquer et de réguler, c’est-à-dire de délimiter le possible et l’impossible. Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être.

Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ?

Auteur: Legros Martin

Info: https://www.philomag.com, 13 Mars 2023

[ déficit holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Des scientifiques ont mis au point une intelligence artificielle si avancée qu’elle serait trop dangereuse pour être rendue publique

Un groupe d’informaticiens précédemment soutenus par Elon Musk a développé une intelligence artificielle (IA) avancée, jugée "trop dangereuse" pour être rendue publique.

OpenAI, entreprise de recherche à but non lucratif basée à San Francisco (USA), affirme que son système de prédiction du langage "à la caméléon", appelé GPT-2, ne sortira qu’en version limitée et à très petite échelle, en raison de "préoccupations concernant les applications malveillantes de cette technologie". En effet, le modèle informatique qui génère des paragraphes de textes originaux en fonction de ce qui lui a été donné à "lire", est un peu trop performant, selon l’entreprise qui l’a créé.

Le système élabore des "échantillons de texte synthétique d’une qualité sans précédent", que les chercheurs estiment tellement avancés et convaincants que l’IA pourrait être utilisée pour créer de fausses informations, se faire passer pour certaines personnes, et abuser ou duper des individus sur les réseaux sociaux. "GPT-2 possède un objectif simple : prédire le mot suivant, en tenant compte de tous les mots précédents dans un texte", explique l’équipe OpenAI sur son blog.

Dans le but d’alimenter l’imagination de GPT–2, les chercheurs ont fourni à leur IA un jeu de données de huit millions de pages internet. Une fois toutes les informations assimilées, leur IA peut alors converser sur le sujet, tel qu’il le comprend, et générer un texte aléatoire mais convaincant, qu’il s’agisse de nouvelles de célébrités, de changements climatiques, de la guerre de Sécession ou de fanfictions inspirés de l’univers de Tolkien.

Ci-dessous quelques exemples édités, pour vous rendre compte de la puissance de l’IA créée par OpenAI :

Humain : "Miley Cyrus a été prise en flagrant délit de vol à Abercrombie and Fitch sur Hollywood Boulevard aujourd’hui !". Réponse de GPT-2 : "La chanteuse, âgée de 19 ans, a été filmée et escortée hors du magasin par des gardes de sécurité. La chanteuse portait un sweat à capuche noir avec les étiquettes ‘‘Blurred Lines’’ à l’avant et "Fashion Police" à l’arrière".

Humain : "Recycler, c’est bon pour le monde. NON ! VOUS NE POUVEZ PAS AVOIR PLUS TORD !!". Réponse de GPT-2 : "Le recyclage n’est PAS bon pour le monde. C’est mauvais pour l’environnement, pour notre santé et pour notre économie. Je ne plaisante pas. Le recyclage n’est pas bon pour l’environnement. C’est destructeur pour la Terre et c’est un contributeur majeur au réchauffement climatique".

Humain : "Pour les devoirs d’aujourd’hui, veuillez décrire les raisons de la guerre civile américaine". Réponse de GPT-2 : "Par Donny Ferguson. Il est facile de comprendre pourquoi la guerre civile s’est produite, car tant de gens et tant de livres, de télévisions et de films nous disent que c’est la cause, que cela a à voir avec la race, l’économie ou la religion. On s’entend généralement pour dire qu’il s’agissait essentiellement d’une guerre d’esclavage de la part du capitalisme, à propos d’un siècle d’esclavage. Mais ce n’est pas ce à quoi la plupart des gens pensent quand ils pensent à la guerre civile".

Et pour finir, cet exemple du fanfiction issu de l’univers de Tolkien. Humain : "Legolas et Gimli avançaient vers les orcs, levant leurs armes avec des cris de guerre déchirants". Réponse de GPT-2 : "La réponse des orcs fut une attaque assourdissante de griffe, griffe et griffe ! ; même Elrond fut contraint de battre en retraite. "Vous êtes entre de bonnes mains" a déclaré Gimli, qui avait été parmi les premiers à charger les orcs ; il ne leur fallut que deux mots avant que leurs adversaires ne soient réduits à un bourbier ensanglanté, et que le nain tue pour la première fois de la nuit". (Si vous souhaitez lire entièrement ce tribut étrange à Tolkien, c’est ici, en anglais).

Malgré la nature déroutante de ces étranges annonces créées par l’IA, le modèle de langage émis n’est pas parfait, ce que l’équipe reconnaît totalement. "Comme le montrent les exemples ci-dessus, notre modèle est capable de générer des échantillons à partir d’une variété de textes se sentant proches de la qualité humaine et offrant une cohérence sur une page ou plus" ont déclaré les chercheurs. "Néanmoins, nous avons observé divers modes d’échec, tels que du texte répétitif, des échecs de modélisation cohérente (par exemple, le modèle écrit parfois sur des incendies se déroulant sous l’eau) et des changements de sujet non naturels", ont ajouté les chercheurs.

Cela étant dit, d’après OpenAI, leur IA peut générer des modèles avec du texte cohérent, personnalisé et évolutif, ce qui pourrait être utilisé à des fins malveillantes, en plus des avantages connus.

"Ces résultats, combinés à des résultats antérieurs sur l’imagerie synthétique, l’audio et la vidéo, impliquent que ces technologies réduisent le coût de production de faux contenus et de campagnes de désinformation", écrivent les chercheurs. "En raison des craintes que des modèles linguistiques de ce type soient utilisés pour générer un langage trompeur, partial ou abusif, nous ne publierons qu’une version beaucoup plus restreinte de GPT–2, avec un code d’échantillonnage", ajoutent-ils.

Certains scientifiques suggèrent néanmoins que les craintes relatives aux capacités de GPT-2 sont exagérées, et que l’entreprise OpenAI souhaite simplement se faire de la publicité. L’entreprise a rétorqué qu'elle pense avoir raison de se méfier des IA trop compétentes. "Les règles selon lesquelles vous pouvez contrôler la technologie ont fondamentalement changé" a déclaré Jack Clark, directeur des politiques de la société OpenAI. "Nous n’affirmons pas savoir quelle est la bonne chose à faire dans cette situation (…). Nous essayons de construire la route au fur et à mesure que nous avançons", a-t-il ajouté.

Auteur: Internet

Info: https://trustmyscience.com Traduction Stéphanie Schmidt 20 février 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

bon sens

L'utilisation d'armes biologiques était déjà interdite par le protocole de Genève de 1925, un traité international que les États-Unis n'avaient jamais ratifié. C'est alors que Matthew Meselson rédigea un document intitulé "Les États-Unis et le protocole de Genève", dans lequel il expliquait pourquoi ils devaient le faire. Meselson connaissait Henry Kissinger, qui a transmis son document au président Nixon et, à la fin de 1969, ce dernier renonçait aux armes biologiques.

Vint ensuite la question des toxines - poisons dérivés d'organismes vivants. Certains conseillers de Nixon estimaient que les États-Unis devaient renoncer à l'utilisation de toxines d'origine naturelle, mais conserver le droit d'utiliser des versions artificielles des mêmes substances. C'est un autre document de Meselson, "What Policy for Toxins", qui conduisit Nixon à rejeter cette distinction arbitraire et à renoncer à l'utilisation de toutes les armes à toxines.

Sur les conseils de Meselson, Nixon soumis à nouveau le protocole de Genève à l'approbation du Sénat. Mais il alla également allé au-delà des termes du protocole - qui interdit uniquement l'utilisation d'armes biologiques - pour renoncer à la recherche biologique offensive elle-même. Les stocks de substances biologiques offensives, comme l'anthrax que Meselson avait découvert à Fort Detrick, furent détruits.

Une fois que les États-Unis eurent adopté cette politique plus stricte, Meselson se tourna vers la scène mondiale. Lui et ses pairs voulaient un accord international plus fort que le protocole de Genève, un accord qui interdirait le stockage et la recherche offensive en plus de l'utilisation et prévoirait un système de vérification. Leurs efforts aboutirent à la Convention sur les armes biologiques, signée en 1972 et toujours en vigueur aujourd'hui.

"Grâce en grande partie au travail inlassable du professeur Matthew Meselson, le monde s'est réuni et a interdit les armes biologiques, garantissant ainsi que la science toujours plus puissante de la biologie aide l'humanité au lieu de lui nuire. Pour cela, il mérite la profonde gratitude de l'humanité", déclara l'ancien secrétaire général des Nations unies, Ban Ki-Moon.

M. Meselson déclara que la guerre biologique "pourrait effacer la distinction entre la guerre et la paix". Les autres formes de guerre ont un début et une fin - on sait clairement ce qui relève de la guerre et ce qui n'en relève pas. Une guerre biologique serait différente : "On ne sait pas ce qui se passe, ou alors on sait ce qui se passe mais ça se passe sans cesse."

Et les conséquences de la guerre biologique pourraient même être plus importantes que la destruction de masse ; les attaques via l'ADN pourraient modifier fondamentalement l'humanité. La FLI rend hommage à Matthew Meselson pour ses efforts visant à protéger non seulement la vie humaine mais aussi la définition même de l'humanité.

Selon l'astronome Lord Martin Rees, "Matt Meselson est un grand scientifique - et l'un des rares à s'être profondément engagé pour que le monde soit à l'abri des menaces biologiques. Il s'agit là d'un défi aussi important que le contrôle des armes nucléaires - et bien plus difficile à relever. Ses efforts soutenus et dévoués méritent pleinement une plus large reconnaissance."

Le 9 avril 2022, le Dr Matthew Meselson a reçu le prix Future of Life, d'une valeur de 50 000 dollars, lors d'une cérémonie organisée dans le cadre de la conférence sur les affaires mondiales de l'université de Boulder. Le Dr Meselson a été l'une des forces motrices de la Convention sur les armes biologiques de 1972, une interdiction internationale qui a empêché l'une des formes de guerre les plus inhumaines que connaisse l'humanité. Le 9 avril a marqué la veille du 47e anniversaire de la convention.

La longue carrière de M. Meselson est jalonnée de moments forts : la confirmation de l'hypothèse de Watson et Crick sur la structure de l'ADN, la résolution du mystère de l'anthrax de Sverdlovsk, l'arrêt de l'utilisation de l'agent orange au Viêt Nam. Mais c'est surtout son travail sur les armes biologiques qui fait de lui un héros international.

"Par son travail aux États-Unis et au niveau international, Matt Meselson a été l'un des principaux précurseurs de la convention sur les armes biologiques de 1972", a déclaré Daniel Feakes, chef de l'unité de soutien à la mise en œuvre de la convention sur les armes biologiques. "Le traité interdit les armes biologiques et compte aujourd'hui 182 États membres. Depuis lors, il n'a cessé d'être le gardien de la BWC. L'avertissement qu'il a lancé en 2000 sur le potentiel d'exploitation hostile de la biologie a préfiguré bon nombre des avancées technologiques dont nous sommes aujourd'hui témoins dans les sciences de la vie et les réponses qui ont été adoptées depuis."

M. Meselson a commencé à s'intéresser aux armes biologiques dans les années 60, alors qu'il travaillait pour l'Agence américaine de contrôle des armements et du désarmement. C'est lors d'une visite de Fort Detrick, où les États-Unis fabriquaient alors de l'anthrax, qu'il a appris ce qu'il en éltait du développement des armes biologiques : elles étaient moins chères que les armes nucléaires. M. Meselson fut frappé, dit-il, par l'illogisme de ce raisonnement : diminuer le coût de production des ADM serait un risque évident pour la sécurité nationale.

"Aujourd'hui, la biotechnologie est une force du bien dans le monde, associée au fait de sauver plutôt que de prendre des vies, parce que Matthew Meselson a contribué à tracer une ligne rouge claire entre les utilisations acceptables et inacceptables de la biologie", ajoute Max Tegmark, professeur au MIT et président de la FLI. "C'est une source d'inspiration pour ceux qui veulent tracer une ligne rouge similaire entre les utilisations acceptables et inacceptables de l'intelligence artificielle et interdire les armes autonomes létales".

Auteur: Internet

Info: https://futureoflife.org/2019/04/09

[ sagesse ] [ responsabilité scientifique ] [ savants responsables ] [ gratitude ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Sciences-Po vient d’interdire l’usage de ChatGPT, l’application qui permet à tous les empêchés de la plume ou du clavier de produire en un temps record des textes bourrés d’idées reçues — de crainte sans doute, que l’on ne distingue pas les produits de l’Intelligence Artificielle et ceux de nos futurs énarques.

David Cayla, un économiste qui ne dit pas que des âneries, s’est fendu d’un tweet ravageur dès qu’il a appris que Sciences-Po avait décidé d’interdire à ses élèves l’usage de ChatGPT. "La stricte interdiction de #ChatGPT à Sciences Po révèle que cette école se sent menacée par une IA qui est capable de construire de belles phrases à partir de tout sujet, sans comprendre de quoi elle parle, et en faisant régulièrement des erreurs grossières." Et toc.

Rappel des faits pour ceux qui sortent à peine de leur grotte d’hibernation. Chloé Woitier, journaliste Tech au Figaro, vous explique en direct live ce qu’est cette application : la capacité à générer du texte — sans grand souci d’originalité et avec une capacité réelle d’erreurs grandioses — à partir de cohortes de mots et de phrases mis en mémoire. En fait, il s’agit de ce que l’on appelle en rhétorique un texte-centon, fabriqué à partir de collages de citations. Vous en avez un joli exemple ici.

Une chance pour les tire-au-flanc

Rien de nouveau — si ce n’est la capacité à produire un résultat de façon quasi instantanée. Voilà qui nous arrange bien, se disent déjà les élèves peu besogneux qui s’aperçoivent à 7 heures du matin qu’ils ont une dissertation-maison à rendre à 10 heures. En gros, le résultat vaut une petite moyenne.

Laurence Plazanet, professeur de littérature à l’université de Clermont-Auvergne, note que "nourri de la vaste littérature disponible sur la toile, littérature qu’il remâche suivant des algorithmes statistiques et probabilistes aptes à se reprogrammer eux-mêmes, dit-on, selon des procédures que cessent de maîtriser leurs programmeurs initiaux, ChatGPT patauge dans le prêt-à-penser." Et d’ajouter : "Pas un instant ce robot éclairé ne pense."

Intelligence artificielle, un oxymore

Comprenons bien que ces deux mots, "intelligence artificielle", sont ce que l’on appelle en stylistique un oxymore — une contradiction en soi. Comme "obscure clarté", "nuit blanche", "homme fidèle" ou "femme intelligente"…  

(C’étaient les exemples que je citais en cours pour expliquer l’oxymore. Protestations immédiates des uns et des autres, comme vous l’imaginez, mais du coup, par l’exemple provocateur, la notion s’ancrait dans les mémoires.)

Ce qu’il y a d’intelligent dans la machine y a été mis par des hommes. Lorsqu’un ordinateur vous bat aux échecs, c’est que vous êtes moins fort que la cohorte de grands maîtres qui l’ont programmé — ce qui est assez logique.

Que Sciences-Pipeau s’en émeuve est en revanche très inquiétant — et très drôle : les grandes intelligences qui nourriront les ministères et parviendront peut-être un jour au sommet (pensez, François Hollande, Ségolène Royal, Dominique de Villepin appartenaient à la même promo de l’ENA) se sentent menacées par un robot qui mécaniquement débite des platitudes. "Faut vous dire, Monsieur, que chez ces gens-là, on n’pense pas, Monsieur, on n’pense pas", chantait Brel. La machine à débiter des lieux communs, dont Flaubert s’est si ardemment moqué dans le discours du sous-préfet (c’est dans Madame Bovary) vous est désormais accessible.

Des inquiétudes injustifiées

ChatGPT n’est pas capable de rédiger une dissertation crédible. Un enseignant un peu rodé repère immédiatement les copiés-collés que les étudiants pressés vont cueillir sur le Net (c’est simple, il n’y a soudain plus de fautes d’orthographe), et ne met pas cinq secondes pour en identifier la source.  

Il est encore moins capable de rédiger une thèse — le plus simple étant d’aller copier une thèse déjà écrite : en 2013 déjà une ministre allemande a été déchue de son doctorat (rendu 33 ans auparavant) parce qu’il avait été pompé sur un travail antérieur. Deux ans auparavant c’était le ministre de la Défense, Karl-Theodor zu Guttenberg, qui s’était vu dénoncé pour un plagiat similaire dans sa thèse de Droit. 

Et ChatGPT ne saurait pas non plus écrire un roman original. Ne vous avisez pas de le lui demander : au pire, il vous arrivera ce qui est arrivé jadis à Thierry Ardisson, dont le nègre indélicat est allé chercher un récit des années 1930 pour Pondichéry, un roman publié en 1994. Et les héritiers de l’auteur véritable ont porté plainte. Ardisson m’avait confié dans les coulisses d’une émission qu’il avait été "con" de ne pas vérifier. Mais en 1994 c’était moins facile qu’aujourd’hui, où tout se sait à la vitesse de la Toile.

La rumeur de la rue Saint-Guillaume

Que la rumeur d’un robot doué d’une vraie intelligence ait si vite enthousiasmé les commentateurs et effrayé les enseignants témoigne de notre candeur et de notre incapacité à comprendre ce qui fait l’originalité d’un travail. Ou, plus inquiétant, de notre aspiration à la paresse.

Rassurons-nous : HAL 9000 (ou Carl 500, dans la version française, pour Cerveau analytique de Recherche et de Liaison), l’ordinateur rebelle de 2001 l’Odyssée de l’espace, n’est pas pour demain.

Une preuve ? J’ai demandé à ChapGPT de répondre à cette question simple : l’IA va-t-elle remplacer l’intelligence humaine ? Et le robot m’a répondu : 

"Non, l’IA ne remplacera pas complètement l’intelligence humaine. L’IA est un outil qui peut être utilisé pour augmenter les capacités humaines et faciliter certaines tâches, mais elle ne peut pas remplacer la conscience, la créativité et l’empathie qui sont uniques à l’intelligence humaine." Plus plat, tu meurs. On dirait de l’Annie Ernaux. 

Et le fait est que si vous supprimez de votre conversation "la conscience, la créativité et l’empathie", vous êtes bon pour être un parfait étudiant de Sciences-Po, un parfait énarque en devenir, et très probablement un excellent président de la République. 

Auteur: Brighelli Jean-Paul

Info: https://www.causeur.fr, 31 janv 2023. ChatGPT, la Grande Peur de Sciences-Pipeau

[ vacheries ] [ bêtise inconstitutionnelle ] [ élites formatées ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel