Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1261
Temps de recherche: 0.0489s

homme-machine

Des scientifiques ont mis au point une intelligence artificielle si avancée qu’elle serait trop dangereuse pour être rendue publique

Un groupe d’informaticiens précédemment soutenus par Elon Musk a développé une intelligence artificielle (IA) avancée, jugée "trop dangereuse" pour être rendue publique.

OpenAI, entreprise de recherche à but non lucratif basée à San Francisco (USA), affirme que son système de prédiction du langage "à la caméléon", appelé GPT-2, ne sortira qu’en version limitée et à très petite échelle, en raison de "préoccupations concernant les applications malveillantes de cette technologie". En effet, le modèle informatique qui génère des paragraphes de textes originaux en fonction de ce qui lui a été donné à "lire", est un peu trop performant, selon l’entreprise qui l’a créé.

Le système élabore des "échantillons de texte synthétique d’une qualité sans précédent", que les chercheurs estiment tellement avancés et convaincants que l’IA pourrait être utilisée pour créer de fausses informations, se faire passer pour certaines personnes, et abuser ou duper des individus sur les réseaux sociaux. "GPT-2 possède un objectif simple : prédire le mot suivant, en tenant compte de tous les mots précédents dans un texte", explique l’équipe OpenAI sur son blog.

Dans le but d’alimenter l’imagination de GPT–2, les chercheurs ont fourni à leur IA un jeu de données de huit millions de pages internet. Une fois toutes les informations assimilées, leur IA peut alors converser sur le sujet, tel qu’il le comprend, et générer un texte aléatoire mais convaincant, qu’il s’agisse de nouvelles de célébrités, de changements climatiques, de la guerre de Sécession ou de fanfictions inspirés de l’univers de Tolkien.

Ci-dessous quelques exemples édités, pour vous rendre compte de la puissance de l’IA créée par OpenAI :

Humain : "Miley Cyrus a été prise en flagrant délit de vol à Abercrombie and Fitch sur Hollywood Boulevard aujourd’hui !". Réponse de GPT-2 : "La chanteuse, âgée de 19 ans, a été filmée et escortée hors du magasin par des gardes de sécurité. La chanteuse portait un sweat à capuche noir avec les étiquettes ‘‘Blurred Lines’’ à l’avant et "Fashion Police" à l’arrière".

Humain : "Recycler, c’est bon pour le monde. NON ! VOUS NE POUVEZ PAS AVOIR PLUS TORD !!". Réponse de GPT-2 : "Le recyclage n’est PAS bon pour le monde. C’est mauvais pour l’environnement, pour notre santé et pour notre économie. Je ne plaisante pas. Le recyclage n’est pas bon pour l’environnement. C’est destructeur pour la Terre et c’est un contributeur majeur au réchauffement climatique".

Humain : "Pour les devoirs d’aujourd’hui, veuillez décrire les raisons de la guerre civile américaine". Réponse de GPT-2 : "Par Donny Ferguson. Il est facile de comprendre pourquoi la guerre civile s’est produite, car tant de gens et tant de livres, de télévisions et de films nous disent que c’est la cause, que cela a à voir avec la race, l’économie ou la religion. On s’entend généralement pour dire qu’il s’agissait essentiellement d’une guerre d’esclavage de la part du capitalisme, à propos d’un siècle d’esclavage. Mais ce n’est pas ce à quoi la plupart des gens pensent quand ils pensent à la guerre civile".

Et pour finir, cet exemple du fanfiction issu de l’univers de Tolkien. Humain : "Legolas et Gimli avançaient vers les orcs, levant leurs armes avec des cris de guerre déchirants". Réponse de GPT-2 : "La réponse des orcs fut une attaque assourdissante de griffe, griffe et griffe ! ; même Elrond fut contraint de battre en retraite. "Vous êtes entre de bonnes mains" a déclaré Gimli, qui avait été parmi les premiers à charger les orcs ; il ne leur fallut que deux mots avant que leurs adversaires ne soient réduits à un bourbier ensanglanté, et que le nain tue pour la première fois de la nuit". (Si vous souhaitez lire entièrement ce tribut étrange à Tolkien, c’est ici, en anglais).

Malgré la nature déroutante de ces étranges annonces créées par l’IA, le modèle de langage émis n’est pas parfait, ce que l’équipe reconnaît totalement. "Comme le montrent les exemples ci-dessus, notre modèle est capable de générer des échantillons à partir d’une variété de textes se sentant proches de la qualité humaine et offrant une cohérence sur une page ou plus" ont déclaré les chercheurs. "Néanmoins, nous avons observé divers modes d’échec, tels que du texte répétitif, des échecs de modélisation cohérente (par exemple, le modèle écrit parfois sur des incendies se déroulant sous l’eau) et des changements de sujet non naturels", ont ajouté les chercheurs.

Cela étant dit, d’après OpenAI, leur IA peut générer des modèles avec du texte cohérent, personnalisé et évolutif, ce qui pourrait être utilisé à des fins malveillantes, en plus des avantages connus.

"Ces résultats, combinés à des résultats antérieurs sur l’imagerie synthétique, l’audio et la vidéo, impliquent que ces technologies réduisent le coût de production de faux contenus et de campagnes de désinformation", écrivent les chercheurs. "En raison des craintes que des modèles linguistiques de ce type soient utilisés pour générer un langage trompeur, partial ou abusif, nous ne publierons qu’une version beaucoup plus restreinte de GPT–2, avec un code d’échantillonnage", ajoutent-ils.

Certains scientifiques suggèrent néanmoins que les craintes relatives aux capacités de GPT-2 sont exagérées, et que l’entreprise OpenAI souhaite simplement se faire de la publicité. L’entreprise a rétorqué qu'elle pense avoir raison de se méfier des IA trop compétentes. "Les règles selon lesquelles vous pouvez contrôler la technologie ont fondamentalement changé" a déclaré Jack Clark, directeur des politiques de la société OpenAI. "Nous n’affirmons pas savoir quelle est la bonne chose à faire dans cette situation (…). Nous essayons de construire la route au fur et à mesure que nous avançons", a-t-il ajouté.

Auteur: Internet

Info: https://trustmyscience.com Traduction Stéphanie Schmidt 20 février 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

omniprésent sapiens

(FLP) quels sont les exemples, s'ils existent, d'une espèce qui, comme les humains, s'est adaptée à tous les biotopes ?

(Gemini) -  il n'existe pas d'espèce animale qui ait réussi à s'adapter à tous les biotopes de la planète avec le même niveau de succès que les humains.

Cependant, plusieurs espèces animales présentent une remarquable capacité d'adaptation et peuvent coloniser une large variété d'environnements comme

- le rat brun (Rattus norvegicus) rongeur cosmopolite qui se rencontre dans presque tous les continents et habitats, des villes aux déserts en passant par les forêts. Son succès repose sur sa grande intelligence, sa capacité à s'adapter à différents régimes alimentaires et sa reproduction rapide.

- Le faucon pèlerin (Falco peregrinus),  rapace e plus rapide du monde qu'on trouve sur tous les continents sauf l'Antarctique. Sa rapidité et sa vue perçante lui permettent de capturer des proies dans des environnements très différents.

- La mouette rieuse (Larus ridibundus), oiseau marin qui est présent sur toutes les côtes du monde et qui s'adapte facilement aux milieux artificiels comme les ports et les décharges publiques. Son opportunisme alimentaire lui permet de se nourrir de déchets et d'autres sources de nourriture facilement accessibles.

- L'ours brun, dans l'hémisphère nord...

Ces exemples illustrent la capacité remarquable de certaines espèces animales à s'adapter à des environnements très différents. Cependant, il est important de noter que aucune d'entre elles n'a le même niveau de succès d'adaptation que les humains, qui ont réussi à coloniser et à modifier presque tous les biotopes de la planète.

(FLP) Pas même les fourmis, d'autres petits animaux ou certains insectes ?

(Gemini) Il est vrai que certaines petites espèces animales, comme les fourmis, les cafards et certains insectes, présentent une grande capacité d'adaptation et peuvent coloniser une large variété d'environnements.

- Les fourmis, par exemple, sont présentes sur presque tous les continents et dans de nombreux habitats, des forêts tropicales aux déserts en passant par les villes. Elles ont développé des structures sociales complexes, des techniques de communication sophistiquées et la capacité à exploiter une grande variété de ressources alimentaires. 

- Les cafards sont également connus pour leur résilience et leur capacité à s'adapter à des environnements difficiles. Ils peuvent survivre dans des conditions de manque de nourriture et d'eau et sont résistants à de nombreux pesticides.

- Certains insectes, comme les mouches et les moustiques, ont également une grande capacité d'adaptation et peuvent coloniser des environnements très variés. Ils sont souvent vecteurs de maladies et peuvent poser des problèmes de santé publique.

Cependant même ces petites espèces n'ont pas le même niveau de succès d'adaptation que les humains.

(FLP) - Et le tardigrade ?

(GEMINI) Effectivement, le tardigrade, aussi appelé ours d'eau, est un animal microscopique connu pour sa résistance extrême aux conditions extrêmes. Il peut survivre à des températures allant de -459 degrés Celsius à 151 degrés Celsius, à des radiations intenses, à des pressions immenses et même au vide spatial.

On trouve cet extrémophile, (organisme capable de vivre dans des environnements que la plupart des autres espèces ne pourraient pas supporter) se trouve dans presque tous les milieux aquatiques et terrestres, y compris dans les sources chaudes, les glaciers et les mousses.

Cependant, il est important de noter que le tardigrade n'a pas le même niveau de succès d'adaptation que les humains car il ne sont pas capables, contrairement aux humains,  de coloniser et de modifier tous les biotopes de la planète. Ils sont limités à des environnements extrêmes où peu d'autres espèces peuvent survivre.Car les tardigrades n'ont pas les mêmes capacités cognitives que sapiens. Ils ne sont pas capables de résoudre des problèmes complexes, d'apprendre de nouvelles choses ou de développer des technologies.

(FLP) - Au niveau bactériel il y a ou il y a eu une complète diffusion sur terre, non ?

(Gemini)  Oui, c'est exact. Les bactéries sont les organismes les plus répandus sur Terre. On les trouve dans presque tous les environnements, des sources chaudes aux glaciers, en passant par le corps humain. Leur capacité d'adaptation exceptionnelle leur a permis de coloniser l'ensemble de la planète.

(FLP ) - Et les humains, on peut dire la même chose ?

(Gemini) - Non, pas du tout. Les humains sont certes présents sur tous les continents, mais leur répartition est beaucoup plus inégale que celle des bactéries. Il existe des zones densément peuplées, comme les grandes villes d'Asie, et d'autres zones très peu peuplées, comme les régions polaires. De plus, les humains ont un impact important sur leur environnement, ce qui peut limiter leur diffusion dans certains endroits.

(FLP) - Donc, on ne peut pas vraiment parler d'une diffusion complète des humains sur Terre ?

(Gemini) - Non, en effet. L'utilisation du terme "diffusion" n'est pas tout à fait appropriée dans le cas des humains. Il serait plus juste de parler de dispersion ou de colonisation. Les humains se sont dispersés à travers le monde au cours de l'histoire, mais leur répartition n'est pas homogène et ils continuent de modifier leur environnement de manière significative.

(FLP) - Donc, il y a une grande différence entre la diffusion des bactéries et celle des humains ?

Gemini - oui, les bactéries sont des organismes microscopiques qui se dispersent naturellement par le vent, l'eau et les animaux. Les humains, en revanche, sont des organismes beaucoup plus complexes qui ont développé des technologies et des modes de vie qui leur permettent de contrôler leur dispersion et de modifier leur environnement.



 

Auteur: Google Bard chatbot

Info: 19 mai 2024

[ ubiquité humaine ] [ homme-animal ] [ dialogue homme-machine ] [ évolution du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

bon sens

L'utilisation d'armes biologiques était déjà interdite par le protocole de Genève de 1925, un traité international que les États-Unis n'avaient jamais ratifié. C'est alors que Matthew Meselson rédigea un document intitulé "Les États-Unis et le protocole de Genève", dans lequel il expliquait pourquoi ils devaient le faire. Meselson connaissait Henry Kissinger, qui a transmis son document au président Nixon et, à la fin de 1969, ce dernier renonçait aux armes biologiques.

Vint ensuite la question des toxines - poisons dérivés d'organismes vivants. Certains conseillers de Nixon estimaient que les États-Unis devaient renoncer à l'utilisation de toxines d'origine naturelle, mais conserver le droit d'utiliser des versions artificielles des mêmes substances. C'est un autre document de Meselson, "What Policy for Toxins", qui conduisit Nixon à rejeter cette distinction arbitraire et à renoncer à l'utilisation de toutes les armes à toxines.

Sur les conseils de Meselson, Nixon soumis à nouveau le protocole de Genève à l'approbation du Sénat. Mais il alla également allé au-delà des termes du protocole - qui interdit uniquement l'utilisation d'armes biologiques - pour renoncer à la recherche biologique offensive elle-même. Les stocks de substances biologiques offensives, comme l'anthrax que Meselson avait découvert à Fort Detrick, furent détruits.

Une fois que les États-Unis eurent adopté cette politique plus stricte, Meselson se tourna vers la scène mondiale. Lui et ses pairs voulaient un accord international plus fort que le protocole de Genève, un accord qui interdirait le stockage et la recherche offensive en plus de l'utilisation et prévoirait un système de vérification. Leurs efforts aboutirent à la Convention sur les armes biologiques, signée en 1972 et toujours en vigueur aujourd'hui.

"Grâce en grande partie au travail inlassable du professeur Matthew Meselson, le monde s'est réuni et a interdit les armes biologiques, garantissant ainsi que la science toujours plus puissante de la biologie aide l'humanité au lieu de lui nuire. Pour cela, il mérite la profonde gratitude de l'humanité", déclara l'ancien secrétaire général des Nations unies, Ban Ki-Moon.

M. Meselson déclara que la guerre biologique "pourrait effacer la distinction entre la guerre et la paix". Les autres formes de guerre ont un début et une fin - on sait clairement ce qui relève de la guerre et ce qui n'en relève pas. Une guerre biologique serait différente : "On ne sait pas ce qui se passe, ou alors on sait ce qui se passe mais ça se passe sans cesse."

Et les conséquences de la guerre biologique pourraient même être plus importantes que la destruction de masse ; les attaques via l'ADN pourraient modifier fondamentalement l'humanité. La FLI rend hommage à Matthew Meselson pour ses efforts visant à protéger non seulement la vie humaine mais aussi la définition même de l'humanité.

Selon l'astronome Lord Martin Rees, "Matt Meselson est un grand scientifique - et l'un des rares à s'être profondément engagé pour que le monde soit à l'abri des menaces biologiques. Il s'agit là d'un défi aussi important que le contrôle des armes nucléaires - et bien plus difficile à relever. Ses efforts soutenus et dévoués méritent pleinement une plus large reconnaissance."

Le 9 avril 2022, le Dr Matthew Meselson a reçu le prix Future of Life, d'une valeur de 50 000 dollars, lors d'une cérémonie organisée dans le cadre de la conférence sur les affaires mondiales de l'université de Boulder. Le Dr Meselson a été l'une des forces motrices de la Convention sur les armes biologiques de 1972, une interdiction internationale qui a empêché l'une des formes de guerre les plus inhumaines que connaisse l'humanité. Le 9 avril a marqué la veille du 47e anniversaire de la convention.

La longue carrière de M. Meselson est jalonnée de moments forts : la confirmation de l'hypothèse de Watson et Crick sur la structure de l'ADN, la résolution du mystère de l'anthrax de Sverdlovsk, l'arrêt de l'utilisation de l'agent orange au Viêt Nam. Mais c'est surtout son travail sur les armes biologiques qui fait de lui un héros international.

"Par son travail aux États-Unis et au niveau international, Matt Meselson a été l'un des principaux précurseurs de la convention sur les armes biologiques de 1972", a déclaré Daniel Feakes, chef de l'unité de soutien à la mise en œuvre de la convention sur les armes biologiques. "Le traité interdit les armes biologiques et compte aujourd'hui 182 États membres. Depuis lors, il n'a cessé d'être le gardien de la BWC. L'avertissement qu'il a lancé en 2000 sur le potentiel d'exploitation hostile de la biologie a préfiguré bon nombre des avancées technologiques dont nous sommes aujourd'hui témoins dans les sciences de la vie et les réponses qui ont été adoptées depuis."

M. Meselson a commencé à s'intéresser aux armes biologiques dans les années 60, alors qu'il travaillait pour l'Agence américaine de contrôle des armements et du désarmement. C'est lors d'une visite de Fort Detrick, où les États-Unis fabriquaient alors de l'anthrax, qu'il a appris ce qu'il en éltait du développement des armes biologiques : elles étaient moins chères que les armes nucléaires. M. Meselson fut frappé, dit-il, par l'illogisme de ce raisonnement : diminuer le coût de production des ADM serait un risque évident pour la sécurité nationale.

"Aujourd'hui, la biotechnologie est une force du bien dans le monde, associée au fait de sauver plutôt que de prendre des vies, parce que Matthew Meselson a contribué à tracer une ligne rouge claire entre les utilisations acceptables et inacceptables de la biologie", ajoute Max Tegmark, professeur au MIT et président de la FLI. "C'est une source d'inspiration pour ceux qui veulent tracer une ligne rouge similaire entre les utilisations acceptables et inacceptables de l'intelligence artificielle et interdire les armes autonomes létales".

Auteur: Internet

Info: https://futureoflife.org/2019/04/09

[ sagesse ] [ responsabilité scientifique ] [ savants responsables ] [ gratitude ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Sciences-Po vient d’interdire l’usage de ChatGPT, l’application qui permet à tous les empêchés de la plume ou du clavier de produire en un temps record des textes bourrés d’idées reçues — de crainte sans doute, que l’on ne distingue pas les produits de l’Intelligence Artificielle et ceux de nos futurs énarques.

David Cayla, un économiste qui ne dit pas que des âneries, s’est fendu d’un tweet ravageur dès qu’il a appris que Sciences-Po avait décidé d’interdire à ses élèves l’usage de ChatGPT. "La stricte interdiction de #ChatGPT à Sciences Po révèle que cette école se sent menacée par une IA qui est capable de construire de belles phrases à partir de tout sujet, sans comprendre de quoi elle parle, et en faisant régulièrement des erreurs grossières." Et toc.

Rappel des faits pour ceux qui sortent à peine de leur grotte d’hibernation. Chloé Woitier, journaliste Tech au Figaro, vous explique en direct live ce qu’est cette application : la capacité à générer du texte — sans grand souci d’originalité et avec une capacité réelle d’erreurs grandioses — à partir de cohortes de mots et de phrases mis en mémoire. En fait, il s’agit de ce que l’on appelle en rhétorique un texte-centon, fabriqué à partir de collages de citations. Vous en avez un joli exemple ici.

Une chance pour les tire-au-flanc

Rien de nouveau — si ce n’est la capacité à produire un résultat de façon quasi instantanée. Voilà qui nous arrange bien, se disent déjà les élèves peu besogneux qui s’aperçoivent à 7 heures du matin qu’ils ont une dissertation-maison à rendre à 10 heures. En gros, le résultat vaut une petite moyenne.

Laurence Plazanet, professeur de littérature à l’université de Clermont-Auvergne, note que "nourri de la vaste littérature disponible sur la toile, littérature qu’il remâche suivant des algorithmes statistiques et probabilistes aptes à se reprogrammer eux-mêmes, dit-on, selon des procédures que cessent de maîtriser leurs programmeurs initiaux, ChatGPT patauge dans le prêt-à-penser." Et d’ajouter : "Pas un instant ce robot éclairé ne pense."

Intelligence artificielle, un oxymore

Comprenons bien que ces deux mots, "intelligence artificielle", sont ce que l’on appelle en stylistique un oxymore — une contradiction en soi. Comme "obscure clarté", "nuit blanche", "homme fidèle" ou "femme intelligente"…  

(C’étaient les exemples que je citais en cours pour expliquer l’oxymore. Protestations immédiates des uns et des autres, comme vous l’imaginez, mais du coup, par l’exemple provocateur, la notion s’ancrait dans les mémoires.)

Ce qu’il y a d’intelligent dans la machine y a été mis par des hommes. Lorsqu’un ordinateur vous bat aux échecs, c’est que vous êtes moins fort que la cohorte de grands maîtres qui l’ont programmé — ce qui est assez logique.

Que Sciences-Pipeau s’en émeuve est en revanche très inquiétant — et très drôle : les grandes intelligences qui nourriront les ministères et parviendront peut-être un jour au sommet (pensez, François Hollande, Ségolène Royal, Dominique de Villepin appartenaient à la même promo de l’ENA) se sentent menacées par un robot qui mécaniquement débite des platitudes. "Faut vous dire, Monsieur, que chez ces gens-là, on n’pense pas, Monsieur, on n’pense pas", chantait Brel. La machine à débiter des lieux communs, dont Flaubert s’est si ardemment moqué dans le discours du sous-préfet (c’est dans Madame Bovary) vous est désormais accessible.

Des inquiétudes injustifiées

ChatGPT n’est pas capable de rédiger une dissertation crédible. Un enseignant un peu rodé repère immédiatement les copiés-collés que les étudiants pressés vont cueillir sur le Net (c’est simple, il n’y a soudain plus de fautes d’orthographe), et ne met pas cinq secondes pour en identifier la source.  

Il est encore moins capable de rédiger une thèse — le plus simple étant d’aller copier une thèse déjà écrite : en 2013 déjà une ministre allemande a été déchue de son doctorat (rendu 33 ans auparavant) parce qu’il avait été pompé sur un travail antérieur. Deux ans auparavant c’était le ministre de la Défense, Karl-Theodor zu Guttenberg, qui s’était vu dénoncé pour un plagiat similaire dans sa thèse de Droit. 

Et ChatGPT ne saurait pas non plus écrire un roman original. Ne vous avisez pas de le lui demander : au pire, il vous arrivera ce qui est arrivé jadis à Thierry Ardisson, dont le nègre indélicat est allé chercher un récit des années 1930 pour Pondichéry, un roman publié en 1994. Et les héritiers de l’auteur véritable ont porté plainte. Ardisson m’avait confié dans les coulisses d’une émission qu’il avait été "con" de ne pas vérifier. Mais en 1994 c’était moins facile qu’aujourd’hui, où tout se sait à la vitesse de la Toile.

La rumeur de la rue Saint-Guillaume

Que la rumeur d’un robot doué d’une vraie intelligence ait si vite enthousiasmé les commentateurs et effrayé les enseignants témoigne de notre candeur et de notre incapacité à comprendre ce qui fait l’originalité d’un travail. Ou, plus inquiétant, de notre aspiration à la paresse.

Rassurons-nous : HAL 9000 (ou Carl 500, dans la version française, pour Cerveau analytique de Recherche et de Liaison), l’ordinateur rebelle de 2001 l’Odyssée de l’espace, n’est pas pour demain.

Une preuve ? J’ai demandé à ChapGPT de répondre à cette question simple : l’IA va-t-elle remplacer l’intelligence humaine ? Et le robot m’a répondu : 

"Non, l’IA ne remplacera pas complètement l’intelligence humaine. L’IA est un outil qui peut être utilisé pour augmenter les capacités humaines et faciliter certaines tâches, mais elle ne peut pas remplacer la conscience, la créativité et l’empathie qui sont uniques à l’intelligence humaine." Plus plat, tu meurs. On dirait de l’Annie Ernaux. 

Et le fait est que si vous supprimez de votre conversation "la conscience, la créativité et l’empathie", vous êtes bon pour être un parfait étudiant de Sciences-Po, un parfait énarque en devenir, et très probablement un excellent président de la République. 

Auteur: Brighelli Jean-Paul

Info: https://www.causeur.fr, 31 janv 2023. ChatGPT, la Grande Peur de Sciences-Pipeau

[ vacheries ] [ bêtise inconstitutionnelle ] [ élites formatées ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel