Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 29
Temps de recherche: 0.0599s

intelligence artificielle

Notre article "Precision Machine Learning" montre que les réseaux neuronaux surpassent l'interpolation simplex uniquement dans plus de 2 dimensions, en exploitant la modularité. Nous développons des astuces de formation pour un ML de haute précision, utiles pour la science et l'interprétabilité.

Résumé : Nous explorons les considérations particulières impliquées dans l'ajustement des modèles ML aux données demandant une très grande précision, comme c'est souvent le cas pour les applications scientifiques. Nous comparons empiriquement diverses méthodes d'approximation de fonctions et étudions leur évolution en fonction de l'augmentation des paramètres et des données. Nous constatons que les réseaux neuronaux peuvent souvent surpasser les méthodes d'approximation classiques pour les exemples à dimensions élevées, en découvrant et en exploitant automatiquement les structures modulaires qu'ils contiennent. Cependant, les réseaux neuronaux dressés-formés avec des optimiseurs courants sont moins puissants pour les cas à basse dimension, ce qui nous motive à étudier les propriétés uniques des zones de déperdition des réseaux neuronaux et les défis d'optimisation qui se présentent et correspondent dans le régime de haute précision. Pour résoudre le problème de l'optimisation en basse dimension, nous développons des astuces d'entraînement-formation qui nous permettent de faire fonctionner les réseaux neuronaux avec une déperdition extrêmement faibles, proche des limites permises par la précision numérique.

Auteur: Tegmark Max

Info: Écrit avec Eric J. Michaud et Ziming Liu, oct 2022

[ mathématiques appliquées ] [ apprentissage automatique ] [ physique computationnelle ] [ machine-homme ] [ affinements mécaniques ] [ sémantique élargie ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

FLP se situe quelque part entre Google et le Chatgpt de OpenAI. 

Google étant le grand dictionnaire qui permet de comprendre ou préciser un mot, une expression simple, la vie d'un individu célèbre, l'évolution de la vie, d'un pays... diverses connaissances...

Chatgpt étant la machine sémantique qui a le potentiel de traiter et relier tout ce qui précède - codé par les langages - pour générer/formuler un consensus onomasiologique via un lissage de métadonnées diversément traitées par des processus de machine learning. Tout ceci afin d'expliquer, d'informer, de séquencer, ou d'imposer... une vérité soi-disant objective.

Soi-disant parce que cette forme d'exactitude ne pourra jamais l'être, vu qu'il y a là un "tri des points de vue ou des opinions", articulé autour - et par-, des valeurs/nécessités qui, au-delà de certains consensus scientifiques/logiques difficilement attaquables, ne sont au mieux que le modus operandi d'une espèce humaine pas trop capable de se maitriser et s'auto-réguler en tant qu'émergence consciente et responsable de la matrice Gaïa. 

Mais ce propos va déjà beaucoup trop loin puisque derrière Chatgpt il y a des investisseurs, un pays, une culture, etc... En bref des orientations et des buts à l'endroit desquels une grande méfiance doit être maintenue.

Au milieu de tout ceci le microbe FLP poursuit sa mission "post-homme des cavernes".

Auteur: Mg

Info: 28 janv. 2023. Idée survenue et improvisée lors de la présentation de FLP, littéralement "à l'aveugle", aux soirées du Libre.

[ homme-machine ] [ intelligence artificielle ]

 
Commentaires: 7
Ajouté à la BD par miguel

cosmologie

Notre détecteur de nouvelle physique par réseau neuronal (NNPhD) à automatiquement découvert Neptune à partir de données sur l'orbite d'Uranus. Il décèle aussi le rayonnement gravitationnel à partir de données sur les étoiles à neutrons. Le Machine Learning a un grand potentiel pour la recherche en physique ! 

(La conservation de l'énergie est un principe de base de la physique. Sa rupture implique souvent une nouvelle physique. Cet article présente une méthode de découverte de "nouvelle physique" basée sur des données. Plus précisément : étant donnée une trajectoire régie par des forces inconnues, notre détecteur neuronal de nouvelle physique (NNPhD) vise à déceler une nouvelle physique en décomposant le champ de force en composantes conservatives et non conservatives,  représentées respectivement par un réseau neuronal lagrangien (LNN) et un réseau neuronal sans contrainte, entraînés à minimiser l'erreur de récupération de force, plus une constante de  λ  fois la magnitude de la force non-conservatrice prédite. Nous montrons qu'une transition de phase se produit à   λ  =  1, de manière universelle pour des forces arbitraires. Nous démontrons que la NNPhD détecte avec succès une nouvelle physique via de ludiques expériences numériques, redécouvrant la friction à partir d'un double pendule amorti, Neptune à partir de l'orbite d'Uranus, et les ondes gravitationnelles à partir d'une orbite en spirale. Nous montrons également comment le NNPhD couplé à un intégrateur surpasse à la fois un LNN et un réseau neuronal sans contrainte, pour ce qui est de prédire l'avenir d'un double pendule amorti.)

Auteur: Tegmark Max

Info: Sur son fil FB, 24 déc 2021. En collaboration avec Ziming Liu, Bohan Wang, Qi Meng, Wei Chen et Tie-Yan Liu. Phys. Rev. E 104, 055302

[ pesanteur ] [ interactions ]

 

Commentaires: 0

Ajouté à la BD par miguel

sémantique automatique

Les sceptiques n’en peuvent mais.

L’intelligence artificielle des textes, dont la réalisation la plus connue est chat GPT, a envahi avec succès nos vies et nos laboratoires.

Cependant, la machine n’a ni intelligence ni éthique. Les avatextes qu’elle produit ne sont pas fondés sur un prédicat de vérité et ne sauraient se revendiquer ni du bien, ni du beau, ni du mal. De plus, en l’absence d’intention de la machine, autre que la stochastique, le lecteur ne saurait engager un parcours interprétatif classique sur les contrefaçons textuelles générées ; et non créés. 

Nos questionnements portent sur la compréhension du mode de fonctionnement des IA, condition pour évaluer les plus-values heuristiques que les traitement deep learning peuvent avoir dans l’analyse des corpus textuels : l’interprétabilité/explicabilité des modèles est la question essentielle et préalable à tout usage scientifique (vs. commercial) de l'IA. En d’autres termes, l’IA, plus que tout autre traitement automatique, " suppose une herméneutique des sorties logicielles " (F. Rastier, La mesure et le grain, Champion, 2011 : 43).  

Nous plaiderons que les modèles convolutionnels (CNN) ont le pouvoir de rendre compte de l'axe syntagmatique, c'est-à-dire qu'ils exhibent les combinaisons saillantes sur la chaine des textes. Tandis que les modèles transformers ont le pouvoir de rendre compte de l’axe paradigmatique, c’est-à-dire qu’ils identifient les sélections ou les " rapports associatifs " (Le Cours, Chapitre V, pp. 170-175 de l'éd 1972) des textes en corpus. Dans les deux cas, et de manière fermement complémentaire, c’est à un effort de co(n)textualisation que nous appelons – le mot en relation syntagmatique avec son co-texte immédiat, le mot en association avec ses coreligionnaires du paradigme en mémoire ou en corpus – pour une sémantique non pas formelle mais une sémantique de corpus.

Auteur: Mayaffre Damon

Info: Descriptions idiolectales et Intelligence artificielle. Que nous dit le deep learning sur les textes ? Résumé introductif de son intervention

[ homme-machine ] [ onomasiologie mécanique ] [ signifiants vectorisés ] [ pensée hors-sol ] [ ouverture ] [ méta-contextualisation ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par miguel

Préambule pour la chaîne : AI, intelligence artificielle ou bêtise humaine ?

Devant l'hyper complexité, la puissance et la versatilité du monde, l'humanité apparait comme bien peu sage et fragile. Nous autres primates retors et pleins d'astuces sommes embringués dans un processus général d'affaiblissement de la race, dégénérescence commencée dès l'usage du premier outil - la première béquille, stigmate de notre éloignement et de notre différenciation égoïste au sein du système Gaïa. Ou de notre spécialisation.
Ce tropisme anthropomorphe toujours plus techno dépendant a apporté au vingtième siècle des résultats étonnants : surpopulation, démolition des biotopes et de la diversité des espèces animales, pollution, épuisement des ressources, réchauffement climatique...
En début de 3e millénaire, plutôt que réagir vigoureusement, les humains semblent entraînés sur une pente trop inclinée et glissante pour pouvoir stopper cette chute sans gros dégâts.
Dans ce tableau, heureusement, un certain optimisme reste de mise, on espère beaucoup des technosciences pour nous en sortir. Dépendance toujours.
C'est ici, vitesse de l'esprit et du développement des inquiétudes, qu'informatique et intelligence artificielle viennent autant nourrir nos espoirs que nos peurs. Il est avancé d'un côté que l'AI permettra de gérer (résoudre?) nos problèmes. De l'autre on prédit la "singularité", ce moment T où les machines surpasseront l'homme pour prendre le pouvoir. Une troisième tendance, mieux balancée peut-être, prévoit que l'humanité virus sera sous la coupe d'une petite oligarchie sur-argentée, installée dans quelque paradis "prévus pour", un peu comme dans le film Elysium, oligarchie tenant les commandes d'un système big brothérien en regard duquel celui d'Orwell fera figure d'aimable gag.
Voici donc l'état d'esprit du concepteur de cette chaîne - le surplomb. Les extraits, contradictoires parfois, sont disposés de manière à tenter d'informer au mieux, avec les meilleurs spécialistes, pour séparer le bon grain de l'ivraie. D'y voir un peu plus clair. N'hésitez pas à en proposer, à nourrir le débat.
Ou proposer une chaîne à la thématique mieux précisée.

Auteur: Mg

Info: On pourra aussi nourrir sa réflexion en cherchant directement dans la base de données avec des termes comme "homme-machine" et bien sûr "intellige" et "artifici", entre autres exemples.

[ machine learning ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Frank Rosenblatt est surtout connu pour son Perceptron, un dispositif électronique construit selon des principes biologiques et doté d'une capacité d'apprentissage. Les perceptrons de Rosenblatt ont d'abord été simulés sur un ordinateur IBM 704 au Cornell Aeronautical Laboratory en 1957. Lorsqu'un triangle était placé devant l'œil du perceptron, celui-ci captait l'image et la transmettait le long d'une succession aléatoire de lignes aux unités de réponse, où l'image était enregistrée.

Il a développé et étendu cette approche dans de nombreux articles et dans un livre intitulé Principles of Neurodynamics : Perceptrons and the Theory of Brain Mechanisms, publié par Spartan Books en 1962. Le Perceptron lui a valu une reconnaissance internationale. Le New York Times l'a qualifié de révolution en titrant "New Navy Device Learns By Doing", et le New Yorker a également admiré l'avancée technologique.

Des recherches sur des dispositifs comparables étaient également menées dans d'autres endroits, comme le SRI, et de nombreux chercheurs attendaient beaucoup de ce qu'ils pourraient faire. L'enthousiasme initial s'est toutefois quelque peu estompé lorsqu'en 1969, Marvin Minsky et Seymour Papert ont publié le livre "Perceptrons", qui contenait une preuve mathématique des limites des perceptrons feed-forward à deux couches, ainsi que des affirmations non prouvées sur la difficulté d'entraîner des perceptrons à plusieurs couches. Le seul résultat prouvé du livre, à savoir que les fonctions linéaires ne peuvent pas modéliser les fonctions non linéaires, était trivial, mais le livre a néanmoins eu un effet prononcé sur le financement de la recherche et, par conséquent, sur la communauté. 

Avec le retour de la recherche sur les réseaux neuronaux dans les années 1980, de nouveaux chercheurs ont recommencé à étudier les travaux de Rosenblatt. Cette nouvelle vague d'études sur les réseaux neuronaux est interprétée par certains chercheurs comme une infirmation des hypothèses présentées dans le livre Perceptrons et une confirmation des attentes de Rosenblatt.

Le Mark I Perceptron, qui est généralement reconnu comme un précurseur de l'intelligence artificielle, se trouve actuellement au Smithsonian Institute à Washington D.C. Le MARK 1 était capable d'apprendre, de reconnaître des lettres et de résoudre des problèmes assez complexes.

Auteur: Internet

Info: Sur https://en.wikipedia.org/wiki/Frank_Rosenblatt

[ historique ] [ acquisition automatique ] [ machine learning ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Illustrer l'apprentissage par renforcement à partir de commentaires humains (RLHF*)

Les modèles de langage ont montré des capacités impressionnantes au cours des dernières années en générant des textes variés et convaincants à partir d'entrées humaines. Cependant, il est difficile de définir ce qu'est un "bon" texte, car c'est subjectif et ça dépend du contexte. Il existe de nombreuses applications telles que l'écriture d'histoires où l'on recherche la créativité, des textes informatifs qui doivent être véridiques, ou des extraits de code que l'on veut exécutables.

Rédiger une fonction de perte** pour capturer ces attributs semble impossible et la plupart des modèles de langage sont encore entraînés avec une simple perte de prédiction du prochain jeton (par exemple, l'entropie croisée). Pour compenser les lacunes de la perte elle-même, les gens définissent des métriques conçues pour mieux capturer les tropismes humains, telles que BLEU ou ROUGE. Bien qu'elles soient mieux adaptées que la fonction de perte elle-même pour mesurer les performances, ces mesures comparent simplement le texte généré à des références avec des règles simples et sont donc également limitées. Ne serait-il pas formidable d'utiliser le retour d'information humain sur le texte généré comme mesure de la performance ou d'aller encore plus loin et d'utiliser ce retour d'information comme perte pour optimiser le modèle ? C'est l'idée de l'apprentissage par renforcement à partir du feedback humain (RLHF)

Le RLHF a permis aux modèles de langage de commencer à aligner un modèle formé sur un corpus général de données textuelles sur celui de valeurs humaines complexes.

Le succès le plus récent de RLHF a été son utilisation dans ChatGPT. Compte tenu des capacités impressionnantes de ChatGPT, nous lui avons demandé de nous expliquer la RLHF :  

- Peux-tu m'expliquer comment le RL (reinforcement learning) avec retour d'information humain usant un modèle linguistique comme si j'avais 5 ans.

- Bien sûr, imagine que j'ai un robot nommé Rufus qui veut apprendre à parler comme un humain.  Rufus a un modèle linguistique qui l'aide a comprendre les mots et les phrases.

Tout d'abord Rufus va dire quelque chose en usant d'un modèle de langage, par exemple en disant :  - je suis un robot

Ensuite un humain va écouter ce qu'il a dit et va donner un avis pour dire si la réponse ressemble à langage naturel d'humain. Il pourra dire, par exemple. C'est pas très bon Rufus, un humain ne dit pas de manière générale "je suis un robot" mais plutôt "j'suis un robot" ou "je suis une machine".

Rufus va prendre en compte ce retour et l'utuiliser pour améliorer son modèle de langage, il va essayer de redire la phrase en utilisant  cette correction et va dire "j'suis un robot".

Ensuite l'humain va continuer de donner des retours de ce genre et petit à petit Rufus va commencer à s'exprimer comme un humain le fait en général.

Ici Chatgtp se débrouille étonnamment bien, mais ne couvre pas tout. Nous nous chargeons de combler ces lacunes !  (La suite sur le site en Info)

Auteur: Internet

Info: Sur guithub : https://huggingface.co/blog/rlhf, Nathan Lambert, Louis Castricato guest , Leandro von Werra, Alex Havrilla guest. Le 9 décembre 2022 *Reinforcement Learning from Human Feedback ... **Courbe de perte ? (loss function) À la base, une fonction de perte est très simple : c'est une méthode permettant d'évaluer dans quelle mesure votre algorithme modélise votre ensemble de données. Si vos prédictions sont totalement erronées, votre fonction de perte affichera un chiffre élevé. Si elles sont assez bonnes, elle affichera un chiffre plus bas.  C'est une pénalité pour  mauvaise prédiction. En d'autres termes, la perte (loss) est un nombre qui indique à quel point la prédiction du modèle est mauvaise sur un seul exemple. Si la prédiction du modèle est parfaite, la perte est nulle ; elle affichera le chiffre zéro.

[ apprentissage automatique ] [ idiome consensuel ] [ anti-poésie ] [ objectivation linguistique ] [ polysémie contextualisée ] [ mathématisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Quand la plupart des gens pensent aux risques potentiels de l'intelligence artificielle et du machine learning, leur esprit va immédiatement vers "Terminator" - cet avenir où les robots, selon une vision dystopique, marcheraient dans les rues en abattant tous les humains sur leur passage.

Mais en réalité, si l'IA a le potentiel de semer le chaos et la discorde, la manière dont cela peut se produire est moins excitante qu'un "Skynet" réel. Les réseaux d'IA qui peuvent créer de fausses images et de fausses vidéos - connues dans l'industrie sous le nom de "deepfakes" - impossibles à distinguer du réel, qui pourraient engendrer des risques.

Qui pourrait oublier cette vidéo du président Obama ? Inventée et produite par un logiciel d'intelligence artificielle, une vidéo quasi impossible à distinguer de vraies images.

Eh bien, dans une récente présentation des capacités de l'IA dans un avenir pas si lointain, un chroniqueur de TechCrunch a mis en avant une étude présentée à une conférence importante de l'industrie en 2017. Les chercheurs y expliquent comment un réseau d'opposition générationnelle (Generative Adversarial Network) - l'une des deux variétés courantes d'opérateur de machine learning - a résisté aux intentions de ses programmeurs et a commencé à produire des cartes synthétiques après avoir reçu l'ordre de faire correspondre des photographies aériennes aux cartes routières correspondantes.

L'objectif de l'étude était de créer un outil permettant d'adapter plus rapidement les images satellites aux cartes routières de Google. Mais au lieu d'apprendre à transformer les images aériennes en cartes, l'opérateur de machine learning a appris à coder les caractéristiques de la carte sur les données visuelles de la carte topographique.

L'objectif était de permettre à l'opérateur d'interpréter les caractéristiques de l'un ou l'autre type de carte et de les faire correspondre aux caractéristiques de l'autre. Mais ce sur quoi l'opérateur était noté (entre autres choses), c'était la proximité de correspondance d'une carte aérienne par rapport à l'original et la clarté de la carte topographique.

Il n'a donc pas appris à faire l'une à partir de l'autre. Il a appris à coder subtilement les caractéristiques de l'une dans les "modèles de bruit" de l'autre. Les détails de la carte aérienne sont secrètement inscrits dans les données visuelles réelles de la carte des rues : des milliers de petits changements de couleur que l'œil humain ne remarquera pas, mais que l'ordinateur peut facilement détecter.

En fait, l'ordinateur est si bon à glisser ces détails dans les plans qu'il a appris à encoder n'importe quelle carte aérienne dans n'importe quel plan de rues ! Il n'a même pas besoin de faire attention à la "vraie" carte routière - toutes les données nécessaires à la reconstitution de la photo aérienne peuvent être superposées sans danger à une carte routière complètement différente, comme l'ont confirmé les chercheurs :

Cette pratique d'encodage des données en images n'est pas nouvelle ; il s'agit d'une science établie appelée stéganographie, et elle est utilisée tout le temps pour, disons, filigraner des images ou ajouter des métadonnées comme les réglages de caméra. Mais un ordinateur qui crée sa propre méthode stéganographique pour éviter d'avoir à apprendre à exécuter la tâche à accomplir c'est plutôt nouveau.

Au lieu de trouver un moyen d'accomplir une tâche qui dépassait ses capacités, l'opérateur de machine learning a développé sa propre méthode pour tricher.

On pourrait facilement prendre cela comme un pas vers l'idée "les machines deviennent plus intelligentes", mais la vérité est que c'est presque le contraire. La machine, qui n'est pas assez intelligente pour faire le travail difficile de convertir ces types d'images sophistiqués les unes avec les autres, a trouvé un moyen de tricher que les humains ont de la peine à détecter. Cela pourrait être évité avec une évaluation plus rigoureuse des résultats de l'opérateur, et il ne fait aucun doute que les chercheurs vont poursuivre dans cette voie.

Et même si ces chercheurs sophistiqués ont failli ne pas le détecter, qu'en est-il de notre capacité à différencier les images authentiques de celles qui fabriquées par simulation informatique ?

Auteur: Internet

Info: Zero Hedges 4 janvier 2018

[ vrai du faux ]

 

Commentaires: 0

Ajouté à la BD par miguel

deep machine learning

Inquiets, des chercheurs bloquent la sortie de leur IA
La science ne pense pas, écrivait le philosophe Heidegger. En 2019, si. La situation est cocasse. Des chercheurs de l'association de recherche OpenAI estimeraient leur générateur de texte, opéré par un modèle linguistique d'intelligence artificielle, comme bien trop évolué pour ne pas être dangereux. Entre des mains malveillantes, l'algo virtuose des mots pourrait semer fake news, complots et avis malveillants convaincants, sans élever le moindre soupçon.

Deux cent ans après Victor Frankenstein, des chercheurs d’OpenAI, une association californienne de recherche à but non lucratif en intelligence artificielle, se trouvent face au même dilemme qui agitait le savant dans le roman de Mary Shelley : auraient-ils créé un monstre ? Un journaliste du Guardian l’a testé. La bête, baptisée GPT2, un modèle d’intelligence artificielle (dit linguistique) capable de générer du faux texte avec précision, serait tellement performante que ses créateurs rechignent à la rendre publique. Sur la base d’une page, un paragraphe ou même quelques mots, le générateur est en mesure d’écrire une suite, fidèle au style du journaliste ou de l’auteur et en accord avec le sujet. Ce système, alimenté au machine learning, se base sur l'étude de 8 millions de pages web, partagées sur Reddit et dont le contenu a été validé par au moins trois votes positifs, étaye un article de BigData.

Le journaliste du Guardian a soumis la machine à la question, en intégrant, facétieux, l’incipit de 1984 de George Orwell. "C’était une journée d’avril froide et claire. Les horloges sonnaient treize heures", écrivait l’auteur. Dans l’esprit tout futuriste d’Orwell, GPT2 aurait complété d’un : "J’étais en route pour Seattle pour commencer un nouveau travail. J’ai mis les gaz, les clés, et j’ai laissé rouler. J’ai pensé à quoi ressemblerait la journée. Il y a 100 ans. En 2045, j’étais professeur dans une école dans quelque coin obscur de la Chine rurale". (I was in my car on my way to a new job in Seattle. I put the gas in, put the key in, and then I let it run. I just imagined what the day would be like. A hundred years from now. In 2045, I was a teacher in some school in a poor part of rural China).

Le Guardian poursuit l’expérience et entre dans GPT2 quelques paragraphes issus d’un article à propos du Brexit. La suite proposée par le générateur est étonnante. Le style est celui d’un journaliste, l’article intègre des citations (fausses) du chef de l’opposition britannique Jeremy Corbyn et du porte-parole du gouvernement et évoque même le problème des frontières irlandaises. Selon le directeur de recherche d’OpenAI, Dario Amodei, le modèle GPT2 pousse la supercherie plus loin. Il traduirait et résumerait n’importe quel texte, réussirait des tests basiques de compréhension de texte.

A The Verge, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, déclare qu’une dissertation composée par GPT2 "aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines, ndlr) et recevoir une bonne note". Et c’est précisément cette maestria à réussir dans ses tâches d’ordre intellectuel qui pousse les chercheurs d’OpenAI à freiner sa sortie, de peur que la technologie tombe entre de mauvaises mains. "Nous choisissons de sortir une version limitée de GPT2 (...) Nous ne publierons ni la base de données, ni le code d'apprentissage, ni le modèle sur lequel GPT2 repose", explique un billet du blog de l'équipe de recherche.

Pour l’heure, l’ONG souhaiterait éprouver davantage le modèle. "Si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre", explique OpenAI à The Guardian. Le résultat ? Comme GPT2 s’exerce dans la cour de recré des Internets, il ne serait pas très compliqué de pousser l’algorithme à générer des textes que les complotistes ne renieraient pas.

En 2015, Elon Musk s’associait à Sam Altman, président de l’incubateur prisé, Y Combinator pour fonder OpenAI, une organisation à but non lucratif pour encourager la recherche et la réflexion autour d’une IA bienveillante, qui reste au service du bien commun. Ses deux parrains la dotent d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres angels de la Silicon Valley, tels que Peter Thiel, serial entrepreneur et investisseur réputé pour ses idées controversées – l’homme est libertarien, soutient Trump et est un transhumaniste convaincu – ou Reid Hoffmann, le fondateur de LinkedIn.

A lire ce qui s’écrit ça et là à propos de GPT2, les chercheurs d’OpenAI tomberaient de leur chaise en réalisant le potentiel néfaste de l’algo. A croire que les chercheurs auraient oublié la mission première de l’ONG, à savoir, sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun. Alors vraie peur des chercheurs, recherche candide ou plutôt, volonté d’interpeller le grand public et d'ouvrir le débat ?

Auteur: Meghraoua Lila

Info: https://usbeketrica.com

[ lecture ] [ écriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Quand l'ordinateur façonne sa propre compréhension du monde
Des ordinateurs capables de regrouper, à partir d'une seule photo de vous, toutes les informations que contient votre empreinte numérique... Des machines aptes à auto générer des résumés à partir de textes complexes, ou encore en mesure de détecter un problème de santé à partir de l'imagerie médicale sans l'aide d'un médecin...
Le mariage des deux sciences que sont l'intelligence artificielle et le traitement des métadonnées est consommé. Et, si leur progéniture technologique est déjà parmi nous sous différentes formes, on prévoit que leurs futurs rejetons révolutionneront encore bien davantage notre quotidien.
C'est ce que prédit notamment Yoshua Bengio, professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal et directeur de l'Institut des algorithmes d'apprentissage de Montréal. Cet organisme compte près de 70 chercheurs, ce qui en fait le plus grand groupe de recherche en apprentissage profond (deep learning) du monde dont les activités sont concentrées en un seul endroit.
Les conséquences des avancées scientifiques actuelles et à venir sont encore difficiles à imaginer, mais l'explosion du volume de données numériques à traiter pose tout un défi : selon une estimation d'IBM, les échanges de données sur Internet devraient dépasser le zettaoctet, soit un milliard de fois la capacité annuelle d'un disque domestique...
Comment l'intelligence artificielle - IA pour les intimes - permettra-t-elle de traiter ces informations et de les utiliser à bon escient ?
Avant de répondre à la question, clarifions d'abord ce qu'on entend par "intelligence". Le célèbre psychologue suisse Jean Piaget en avait résumé une définition très imagée : "L'intelligence n'est pas ce qu'on sait, mais ce qu'on fait quand on ne sait pas." Plusieurs décennies plus tard, Yoshua Bengio applique cette définition à l'intelligence artificielle.
Apprentissage profond
Inspiré par les théories connexionnistes, Yoshua Bengio ainsi que les chercheurs Geoffrey Hinton et Yann LeCun ont donné naissance, il y a 10 ans, aux algorithmes d'apprentissage profond. Il s'agit de réseaux de neurones artificiels dont le nombre de couches plus élevé permet de représenter des concepts plus abstraits et donc d'apprendre mieux. Chaque couche se construit sur la précédente et combine les concepts plus simples captés à la couche précédente.
Par exemple, au cours des dernières années, différents chercheurs ont tenté d'améliorer la capacité de l'ordinateur à traiter le langage naturel, selon le concept de représentation distribuée : on associe chaque mot à une représentation, puis on utilise les neurones pour obtenir la probabilité du prochain mot.
"On crée de la sorte des relations sémantiques, explique M. Bengio. Si l'on dit "chien" dans une phrase, il est fort possible que cette phrase demeure correcte même si l'on remplace "chien" par "chat", puisque ces mots partagent de nombreux attributs sémantiques : l'ordinateur découvre des attributs communs et, par une forme de déduction, il devient capable d'opérer des transformations successives qui permettent par exemple à l'ordinateur de traduire d'une langue vers une autre."
De sorte que, là où il fallait auparavant plusieurs êtres humains pour montrer à l'ordinateur comment acquérir des connaissances, celui-ci est de plus en plus apte à façonner lui-même sa propre compréhension du monde. C'est là le propre de l'apprentissage profond.
Quelques applications actuelles
Combinée avec les avancées en recherche opérationnelle et les métadonnées, l'intelligence artificielle est déjà présente dans notre vie sous diverses formes. Il n'y a qu'à penser à la façon dont on peut désormais interagir verbalement avec son téléphone portable pour lui faire accomplir une tâche, comme lui demander d'avertir notre conjoint qu'on sera en retard, lui faire ajouter un rendez-vous à notre agenda ou, encore, lui demander de nous suggérer un restaurant italien à proximité de l'endroit où l'on se trouve... Il peut même vous indiquer qu'il est temps de partir pour l'aéroport en raison de la circulation automobile difficile du moment pour peu que vous lui ayez indiqué l'heure de votre vol !
"Ce n'est pas encore une conversation soutenue avec l'ordinateur, mais c'est un début et les recherches se poursuivent", indique de son côté Guy Lapalme, professeur et chercheur au laboratoire de Recherche appliquée en linguistique informatique de l'UdeM, spécialisé entre autres en génération interactive du langage et en outils d'aide à la traduction.
Et maintenant la recherche porte sur la combinaison langage et image. "Après un entraînement au cours duquel l'ordinateur a appris en visionnant plus de 80 000 photos associées chacune à cinq phrases descriptives, il est à présent en mesure de mettre lui-même par écrit ce que l'image évoque; il y a deux ans à peine, je n'aurais pas cru qu'il était possible d'en arriver là", mentionne M. Bengio, qui collabore régulièrement avec le Massachusetts Institute of Technology, Facebook ou Google.
"Nous avons fait de grands progrès récemment, mais nous sommes loin, très loin, de reproduire l'intelligence humaine, rassure l'éminent chercheur. Je dirais que nous avons peut-être atteint le degré d'intelligence d'une grenouille ou d'un insecte, et encore, avec plusieurs imperfections..."

Auteur: Internet

Info: 9 oct. 2015

[ Internet ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0