Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 12
Temps de recherche: 0.0318s

science-fiction

BLVR : Pensez-vous que les approches émotionnelles et psychologiques peuvent être utilisées de la même manière ?

TC : Je les classerais dans une catégorie différente. La SF est connue pour le sentiment d'émerveillement qu'elle peut engendrer, et je pense que ce sentiment d'émerveillement est généré par des histoires de percées conceptuelles. Je ne sais pas si ce sentiment d'émerveillement est engendré par des histoires d'épiphanie personnelle (personal epiphany*).

BLVR : Dans le titre de l'histoire d'Exhalation, vous écrivez : "Grâce à la collaboration de vos imaginations, toute ma civilisation revit", ce qui pourrait être une description pertinente de la littérature elle-même. Cela m'a également rappelé le message de Jimmy Carter aux civilisations extraterrestres à bord du vaisseau spatial Voyager : "Nous essayons de survivre à notre époque pour pouvoir vivre dans la vôtre". Dans quelle mesure la relation entre l'écrivain et le lecteur est-elle, selon vous, fondée sur la collaboration ? Y a-t-il un lecteur que vous imaginez, ou même que vous avez réellement, et qui vous sert d'interlocuteur idéal ?

TC : Je ne sais pas si c'est une réponse directe à vos questions, mais elles me font penser qu'il y a de nombreuses années, en 2007, j'étais au Japon, et j'ai été interviewé lors d'une convention, et quelqu'un dans le public m'a demandé ce que j'avais lu récemment. J'ai mentionné un roman intitulé Blindsight de Peter Watts, et j'avais dit que je n'étais pas d'accord avec presque tout ce qu'il contenait, mais que je l'avais recommandé parce qu'il était engagé dans des idées ; il essayait de présenter un argument d'une manière que je trouvais vraiment intéressante. Ainsi, s'il peut être agréable d'avoir un lecteur qui adhère totalement à tout ce que je dis dans l'œuvre, il est plus important d'avoir des lecteurs qui s'intéressent aux arguments que j'essaie d'avancer, qui aiment réfléchir à des idées similaires, même s'ils ne sont pas nécessairement d'accord avec moi ou s'ils ne pensent pas que j'y suis parvenu.

Auteur: Chiang Ted

Info: https://www.thebeliever.net/an-interview-with-TC. *perception soudaine et intuitive de la réalité ou de la signification essentielle de quelque chose, généralement initiée par un événement ou une expérience simple, familière ou banale.

[ littérature ] [ écriture - lecture ] [ réflexivité ] [ dialogue ]

 

Commentaires: 0

Ajouté à la BD par miguel

deep machine learning

Inquiets, des chercheurs bloquent la sortie de leur IA
La science ne pense pas, écrivait le philosophe Heidegger. En 2019, si. La situation est cocasse. Des chercheurs de l'association de recherche OpenAI estimeraient leur générateur de texte, opéré par un modèle linguistique d'intelligence artificielle, comme bien trop évolué pour ne pas être dangereux. Entre des mains malveillantes, l'algo virtuose des mots pourrait semer fake news, complots et avis malveillants convaincants, sans élever le moindre soupçon.

Deux cent ans après Victor Frankenstein, des chercheurs d’OpenAI, une association californienne de recherche à but non lucratif en intelligence artificielle, se trouvent face au même dilemme qui agitait le savant dans le roman de Mary Shelley : auraient-ils créé un monstre ? Un journaliste du Guardian l’a testé. La bête, baptisée GPT2, un modèle d’intelligence artificielle (dit linguistique) capable de générer du faux texte avec précision, serait tellement performante que ses créateurs rechignent à la rendre publique. Sur la base d’une page, un paragraphe ou même quelques mots, le générateur est en mesure d’écrire une suite, fidèle au style du journaliste ou de l’auteur et en accord avec le sujet. Ce système, alimenté au machine learning, se base sur l'étude de 8 millions de pages web, partagées sur Reddit et dont le contenu a été validé par au moins trois votes positifs, étaye un article de BigData.

Le journaliste du Guardian a soumis la machine à la question, en intégrant, facétieux, l’incipit de 1984 de George Orwell. "C’était une journée d’avril froide et claire. Les horloges sonnaient treize heures", écrivait l’auteur. Dans l’esprit tout futuriste d’Orwell, GPT2 aurait complété d’un : "J’étais en route pour Seattle pour commencer un nouveau travail. J’ai mis les gaz, les clés, et j’ai laissé rouler. J’ai pensé à quoi ressemblerait la journée. Il y a 100 ans. En 2045, j’étais professeur dans une école dans quelque coin obscur de la Chine rurale". (I was in my car on my way to a new job in Seattle. I put the gas in, put the key in, and then I let it run. I just imagined what the day would be like. A hundred years from now. In 2045, I was a teacher in some school in a poor part of rural China).

Le Guardian poursuit l’expérience et entre dans GPT2 quelques paragraphes issus d’un article à propos du Brexit. La suite proposée par le générateur est étonnante. Le style est celui d’un journaliste, l’article intègre des citations (fausses) du chef de l’opposition britannique Jeremy Corbyn et du porte-parole du gouvernement et évoque même le problème des frontières irlandaises. Selon le directeur de recherche d’OpenAI, Dario Amodei, le modèle GPT2 pousse la supercherie plus loin. Il traduirait et résumerait n’importe quel texte, réussirait des tests basiques de compréhension de texte.

A The Verge, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, déclare qu’une dissertation composée par GPT2 "aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines, ndlr) et recevoir une bonne note". Et c’est précisément cette maestria à réussir dans ses tâches d’ordre intellectuel qui pousse les chercheurs d’OpenAI à freiner sa sortie, de peur que la technologie tombe entre de mauvaises mains. "Nous choisissons de sortir une version limitée de GPT2 (...) Nous ne publierons ni la base de données, ni le code d'apprentissage, ni le modèle sur lequel GPT2 repose", explique un billet du blog de l'équipe de recherche.

Pour l’heure, l’ONG souhaiterait éprouver davantage le modèle. "Si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre", explique OpenAI à The Guardian. Le résultat ? Comme GPT2 s’exerce dans la cour de recré des Internets, il ne serait pas très compliqué de pousser l’algorithme à générer des textes que les complotistes ne renieraient pas.

En 2015, Elon Musk s’associait à Sam Altman, président de l’incubateur prisé, Y Combinator pour fonder OpenAI, une organisation à but non lucratif pour encourager la recherche et la réflexion autour d’une IA bienveillante, qui reste au service du bien commun. Ses deux parrains la dotent d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres angels de la Silicon Valley, tels que Peter Thiel, serial entrepreneur et investisseur réputé pour ses idées controversées – l’homme est libertarien, soutient Trump et est un transhumaniste convaincu – ou Reid Hoffmann, le fondateur de LinkedIn.

A lire ce qui s’écrit ça et là à propos de GPT2, les chercheurs d’OpenAI tomberaient de leur chaise en réalisant le potentiel néfaste de l’algo. A croire que les chercheurs auraient oublié la mission première de l’ONG, à savoir, sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun. Alors vraie peur des chercheurs, recherche candide ou plutôt, volonté d’interpeller le grand public et d'ouvrir le débat ?

Auteur: Meghraoua Lila

Info: https://usbeketrica.com

[ lecture ] [ écriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel