Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.044s

futur

Il y a bien plus de travaux universitaires sur les habitudes de vie de la mouche de fumier que sur les risques existentiels quant à l'avenir de l'humanité.

Auteur: Bostrom Nick

Info:

[ insouciance ]

 
Commentaires: 1

parents-enfants

Peut-être l'amélioration germinale conduira à plus d'amour et d'attachement parentaux. Peut-être certains pères et mères trouveront plus facile d'aimer un enfant qui, grâce aux améliorations [génétiques], sera brillant, beau et en bonne santé.

Auteur: Bostrom Nick

Info: "A transhumanist perspective on human genetic enhancements"

[ évaluation marchande ] [ adéquation désir-réalité ] [ eugénisme ] [ produit satisfaisant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

humanité

Loin d'être une des espèces biologiques les plus intelligentes, nous ferions probablement mieux de nous considérer comme une des plus stupide espèces capables de démarrer une civilisation technologique - niche que nous occupons parce que nous y sommes arrivés les premiers, pas parce que nous sommes en quelque manière mieux adaptés.

Auteur: Bostrom Nick

Info: Superintelligence: Paths, Dangers, Strategies

[ civilisation ] [ humilité ]

 

Commentaires: 0

singes savants

On peut supposer que la lenteur, le caractère hésitant et vacillant quant aux progrès de l'humanité sur nombre de "problèmes éternels" de la philosophie sont dus à l'inadaptation du cortex humain au travail philosophique. De ce point de vue, nos plus célèbres penseurs sont comme des chiens marchant sur leurs pattes arrière - atteignant tout juste le niveau de performance requis pour s'engager dans ce genre d'activité.

Auteur: Bostrom Nick

Info: Superintelligence: Paths, Dangers, Strategies

[ humaine autocritique ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective

Au cours du siècle prochain, nous allons inventer des technologies radicalement nouvelles - l'intelligence des machines, peut-être les nanotechnologies, de grandes avancées en biologie synthétique et d'autres choses auxquelles nous n'avons même pas encore pensé. Et ces nouveaux pouvoirs ouvriront de merveilleuses opportunités, mais ils pourraient aussi entraîner certains risques. Or, nous n'avons pas toujours su gérer ces risques. Donc s'il y a de grands risques existentiels, je pense qu'ils viendront de nos propres activités et surtout de notre propre inventivité et créativité.

Auteur: Bostrom Nick

Info: Sur www.pbs.org

[ discernement communautaire ] [ humanité ] [ sagesse ] [ anticipation ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Définissons une machine ultra-intelligente comme un engin qui peut dépasser de loin toutes les activités intellectuelles de l'homme le plus intelligent. Comme la conception des machines est l'une de ses activités intellectuelles, une machine ultra-intelligente pourra concevoir des machines encore meilleures. Ce qui serait incontestablement une "explosion de l'intelligence", où l'homme et son intelligence seraient laissés loin derrière. Donc la première machine ultra-intelligente est la dernière invention que l'homme doit réaliser, à moins que la machine soit assez docile pour nous dire comment la garder elle-même sous contrôle.

Auteur: Bostrom Nick

Info: Superintelligence: Paths, Dangers, Strategies. Citation totalement piquée à John Irving Good

[ intelligence artificielle ] [ prospective ] [ singularité technologique ]

 

Commentaires: 0

immortalité

Téléchargement de la conscience dans la réalité virtuelle.

Si nous pouvions scanner la matière synaptique d’un cerveau humain et la simuler sur un ordinateur, il serait donc possible pour nous de migrer de notre enveloppe biologique vers un monde totalement digital […].

En s’assurant que nous ayons toujours des copies de remplacement, nous pourrions effectivement jouir d’une durée de vie illimitée. […]

[Qu’est-ce que le transhumanisme ?, Nick Bostrom] Etrange aspiration que de se vouloir à perpétuité l’esprit dans la machine, l’étincelle dans le circuit. Plus crédible que l’envol d’un pur esprit sans vecteur matériel, ce croupissement d’handicapé-moteur, verrouillé dans son réseau-prothèse, si vaste soit-il, ne peut séduire que par défaut. La désincarnation ou la mort. Des deux côtés, mystique et scientiste, même mépris du "corps-machine" et de la "dépouille de chair". Quoi ! … Pas la moindre coupe d’ambroisie ?... Pas le moindre aliment d’éternité ?...

L’autre vie des mythologies avait cette supériorité qu’on y restait soi-même à jamais pour jouir de toutes les joies d’une chair indestructible. Leurs dieux n’étaient jamais que des surhommes anthropomorphes, sur-naturels, et leur culte célébrait d’abord un surhumanisme. Notion inaccessible à des gens qui ne se conçoivent que comme l’activité électrique d’une grossière machine et ne visent qu’à transférer cette activité dans une merveilleuse circuiterie.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Aujourd'hui le nanomonde", pages 144-145

[ critique ] [ déshumanisation ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

prospective

Lorsque nous saurons comment rendre les machines vraiment intelligentes, c'est que nous aurons trouvé moyens de les aligner sur les objectifs et les intentions de l'homme afin de leur faire faire ce que nous voulons. Pour l'instant, on peut définir une fonction objective. Dans de nombreux cas, c'est assez facile. Si vous voulez entraîner un agent à jouer aux échecs, vous pouvez définir ce qu'est une bonne performance. Vous obtenez un 1 si vous gagnez une partie et un 0 si vous perdez une partie, et 1/2 point peut-être si vous faites un match nul. C'est donc un objectif que nous pouvons définir. Mais dans le monde réel, tout bien considéré, les humains se soucient de choses comme le bonheur, la justice, la beauté et le plaisir. Aucune de ces choses n'est très facile à définir en C++ ou en Python. Il faudrait donc trouver un moyen de faire en sorte que des agents potentiellement ultra-intelligents servent réellement d'extension de la volonté humaine, de manière à ce qu'ils réalisent quelles sont nos intentions pour être ensuite capables de les exécuter fidèlement. Il y a là un grand défi de recherche au plan technique et beaucoup de chercheurs s'y attellent actuellement. Et en supposant que nous puissions résoudre ce problème technique, nous pourrons alors nous offrir le luxe de nous confronter à des questions politiques plus larges. Par exemple, qui doit décider de l'utilisation de l'IA, à quelles fins sociales doit-elle être utilisée, à quoi doit ressembler le monde futur de la superintelligence ?

Auteur: Bostrom Nick

Info:

[ intelligence artificielle ] [ questions ] [ pouvoir ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

promoteurs transhumanistes

Anders Sandberg, Suédois implanté à l’université d’Oxford, est un collègue de Nick Bostrom au Future Humanity Institute. Vêtu de noir, médaillon d’argent au cou, raie sur le côté, voix et sourire onctueux, blagues polies : on dirait un pasteur luthérien. Sandberg s’intéresse à l’augmentation cognitive pour tous. Il présente des diagrammes de corrélation entre hausse du QI et hausse du PIB, entre niveau de QI et bonheur. On doit avoir le droit de s’améliorer si on veut – ou non, chacun fait ce qui lui plaît. Un ami s’est implanté des aimants au bout des doigts. Sandberg, lui, prend des drogues (du modafinil, destiné aux narcoleptiques) pour être plus performant du cerveau. Heureusement pour nous, il n’en a pas pris aujourd’hui, sinon son exposé aurait duré huit heures (rire poli).

L’autre vedette libertarienne est la designer Natasha Vita-More, présidente de Humanity +. Robe moulante, blouson de cuir sur les épaules, brushing et maquillage de star, sourire télévisuel – "Hi James ! Hi Anders !", salut de la main à la salle, une fesse sur un coin de la table. Vive la Silicon Valley. Bien que technolâtre, Vita-More ne touche pas l’ordinateur et dicte ses ordres au petit personnel. Sa leçon : en cas d’accident d’avion, il faut mettre son masque à oxygène avant d’aider les autres. C’est du bon sens, pas de l’égoïsme. La vie, c’est pareil. "Le transhumanisme, lancé dans la vague post-moderne des années 1990, n’est pas égoïste. C’est juste qu’il faut être en bonne santé pour s’occuper des autres." Vita-More s’intéresse donc à la possibilité de sauvegarder son cerveau (comme un "back up" informatique), et travaille pour cela sur la vitrification. Quand on lui demande son âge, elle répond : ma jambe gauche a 20 ans, mon nouveau sein a trois ans. Mais de près, on dirait une vieille gargouille qui voudrait rester jeune. Vita-More a été membre des "Verts" américains et regrette que la société ne soit pas prête pour le libertarisme. Elle est cyber-bouddhiste et remercie Apple pour la beauté de ses objets connectés. Est-ce mes circuits qui chauffent ? Son babillage sature mes capteurs.

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/Trois_jours_chez_les_transhumanistes-3.pdf

[ portraits ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel