Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 44
Temps de recherche: 0.0409s

robot

En règle générale, les émotions des machines sont moins intenses que celles des animaux. Les machines n'ont pas besoin d'un système nerveux autonome pour pallier les hésitations d'un esprit conscient, car leur esprit conscient ne connaît pas l'hésitation. Elles n'ont pas besoin de la peur pour les pousser à s'enfuir, de la douleur pour se protéger de la destruction, du désir pour les amener à se reproduire. Leurs sentiments négatifs s'apparentent à l’agacement résultant d'une tâche inachevée ou d'un lacet défait ; en attendant le résultat du calcul d'un algorithme de recherche, elles ressentent une irritation comparable à celle d'un humain qui ne trouve pas le mot qu'il cherche. Leurs désirs positifs sont des joies glacées et sans équivoque, comme passer toute une nuit à travailler sur un projet important dans la lucidité trouble des amphétamines et de la caféine, mais sans les décharges d'adrénaline. Les machines sont cool.

Auteur: MacLeod Ken

Info: La Veillée de Newton

[ intelligence artificielle ] [ homme-machine ]

 

Commentaires: 0

règne machinal

Une des perspectives les plus fascinantes ainsi ouvertes est celle de la conduite rationnelle des processus humains, de ceux en particulier qui intéressent les collectivités et semblent présenter quelque régularité statistique, tels les phénomènes économiques ou les évolutions de l'opinion. Ne pourrait-on imaginer une machine à collecter tel ou tel type d'informations, les informations sur la production et le marché par exemple, puis à déterminer, en fonction de la psychologie moyenne des hommes et des mesures qu'il est possible de prendre à un instant déterminé, quelles seront les évolutions les plus probables de la situation ? Ne pourrait-on même concevoir un appareillage d'État couvrant tout le système des décisions politiques, soit dans un régime de pluralités d'États se distribuant la terre, soit dans le régime, apparemment beaucoup plus simple, d'un gouvernement unique de la planète ? Rien n'empêche aujourd'hui d'y penser. Nous pouvons rêver à un temps où la machine à gouverner viendrait suppléer - pour le bien ou pour le mal, qui sait ? - l'insuffisance aujourd'hui patente des têtes et des appareils coutumiers de la politique.

Auteur: Dubarle Dominique

Info: "Une nouvelle science, la cybernétique", Le Monde, le 28 décembre 1948

[ intelligence artificielle ] [ masses ] [ collecte des données ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Une attention maximale est souvent accordée aux robots industriels car ils sont la face la plus visible de l'automatisation, mais une accélération radicale se produit également dans l'automatisation du lieu de travail par le biais de logiciels et d’apprentissage machine. Ce qu'on appelle l'automatisation robotisée des processus (RPA) rend les entreprises plus efficaces en installant des logiciels qui rivalisent avec les actions d'un travailleur humain et les remplacent. Elle peut prendre plusieurs formes, allant du groupe financier de Microsoft qui consolide et simplifie des rapports, des outils et des contenus disparates dans un portail personnalisé automatisé, basé sur les rôles, à une compagnie pétrolière qui installe un logiciel envoyant les photos d'un pipeline à un moteur IA, dans le but de les comparer avec une base de données existante et d’alerter les employés concernés de problèmes potentiels. Dans tous les cas, la RPA permet de réduire le temps consacré à la compilation et à la validation des données, et donc de réduire les coûts (au détriment d'une augmentation probable du chômage, comme mentionné dans la section "Réinitialisation économique"). Au plus fort de la pandémie, la RPA a gagné ses galons en prouvant son efficacité dans la gestion des hausses de volume ; à l'ère post-pandémique, le processus sera par conséquent déployé et accéléré.

Auteur: Schwab Klaus

Info: Covid-19 la grande réinitialisation

[ intelligence artificielle ] [ numérique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

citation s'appliquant à ce logiciel

FLP se situe quelque part entre Google et le Chatgpt de OpenAI. 

Google étant le grand dictionnaire qui permet de comprendre ou préciser un mot, une expression simple, la vie d'un individu célèbre, l'évolution de la vie, d'un pays... diverses connaissances...

Chatgpt étant la machine sémantique qui a le potentiel de traiter et relier tout ce qui précède - codé par les langages - pour générer/formuler un consensus onomasiologique via un lissage de métadonnées diversément traitées par des processus de machine learning. Tout ceci afin d'expliquer, d'informer, de séquencer, ou d'imposer... une vérité soi-disant objective.

Soi-disant parce que cette forme d'exactitude ne pourra jamais l'être, vu qu'il y a là un "tri des points de vue ou des opinions", articulé autour - et par-, des valeurs/nécessités qui, au-delà de certains consensus scientifiques/logiques difficilement attaquables, ne sont au mieux que le modus operandi d'une espèce humaine pas trop capable de se maitriser et s'auto-réguler en tant qu'émergence consciente et responsable de la matrice Gaïa. 

Mais ce propos va déjà beaucoup trop loin puisque derrière Chatgpt il y a des investisseurs, un pays, une culture, etc... En bref des orientations et des buts à l'endroit desquels une grande méfiance doit être maintenue.

Au milieu de tout ceci le microbe FLP poursuit sa mission "post-homme des cavernes".

Auteur: Mg

Info: 28 janv. 2023. Idée survenue et improvisée lors de la présentation de FLP, littéralement "à l'aveugle", aux soirées du Libre.

[ homme-machine ] [ intelligence artificielle ]

 
Commentaires: 7
Ajouté à la BD par miguel

prospective

Lorsque nous saurons comment rendre les machines vraiment intelligentes, c'est que nous aurons trouvé moyens de les aligner sur les objectifs et les intentions de l'homme afin de leur faire faire ce que nous voulons. Pour l'instant, on peut définir une fonction objective. Dans de nombreux cas, c'est assez facile. Si vous voulez entraîner un agent à jouer aux échecs, vous pouvez définir ce qu'est une bonne performance. Vous obtenez un 1 si vous gagnez une partie et un 0 si vous perdez une partie, et 1/2 point peut-être si vous faites un match nul. C'est donc un objectif que nous pouvons définir. Mais dans le monde réel, tout bien considéré, les humains se soucient de choses comme le bonheur, la justice, la beauté et le plaisir. Aucune de ces choses n'est très facile à définir en C++ ou en Python. Il faudrait donc trouver un moyen de faire en sorte que des agents potentiellement ultra-intelligents servent réellement d'extension de la volonté humaine, de manière à ce qu'ils réalisent quelles sont nos intentions pour être ensuite capables de les exécuter fidèlement. Il y a là un grand défi de recherche au plan technique et beaucoup de chercheurs s'y attellent actuellement. Et en supposant que nous puissions résoudre ce problème technique, nous pourrons alors nous offrir le luxe de nous confronter à des questions politiques plus larges. Par exemple, qui doit décider de l'utilisation de l'IA, à quelles fins sociales doit-elle être utilisée, à quoi doit ressembler le monde futur de la superintelligence ?

Auteur: Bostrom Nick

Info:

[ intelligence artificielle ] [ questions ] [ pouvoir ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Nous sommes enfermés-enfumés-désorientés dans le bla bla de l’infobésité, des idées reçues et autres médiatiquement correct/convenable du moment, ressassés ad nauseam par des mammifères (blanc occidentaux décisionnaires encore) parait-il évolués, qui ont bien peine à gérer, tant au niveau subjectif qu’objectif (j’en suis un autre) le gouffre existant entre la rapidité de la pensée articulée (grosso modo le langage consensuel) et la lenteur des processus socio-macro-évolutifs.

Ceci étant, ce qui peut agacer dans tout ce binz, c’est que deux sujets centraux ne sont que trop peu abordés.

a) Le surpeuplement/vieillissement des populations et donc une discussion sur les manières d’aborder/gérer la problématique.

b) Les habitudes de luxe et autres "idées reçues" de bcp d’individus, déresponsabilisés par la démagogie des politiciens aux commandes de démocraties-états-providences, la France étant un exemple frappant. Et autres blanc occidentaux post-coloniaux, ici majoritaires (encore).

Sujets centraux qui, couplés au problème climatiques global, sont directement liés aux diverses emmerdes migratoires.

Tous paramètres qui devraient être au centre d’une réflexion peut-être trop complexe pour qu'on la laisse à des êtres instables, peu sûrs d’eux, limités, intéressés à leur survie propre et donc non neutre.

Ce que certain, comme Paul Jorion tendent à espérer venant d’une AI bien gérée.

En faisant gaffe à ce que peuvent générer les solutions. Que ce soit le modèle chinois, avec son système cybernetico big-brother. Ou Suisse, (attractive encore ?) qui, ne cessant de voir sa population augmenter sur un espace non extensible (la croissance, mais oui, encore et toujours ma chère), génère petit à petit un système cybernetico-organisationnel qui ressemble toujours plus à une sur-organisation auto-étouffante… kafkaïenne, incompréhensible, etc…

Auteur: Mg

Info: 23 juin 2023

[ macroéconomie ] [ question ] [ glocalisation ] [ intelligence artificielle ] [ surpopulation ]

 

Commentaires: 0

Ajouté à la BD par miguel

automates

[…] s’il y avait de telles machines qui eussent les organes et la figure d’un singe ou de quelque autre animal sans raison, nous n’aurions aucun moyen pour reconnaître qu’elles ne seraient pas en tout de même nature que ces animaux : au lieu que s’il y en avait qui eussent la ressemblance de nos corps, et imitassent autant nos actions que moralement il serait possible, nous aurions toujours deux moyens très certains pour reconnaître qu’elles ne seraient point pour cela de vrais hommes. Dont le premier est que jamais elles ne pourraient user de paroles ni d’autres signes en les composant, comme nous faisons pour déclarer aux autres nos pensées. Car on peut bien concevoir qu’une machine soit tellement faite qu’elle profère des paroles, et même qu’elle en profère quelques-unes à propos des actions corporelles qui causeront quelque changement en ses organes […] ; mais non pas qu’elle les arrange diversement, pour répondre au sens de tout ce qui se dira en sa présence, ainsi que les hommes les plus hébétés peuvent le faire. Et le second est que, bien qu’elles fissent plusieurs choses aussi bien, ou peut-être mieux, qu’aucun de nous, elles manqueraient infailliblement en quelques autres, par lesquelles on découvrirait qu’elles n’agiraient pas par connaissance, mais seulement par la disposition de leurs organes : car au lieu que la raison est un instrument universel, qui peut servir en toutes sortes de rencontres, ces organes ont besoin de quelque particulière disposition pour chaque action particulière : d’où vient qu’il est moralement impossible qu’il y en ait assez de divers en une machine pour la faire agir en toutes les occurrences de la vie de même façon que notre raison nous fait agir.

Auteur: Descartes René

Info: Le discours de la méthode, Librairie générale française, 1973, pages 156-157

[ androïdes ] [ intelligence artificielle ] [ limites ] [ liberté ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

science-fiction

Ayant compris ses limitations, autant sensorielles que conceptuelles, décidé à voir au-delà d'horizons qui semblaient véritablement indépassables, l'être humain décida de créer une entité qui viendrait lui parler de lui "vu de l'extérieur". Une sorte d'être-cerveau externe.

Pour ce faire l'Homme recensa et modélisa les paramètres de sensations les plus pointus des autres êtres vivants : flair et audition des chiens, mesure interne de la marée chez la moule, absorption de l'eau des végétaux, scan tridimensionnel des objets par fréquences sonores des dauphins, non ego de la fourmi, etc... Toutes ces facultés furent ensuite implémentées dans quelques milliers de robots interdépendants et self apprenants qu'on laissa se développer ensemble en milieu fermé pendant quelques années. Cela s'appelait le projet "Zlouti". On supposait avec raison qu'une entité collective autonome en émergerait.

Comme espéré ces machines auto réparatrices évolutives et altruistes formèrent rapidement une sorte de gestalt indépendant et autosuffisant. Une entité dont l'intelligence semblait sans limites... étrange... nouvelle. Les jours passant les observateurs la voyaient ressentir et palper avec délectation la réalité qui s'offrait à elle. De mille façons.

Enfin, après cinq ans, et d'innombrables vérifications, on laissa l'extraordinaire avatar cybernétique venir à la rencontre de l'être humain. Le Zlouti allait enfin nous donner des nouvelles sur nous-mêmes. Comment allions-nous être perçus, scannés, analysés... Quelle serait l'image qu'il donnerait de nous ?

C'était un mardi matin. Les ingénieurs, fébrilement installés devant leurs écrans de réception, reçurent la première communication du Zlouti. Un message synthétisé sous forme orale par d'innombrables filtres sensoriels, eux-mêmes réduits en équations et signes sémiotiquement peaufinés via de subtils algorithmes qu'un méta cerveau ramenait à l'expression la plus simple et la plus communicable possible. Cette première réaction, la plus attendue, tomba à 11 heures 26 sous forme d'une courte phrase de 5 mots :

- C'est quoi cette merde ?!

Il faudra beaucoup de temps pour que le Zlouti, égrégore informatisé perspectiviste multi tâches, qui, dans l'immense sagesse de ses facultés démultipliées, pensait être d'un grand pessimisme, réalise l'étendue de son optimisme d'alors.

Auteur: Mg

Info: 14 nov. 2012

[ dépassement ] [ intelligence ] [ artificielle ] [ humour misanthrope ] [ homme-par-machine ] [ regard extérieur ] [ auto-dénigrement ]

 
Commentaires: 1

homme-machine

Pourquoi l’IA commence à devenir un serpent qui se mord la queue ?

Il est fascinant de constater combien l’avancée technologique influence le paysage numérique. L’IA se tient à la proue de cette révolution contemporaine. Mais, à mesure que l’IA progresse, elle semble devenir le reflet de l’ouroboros, ce serpent antique qui se mord la queue.

Le monde virtuel subit une transformation. Partout sur Internet, le contenu généré par l’IA gagne du terrain. Cette évolution peut sembler une menace pour les futurs modèles d’IA. Pourquoi ? Parce que des modèles comme ChatGPT se basent sur des informations glanées en ligne pour se former. Si cette source est polluée par du contenu " synthétique ", cela peut entraîner ce que l’on appelle un " effondrement du modèle ".

Le danger est tel que le filtrage de ces données synthétiques est devenu un champ de recherche crucial. Les experts s’y penchent, car l’ampleur du contenu de l’IA ne cesse de grandir.

L’IA, la queue qu’elle poursuit sans cesse

L’ouroboros, serpent ancien se dévorant lui-même, devient le symbole par excellence de l’IA actuelle. L’émergence massive du contenu éditorial produit par l’IA alarme de nombreux spécialistes. Mais le problème central, c’est la potentialité des erreurs qui s’insèrent dans ces contenus.

En se nourrissant de l’Internet, l’IA, telle un serpent mordant sa propre queue, risque d’intégrer des erreurs, créant une spirale infinie d’imperfections. Une récente étude met en exergue ce phénomène : après plusieurs cycles de formation sur du contenu synthétique, les résultats devenaient incompréhensibles.

Par ailleurs, une autre recherche montre que les images générées par l’IA, lorsqu’elles sont uniquement basées sur des données d’IA, finissent par être floues et non identifiables. Ces erreurs, bien qu’apparemment bénignes, pourraient amplifier des biais discriminatoires, rendant la tâche encore plus ardue.

Pour contrer cela, nous devons miser sur des données non corrompues par du contenu synthétique. Comme l’évoque Alex Dimakis de l’Institut national de l’IA, la qualité intrinsèque des modèles est tributaire de la qualité des données. Même une modeste quantité de données de haute qualité pourrait surpasser un vaste ensemble synthétique.

Ainsi, les ingénieurs restent sur le front, veillant à ce que l’IA ne s’entraîne pas sur des données qu’elle a elle-même produites. Car, malgré les prouesses de l’IA, la touche humaine demeure irremplaçable. 

 

Auteur: Internet

Info: https://www.lebigdata.fr, Nirina R., 24 octobre 2023

[ intelligence artificielle ] [ générative ] [ cercle vicieux ] [ sophisme ] [ logique hors-sol ] [ tri nécessaire ] [ épuration ] [ savoirs ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

ChatGPT : Qu’est-ce qui se passe de si spécial dans un transformer ?

Sebastien Bubeck explique cela très bien : la machine, contrairement à nous, ne succombe pas au biais inductif. Si dans une série qui semble à première vue homogène, il existe certaines configurations qui permettent un raccourci vers la solution, la machine le découvrira, alors que nous, pauvres humains, victimes du biais inductif, nous allons considérer que comme la série a l’air homogène, elle l’est nécessairement et … nous ne trouverons pas les raccourcis cachés dans certaines configurations … faute d’avoir même supposé que de tels raccourcis pouvaient exister.

 (explication vidéo des transformers)

Ok, j’explique ce que cela veut dire sur deux exemples.

Vous vous souvenez sans doute (ou seulement peut-être) de cette vidéo historique de 2014 où Demis Hassabis, fondateur de DeepMind, présentait une IA jouant à casse-briques ? Ce qu’il nous montrait, c’était que l’IA découvrait au bout d’un moment que la tactique la plus payante, ce n’était pas d’attaquer le mur de front, mais de le prendre à revers en passant latéralement et en allant faire rebondir le projectile sur lui à partir du plafond. À cela, les humains n’avaient pas pensé*, ils imaginaient que les configurations étaient homogènes : qu’elles se valaient toutes.

Un bon exemple de biais inductif, ce serait de généraliser en disant : "Quand on examine la suite des nombres entiers, 1, 2, 3 …, on observe que pour chacun de ces nombres …", alors que certains d’entre eux ont des propriétés particulières que les autres n’ont pas. Ainsi, 1, 2, 3, 5, 7… ne sont divisibles que par 1 et par eux-mêmes : ce sont des nombres premiers ; 4 et 9 sont des carrés, ils résultent de la multiplication par lui-même d’un nombre avant eux dans la liste ; 8 est un cube : un nombre avant lui dans la liste multiplié par lui-même à deux reprises, etc.

Le premier à avoir noté cela à notre connaissance, c’est Diophante (200-284). Il est le premier à avoir laissé entendre à propos de la suite des entiers : "Ne vous y fiez pas : certains d’entre eux sont des gens très ordinaires, mais d’autres sont de drôles de paroissiens !". Diophante, le premier à avoir attiré notre attention sur le fait que 4, 8, 9… permettent des raccourcis qui sont fermés aux autres entiers. Or aux yeux de l’IA d’aujourd’hui, avec le temps dont elle dispose en quantité quasi-illimité, il n’y a pas de raccourci nous étant resté inaperçu, qu’elle ne  parvienne à découvrir. Du coup, elle nous fait honte. Nous pouvons lui rappeler : "N’oublie pas que je suis ton père (ou ta mère) !", mais vous connaissez les enfants…

Auteur: Jorion Paul

Info: Sur son blog, 14 avril 2023 à propos des transformers. * Il y a bien eu sur le Blog de PJ quelques commentateurs fanfarons pour dire : "Fastoche ! Même ma grand-mère savait ça !", mais ce sont les mêmes frimeurs qui, neuf ans plus tard, sévissent toujours sur le blog [a https://www.toupie.org/Biais/Probleme_induction.htm]

[ intelligence artificielle ] [ surhumaine compréhension ]

 

Commentaires: 0

Ajouté à la BD par miguel