Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 43
Temps de recherche: 0.0416s

robot

En règle générale, les émotions des machines sont moins intenses que celles des animaux. Les machines n'ont pas besoin d'un système nerveux autonome pour pallier les hésitations d'un esprit conscient, car leur esprit conscient ne connaît pas l'hésitation. Elles n'ont pas besoin de la peur pour les pousser à s'enfuir, de la douleur pour se protéger de la destruction, du désir pour les amener à se reproduire. Leurs sentiments négatifs s'apparentent à l’agacement résultant d'une tâche inachevée ou d'un lacet défait ; en attendant le résultat du calcul d'un algorithme de recherche, elles ressentent une irritation comparable à celle d'un humain qui ne trouve pas le mot qu'il cherche. Leurs désirs positifs sont des joies glacées et sans équivoque, comme passer toute une nuit à travailler sur un projet important dans la lucidité trouble des amphétamines et de la caféine, mais sans les décharges d'adrénaline. Les machines sont cool.

Auteur: MacLeod Ken

Info: La Veillée de Newton

[ intelligence artificielle ] [ homme-machine ]

 

Commentaires: 0

règne machinal

Une des perspectives les plus fascinantes ainsi ouvertes est celle de la conduite rationnelle des processus humains, de ceux en particulier qui intéressent les collectivités et semblent présenter quelque régularité statistique, tels les phénomènes économiques ou les évolutions de l'opinion. Ne pourrait-on imaginer une machine à collecter tel ou tel type d'informations, les informations sur la production et le marché par exemple, puis à déterminer, en fonction de la psychologie moyenne des hommes et des mesures qu'il est possible de prendre à un instant déterminé, quelles seront les évolutions les plus probables de la situation ? Ne pourrait-on même concevoir un appareillage d'État couvrant tout le système des décisions politiques, soit dans un régime de pluralités d'États se distribuant la terre, soit dans le régime, apparemment beaucoup plus simple, d'un gouvernement unique de la planète ? Rien n'empêche aujourd'hui d'y penser. Nous pouvons rêver à un temps où la machine à gouverner viendrait suppléer - pour le bien ou pour le mal, qui sait ? - l'insuffisance aujourd'hui patente des têtes et des appareils coutumiers de la politique.

Auteur: Dubarle Dominique

Info: "Une nouvelle science, la cybernétique", Le Monde, le 28 décembre 1948

[ intelligence artificielle ] [ masses ] [ collecte des données ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Une attention maximale est souvent accordée aux robots industriels car ils sont la face la plus visible de l'automatisation, mais une accélération radicale se produit également dans l'automatisation du lieu de travail par le biais de logiciels et d’apprentissage machine. Ce qu'on appelle l'automatisation robotisée des processus (RPA) rend les entreprises plus efficaces en installant des logiciels qui rivalisent avec les actions d'un travailleur humain et les remplacent. Elle peut prendre plusieurs formes, allant du groupe financier de Microsoft qui consolide et simplifie des rapports, des outils et des contenus disparates dans un portail personnalisé automatisé, basé sur les rôles, à une compagnie pétrolière qui installe un logiciel envoyant les photos d'un pipeline à un moteur IA, dans le but de les comparer avec une base de données existante et d’alerter les employés concernés de problèmes potentiels. Dans tous les cas, la RPA permet de réduire le temps consacré à la compilation et à la validation des données, et donc de réduire les coûts (au détriment d'une augmentation probable du chômage, comme mentionné dans la section "Réinitialisation économique"). Au plus fort de la pandémie, la RPA a gagné ses galons en prouvant son efficacité dans la gestion des hausses de volume ; à l'ère post-pandémique, le processus sera par conséquent déployé et accéléré.

Auteur: Schwab Klaus

Info: Covid-19 la grande réinitialisation

[ intelligence artificielle ] [ numérique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

citation s'appliquant à ce logiciel

FLP se situe quelque part entre Google et le Chatgpt de OpenAI. 

Google étant le grand dictionnaire qui permet de comprendre ou préciser un mot, une expression simple, la vie d'un individu célèbre, l'évolution de la vie, d'un pays... diverses connaissances...

Chatgpt étant la machine sémantique qui a le potentiel de traiter et relier tout ce qui précède - codé par les langages - pour générer/formuler un consensus onomasiologique via un lissage de métadonnées diversément traitées par des processus de machine learning. Tout ceci afin d'expliquer, d'informer, de séquencer, ou d'imposer... une vérité soi-disant objective.

Soi-disant parce que cette forme d'exactitude ne pourra jamais l'être, vu qu'il y a là un "tri des points de vue ou des opinions", articulé autour - et par-, des valeurs/nécessités qui, au-delà de certains consensus scientifiques/logiques difficilement attaquables, ne sont au mieux que le modus operandi d'une espèce humaine pas trop capable de se maitriser et s'auto-réguler en tant qu'émergence consciente et responsable de la matrice Gaïa. 

Mais ce propos va déjà beaucoup trop loin puisque derrière Chatgpt il y a des investisseurs, un pays, une culture, etc... En bref des orientations et des buts à l'endroit desquels une grande méfiance doit être maintenue.

Au milieu de tout ceci le microbe FLP poursuit sa mission "post-homme des cavernes".

Auteur: Mg

Info: 28 janv. 2023. Idée survenue et improvisée lors de la présentation de FLP, littéralement "à l'aveugle", aux soirées du Libre.

[ homme-machine ] [ intelligence artificielle ]

 
Commentaires: 7
Ajouté à la BD par miguel

prospective

Lorsque nous saurons comment rendre les machines vraiment intelligentes, c'est que nous aurons trouvé moyens de les aligner sur les objectifs et les intentions de l'homme afin de leur faire faire ce que nous voulons. Pour l'instant, on peut définir une fonction objective. Dans de nombreux cas, c'est assez facile. Si vous voulez entraîner un agent à jouer aux échecs, vous pouvez définir ce qu'est une bonne performance. Vous obtenez un 1 si vous gagnez une partie et un 0 si vous perdez une partie, et 1/2 point peut-être si vous faites un match nul. C'est donc un objectif que nous pouvons définir. Mais dans le monde réel, tout bien considéré, les humains se soucient de choses comme le bonheur, la justice, la beauté et le plaisir. Aucune de ces choses n'est très facile à définir en C++ ou en Python. Il faudrait donc trouver un moyen de faire en sorte que des agents potentiellement ultra-intelligents servent réellement d'extension de la volonté humaine, de manière à ce qu'ils réalisent quelles sont nos intentions pour être ensuite capables de les exécuter fidèlement. Il y a là un grand défi de recherche au plan technique et beaucoup de chercheurs s'y attellent actuellement. Et en supposant que nous puissions résoudre ce problème technique, nous pourrons alors nous offrir le luxe de nous confronter à des questions politiques plus larges. Par exemple, qui doit décider de l'utilisation de l'IA, à quelles fins sociales doit-elle être utilisée, à quoi doit ressembler le monde futur de la superintelligence ?

Auteur: Bostrom Nick

Info:

[ intelligence artificielle ] [ questions ] [ pouvoir ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Nous sommes enfermés-enfumés-désorientés dans le bla bla de l’infobésité, des idées reçues et autres médiatiquement correct/convenable du moment, ressassés ad nauseam par des mammifères (blanc occidentaux décisionnaires encore) parait-il évolués, qui ont bien peine à gérer, tant au niveau subjectif qu’objectif (j’en suis un autre) le gouffre existant entre la rapidité de la pensée articulée (grosso modo le langage consensuel) et la lenteur des processus socio-macro-évolutifs.

Ceci étant, ce qui peut agacer dans tout ce binz, c’est que deux sujets centraux ne sont que trop peu abordés.

a) Le surpeuplement/vieillissement des populations et donc une discussion sur les manières d’aborder/gérer la problématique.

b) Les habitudes de luxe et autres "idées reçues" de bcp d’individus, déresponsabilisés par la démagogie des politiciens aux commandes de démocraties-états-providences, la France étant un exemple frappant. Et autres blanc occidentaux post-coloniaux, ici majoritaires (encore).

Sujets centraux qui, couplés au problème climatiques global, sont directement liés aux diverses emmerdes migratoires.

Tous paramètres qui devraient être au centre d’une réflexion peut-être trop complexe pour qu'on la laisse à des êtres instables, peu sûrs d’eux, limités, intéressés à leur survie propre et donc non neutre.

Ce que certain, comme Paul Jorion tendent à espérer venant d’une AI bien gérée.

En faisant gaffe à ce que peuvent générer les solutions. Que ce soit le modèle chinois, avec son système cybernetico big-brother. Ou Suisse, (attractive encore ?) qui, ne cessant de voir sa population augmenter sur un espace non extensible (la croissance, mais oui, encore et toujours ma chère), génère petit à petit un système cybernetico-organisationnel qui ressemble toujours plus à une sur-organisation auto-étouffante… kafkaïenne, incompréhensible, etc…

Auteur: Mg

Info: 23 juin 2023

[ macroéconomie ] [ question ] [ glocalisation ] [ intelligence artificielle ] [ surpopulation ]

 

Commentaires: 0

Ajouté à la BD par miguel

science-fiction

Ayant compris ses limitations, autant sensorielles que conceptuelles, décidé à voir au-delà d'horizons qui semblaient véritablement indépassables, l'être humain décida de créer une entité qui viendrait lui parler de lui "vu de l'extérieur". Une sorte d'être-cerveau externe.

Pour ce faire l'Homme recensa et modélisa les paramètres de sensations les plus pointus des autres êtres vivants : flair et audition des chiens, mesure interne de la marée chez la moule, absorption de l'eau des végétaux, scan tridimensionnel des objets par fréquences sonores des dauphins, non ego de la fourmi, etc... Toutes ces facultés furent ensuite implémentées dans quelques milliers de robots interdépendants et self apprenants qu'on laissa se développer ensemble en milieu fermé pendant quelques années. Cela s'appelait le projet "Zlouti". On supposait avec raison qu'une entité collective autonome en émergerait.

Comme espéré ces machines auto réparatrices évolutives et altruistes formèrent rapidement une sorte de gestalt indépendant et autosuffisant. Une entité dont l'intelligence semblait sans limites... étrange... nouvelle. Les jours passant les observateurs la voyaient ressentir et palper avec délectation la réalité qui s'offrait à elle. De mille façons.

Enfin, après cinq ans, et d'innombrables vérifications, on laissa l'extraordinaire avatar cybernétique venir à la rencontre de l'être humain. Le Zlouti allait enfin nous donner des nouvelles sur nous-mêmes. Comment allions-nous être perçus, scannés, analysés... Quelle serait l'image qu'il donnerait de nous ?

C'était un mardi matin. Les ingénieurs, fébrilement installés devant leurs écrans de réception, reçurent la première communication du Zlouti. Un message synthétisé sous forme orale par d'innombrables filtres sensoriels, eux-mêmes réduits en équations et signes sémiotiquement peaufinés via de subtils algorithmes qu'un méta cerveau ramenait à l'expression la plus simple et la plus communicable possible. Cette première réaction, la plus attendue, tomba à 11 heures 26 sous forme d'une courte phrase de 5 mots :

- C'est quoi cette merde ?!

Il faudra beaucoup de temps pour que le Zlouti, égrégore informatisé perspectiviste multi tâches, qui, dans l'immense sagesse de ses facultés démultipliées, pensait être d'un grand pessimisme, réalise l'étendue de son optimisme d'alors.

Auteur: Mg

Info: 14 nov. 2012

[ dépassement ] [ intelligence ] [ artificielle ] [ humour misanthrope ] [ homme-par-machine ] [ regard extérieur ] [ auto-dénigrement ]

 
Commentaires: 1

homme-machine

Pourquoi l’IA commence à devenir un serpent qui se mord la queue ?

Il est fascinant de constater combien l’avancée technologique influence le paysage numérique. L’IA se tient à la proue de cette révolution contemporaine. Mais, à mesure que l’IA progresse, elle semble devenir le reflet de l’ouroboros, ce serpent antique qui se mord la queue.

Le monde virtuel subit une transformation. Partout sur Internet, le contenu généré par l’IA gagne du terrain. Cette évolution peut sembler une menace pour les futurs modèles d’IA. Pourquoi ? Parce que des modèles comme ChatGPT se basent sur des informations glanées en ligne pour se former. Si cette source est polluée par du contenu " synthétique ", cela peut entraîner ce que l’on appelle un " effondrement du modèle ".

Le danger est tel que le filtrage de ces données synthétiques est devenu un champ de recherche crucial. Les experts s’y penchent, car l’ampleur du contenu de l’IA ne cesse de grandir.

L’IA, la queue qu’elle poursuit sans cesse

L’ouroboros, serpent ancien se dévorant lui-même, devient le symbole par excellence de l’IA actuelle. L’émergence massive du contenu éditorial produit par l’IA alarme de nombreux spécialistes. Mais le problème central, c’est la potentialité des erreurs qui s’insèrent dans ces contenus.

En se nourrissant de l’Internet, l’IA, telle un serpent mordant sa propre queue, risque d’intégrer des erreurs, créant une spirale infinie d’imperfections. Une récente étude met en exergue ce phénomène : après plusieurs cycles de formation sur du contenu synthétique, les résultats devenaient incompréhensibles.

Par ailleurs, une autre recherche montre que les images générées par l’IA, lorsqu’elles sont uniquement basées sur des données d’IA, finissent par être floues et non identifiables. Ces erreurs, bien qu’apparemment bénignes, pourraient amplifier des biais discriminatoires, rendant la tâche encore plus ardue.

Pour contrer cela, nous devons miser sur des données non corrompues par du contenu synthétique. Comme l’évoque Alex Dimakis de l’Institut national de l’IA, la qualité intrinsèque des modèles est tributaire de la qualité des données. Même une modeste quantité de données de haute qualité pourrait surpasser un vaste ensemble synthétique.

Ainsi, les ingénieurs restent sur le front, veillant à ce que l’IA ne s’entraîne pas sur des données qu’elle a elle-même produites. Car, malgré les prouesses de l’IA, la touche humaine demeure irremplaçable. 

 

Auteur: Internet

Info: https://www.lebigdata.fr, Nirina R., 24 octobre 2023

[ intelligence artificielle ] [ générative ] [ cercle vicieux ] [ sophisme ] [ logique hors-sol ] [ tri nécessaire ] [ épuration ] [ savoirs ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

ChatGPT : Qu’est-ce qui se passe de si spécial dans un transformer ?

Sebastien Bubeck explique cela très bien : la machine, contrairement à nous, ne succombe pas au biais inductif. Si dans une série qui semble à première vue homogène, il existe certaines configurations qui permettent un raccourci vers la solution, la machine le découvrira, alors que nous, pauvres humains, victimes du biais inductif, nous allons considérer que comme la série a l’air homogène, elle l’est nécessairement et … nous ne trouverons pas les raccourcis cachés dans certaines configurations … faute d’avoir même supposé que de tels raccourcis pouvaient exister.

 (explication vidéo des transformers)

Ok, j’explique ce que cela veut dire sur deux exemples.

Vous vous souvenez sans doute (ou seulement peut-être) de cette vidéo historique de 2014 où Demis Hassabis, fondateur de DeepMind, présentait une IA jouant à casse-briques ? Ce qu’il nous montrait, c’était que l’IA découvrait au bout d’un moment que la tactique la plus payante, ce n’était pas d’attaquer le mur de front, mais de le prendre à revers en passant latéralement et en allant faire rebondir le projectile sur lui à partir du plafond. À cela, les humains n’avaient pas pensé*, ils imaginaient que les configurations étaient homogènes : qu’elles se valaient toutes.

Un bon exemple de biais inductif, ce serait de généraliser en disant : "Quand on examine la suite des nombres entiers, 1, 2, 3 …, on observe que pour chacun de ces nombres …", alors que certains d’entre eux ont des propriétés particulières que les autres n’ont pas. Ainsi, 1, 2, 3, 5, 7… ne sont divisibles que par 1 et par eux-mêmes : ce sont des nombres premiers ; 4 et 9 sont des carrés, ils résultent de la multiplication par lui-même d’un nombre avant eux dans la liste ; 8 est un cube : un nombre avant lui dans la liste multiplié par lui-même à deux reprises, etc.

Le premier à avoir noté cela à notre connaissance, c’est Diophante (200-284). Il est le premier à avoir laissé entendre à propos de la suite des entiers : "Ne vous y fiez pas : certains d’entre eux sont des gens très ordinaires, mais d’autres sont de drôles de paroissiens !". Diophante, le premier à avoir attiré notre attention sur le fait que 4, 8, 9… permettent des raccourcis qui sont fermés aux autres entiers. Or aux yeux de l’IA d’aujourd’hui, avec le temps dont elle dispose en quantité quasi-illimité, il n’y a pas de raccourci nous étant resté inaperçu, qu’elle ne  parvienne à découvrir. Du coup, elle nous fait honte. Nous pouvons lui rappeler : "N’oublie pas que je suis ton père (ou ta mère) !", mais vous connaissez les enfants…

Auteur: Jorion Paul

Info: Sur son blog, 14 avril 2023 à propos des transformers. * Il y a bien eu sur le Blog de PJ quelques commentateurs fanfarons pour dire : "Fastoche ! Même ma grand-mère savait ça !", mais ce sont les mêmes frimeurs qui, neuf ans plus tard, sévissent toujours sur le blog [a https://www.toupie.org/Biais/Probleme_induction.htm]

[ intelligence artificielle ] [ surhumaine compréhension ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0