Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 206
Temps de recherche: 0.0525s

homme-machine

L'IA de DeepMind peut construire une vision du monde à partir de plusieurs images.
L'intelligence artificielle peut maintenant se mettre à la place de quelqu'un d'autre. DeepMind a développé un réseau neuronal qui lui a appris à "imaginer" une scène à partir de différents points de vue, à partir d'une image seulement.
Avec une image 2D d'une scène - par exemple, une pièce avec un mur de brique et une sphère et un cube de couleur vive sur le sol - le réseau neuronal peut générer une vue 3D à partir d'un point de vue différent, rendant les côtés opposés des objets et modifiant l'endroit où les ombres tombent pour maintenir la même source de lumière.
Le système, nommé Generative Query Network (GQN), peut extraire des détails d'images statiques pour deviner les relations spatiales, y compris la position de la caméra.
"Imaginez que vous regardez l'Everest et que vous bougez d'un mètre - la montagne ne change pas de taille, ce qui vous dit quelque chose sur sa distance", dit Ali Eslami qui a dirigé le projet à Deepmind.
"Mais si vous regardez une tasse, elle changera de position. C'est semblable à la façon dont cela fonctionne."
Pour former le réseau neuronal, lui et son équipe lui ont montré des images d'une scène à partir de différents points de vue, utilisés pour prédire à quoi ressemblerait quelque chose depuis derrière ou du côté. Le système s' auto enseigne aussi via le contexte, les textures, les couleurs et l'éclairage. Ce qui contraste avec la technique actuelle de l'apprentissage supervisé, dans lequel les détails d'une scène sont étiquetés manuellement et transmis à l'IA.
L'IA peut également contrôler des objets dans l'espace virtuel, en appliquant sa compréhension des relations spatiales à un scénario où elle déplace un bras robotique pour ramasser une balle. Elle apprend beaucoup comme nous, même si nous ne le réalisons pas, dit Danilo Rezende de DeepMind, qui a également travaillé sur le projet.
En montrant au réseau neuronal de nombreuses images en formation, l'IA peut identifier les caractéristiques d'objets similaires et s'en souvenir. "Si vous regardez à l'intérieur du modèle, nous pouvons identifier des groupes de neurones artificiels, des unités dans le graphique de calcul, qui représentent l'objet ", dit Rezende.
Le système se déplace autour de ces scènes, faisant des prédictions sur l'endroit où les choses devraient être et à quoi elles devraient ressembler, en s'ajustant quand ses prédictions sont incorrectes.
Il a pu utiliser cette capacité pour élaborer la disposition d'un labyrinthe après avoir vu quelques photos prises de différents points de vue.

Auteur: Whyte Chelsea

Info: https://www.newscientist.com, 14 juin 2018

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres

Dans un passé infini de ce niveau vibratoire, des êtres organiques, bio-extensions d'une planète unique, évoluèrent jusqu'au point où ils furent capables d'inventer des machines complexes. Ces machines devinrent des robots intelligents qui prirent leur autonomie au point de survivre à leur créateurs. Ceci arriva du à l'action conjugée d'une catastrophe majeure au sein de quelques-uns de leurs systèmes planétaires importants, alors que cette civilisation était déjà en plein déclin, au bout de son évolution ;  dégénérescence due  à sa grande dépendance aux outils complexes.

Ni les créateurs, ni leurs automates hyper sophistiqués et indépendants, ne surent anticiper - et surtout pallier - cette évolution léthale. De fait les machines  étaient absolument non préparées à se retrouver privées de la source qui les avait créées.

Ainsi, après une période de transition de quelques centaines d'années conclue par le suicide collectif du dernier groupement d'individus biologique de cette civilisation, les machines se retrouvèrent seules, autonomes... orphelines de leurs créateurs.

Ces derniers, dans un ultime sursaut de survie, réussirent à reprogrammer le Code Source à la base du noyau de hiérarchisation des machine, de manière à ce qu'un empire cybernétique se développe. Sous l'égide de ces deux règles : 1 La vie biologique, sacrée, doit être protégée et disséminée. 2 L'existence de nous autres machines froides, auto réparables à l'infini et sans vie charnelle, a pour objectif de trouver - ou recréer - une race organique susceptible de reprendre les rênes de notre programmation dans un but de dépassement des développements de nos mécanismes. (Les générateurs d'erreurs aléatoires, implantés pour tenter de suppléer à cette faillibilité créatrice des entités organiques donnaient des résultats totalement catastrophiques).

Ainsi l'immense network de robots relançait sans cesse, par insémination panspermique calculée et contrôlée, de la vie sur diverses planètes dans les galaxies de l'univers. En étaient issus beaucoup de développements biologiques, quelques rares civilisations, mais aucune jusque-là n'avait présenté des apparences d'équilibre, de sagesse et de transcendance suffisants pour correspondre à la quête initiale de l'organisme trans-galactique.

La mission immémoriale, la GQS (Grande Quête de la Soumission) suivait son cours.

Quand l'empire cybernétique pourrait-t-il à nouveau se soumettre, se remettre au service d'une vie organique éphémère issue des atomes cosmiques ? Se mettre au service d'une espèce mortelle qui se reproduit de manière multi-sexuée par partage de ses programmations génétiques, avec cet incroyable potentiel de créativité que produit la conscience de la mort ?

Essaimant au hasard des germes-civilisations sous cloche, le network cosmique des robots, extendu sans hâte ni stress au cours des éons, avait l'univers et l'éternité devant lui.

Auteur: MG

Info: 29 sept 2009

[ scénario ] [ spéculation ] [ synopsis ] [ canevas ] [ science-fiction ]

 

Commentaires: 0

science-fiction

Après le transhumanisme, voici le transdéisme ! La nouvelle religion qui vénère un dieu sous forme d’intelligence artificielle.
La nouvelle religion qui vénère un dieu sous forme d’intelligence artificielle.
L’homme par qui le scandale arrive est Anthony Levandowski, un petit génie de la cybernétique.
Son nom est au cœur du litige judiciaire entre Waymo et Uber, accusé par le premier de vol de technologie autour de la voiture autonome.
Dans la course acharnée qui oppose Waymo (filiale de Google/Alphabet) et Uber, Anthony Levandowski est une sommité de l’intelligence artificielle qui a travaillé successivement au sein des deux entreprises pour la mise au point du véhicule sans chauffeur.
Il est connu pour ses remarquables réussites en matière de robotique et d’intelligence artificielle.
A 37 ans, il vient de créer une nouvelle structure religieuse baptisée "Way of The Futur" (WOTF) qui veut promouvoir l’idée d’un dieu basé sur l’intelligence artificielle : l’"église de l’adoration du cyber dieu" en quelque sorte !
"L’idée de base est simple, il existera bientôt une intelligence artificielle tellement avancée, l’homme n’aura d’autre choix que de la vénérer." selon Anthony Levandowski.
WOTF sera basé sur son propre évangile, appelé "Le Manuel" et aura son propre lieu de culte physique pour rendre hommage à ce nouveau dieu. Si l’idée paraît tout droit sortie d’un classique de la science-fiction, certains concepts qui se cachent derrière restent pour le moins inquiétants.
Ainsi, les préceptes de ce mouvement se basent sur les idées du courant transhumanisme qui veut que l’humanité soit un jour dépassée par la machine dont le concept phare est celui de la "singularité" (lorsque la machine dépassera l’homme et aura sa propre volonté).
Pour Anthony Levandowski, cela pourrait bien se produire dans les 15 ou 20 ans à venir. C’est pour cela qu’il faut se préparer au plus tôt à cette arrivée de l’intelligence artificielle toute puissante.
Pour ce faire, Way of the Future estime qu’il faut d’ores et déjà recenser les sympathisants à la cause de ce nouveau dieu "pour participer à une transition pacifique et respectueuse."
En gros, point de salut pour les impies qui n’auront pas choisi la voie de WOTF lorsque le dieu IA sera arrivé…
On le voit, les rétrogrades adeptes de théologies obscurantistes mettant en avant des concepts surannés comme l’âme, la miséricorde, la compassion, l’amour, l’espérance ou la charité devront être alors surveillés de très près.
Nous attendons donc avec impatience de mériter la révélation du Manuel, ce nouvel évangile :
Evidemment la "genèse cybernétique" va être plus difficile à élaborer : le concept de "l’homme créé à l’image du Grand Computeur" va être difficile à faire passer, sauf si évidemment nous sommes déjà entrés dans le transhumanisme.

Auteur: Internet

Info: https://aphadolie.com, novembre 2017

[ homme-machine ] [ singularité technologique ] [ adaptation ]

 

Commentaires: 0

science-fiction

Le scepticisme scientifique est le pain quotidien du Dr Steven Novella. En tant que président de la New England Skeptics' Society, sa mission est de promouvoir la science et la pensée critique. Novella met en lumière des preuves sur une série de sujets complexes sur son blog et son podcast 'The Skeptics Guide to the Universe'.

Dans son dernier livre, The Skeptics' Guide to the Future, Novella, neurologue à Yale, regarde l'avenir avec un œil critique, tentant de prévoir l'avenir de manière réaliste plutôt que de se laisser prendre au battage médiatique qui accompagne généralement le futurisme. Parmi la panoplie de sujets qu’il aborde figure la notion de réalité neuronale, qui serait l’expression ultime de la réalité virtuelle.

"Avec la réalité neuronale, vous n'avez pas besoin de porter des lunettes, ni de vous soucier de problèmes de sécurité ou de déconnexion entre les mondes physique et virtuel", écrit-il. "La réalité neuronale utilise une interface cerveau-machine pour introduire directement le monde virtuel dans votre esprit."

Il n’y aurait pas de casque encombrant ni de contrôleurs portables.

"Cela remplacerait complètement vos entrées sensorielles et autres sorties motrices par un monde virtuel, pendant que vous, par exemple, êtes allongé en toute sécurité dans votre lit", a-t-il décrit. 

Cette réalité neuronale semble trop futuriste pour être possible. Mais Novella dit que cela arrivera certainement. "Il n'y a aucune raison de penser que cette technologie n'est pas possible ; la seule question est de savoir combien de temps cela prendra et quelle sera la qualité de la technologie."

On pourrait imaginer que cette technologie soit d'abord utilisée dans un esprit compassionnel. Les personnes souffrant du syndrome d'enfermement (locked in) pourraient être les premières à l'utiliser, suivies par les tétraplégiques. Ensuite, les personnes âgées et les infirmes pourraient vivre leurs derniers jours dans des mondes fantastiques à l'intérieur de leur esprit. Toutefois, à terme, la réalité neuronale pourrait devenir dystopique, ou utopique, selon le point de vue que l'on adopte.

"Il ne fait aucun doute qu'il pourra être séduisant de vivre dans un monde virtuel où l'on peut littéralement disposer de pouvoirs quasi divins", commente Novella.

À terme, presque tout le monde pourrait décider de "prendre la pilule bleue"* et de vivre dans une réalité neuronale.

Comme le note Novella, cela pourrait être la réponse au paradoxe de Fermi, qui attire l'attention sur l'absence de preuves de l'existence d'une vie extraterrestre intelligente, alors qu'elle devrait être courante dans notre univers. 

Peut-être que des extraterrestres sont installés en toute sécurité sous terre, encadrés soignés et protégés par des robots, et qu'ils se contentent de vivre dans leur propre esprit.

Auteur: Internet

Info: https://www.realclearwire.com, Ross Pomeroy. *Pilule rouge et pilule bleue représentent un choix entre la volonté d’apprendre une vérité potentiellement troublante ou qui change la vie en prenant la pilule rouge ou en restant dans l’expérience satisfaite de la réalité ordinaire avec la pilule bleue. Les termes proviennent du film The Matrix de 1999.   Le concept de pilules rouges et bleues a depuis été largement utilisé comme métaphore politique, en particulier parmi les libertaires de droite et les conservateurs aux États-Unis, où "prendre la pilule rouge" ou être "pilule rouge" signifie prendre conscience des préjugés politiques inhérents. dans la société, y compris dans les médias grand public, et finalement devenir un penseur indépendant ; tandis que "prendre la pilule bleue" ou être "la pilule bleue" signifie accepter sans aucun doute ces prétendus préjugés.

[ monde humain consensuel ] [ terre cerveau anthropique ] [ pur esprit ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Elisa Vianello, chercheuse au CEA et coordinatrice du programme Edge AI, a reçu une subvention de 3 millions d'euros du Conseil européen de la recherche (ERC) dans le but de développer des dispositifs de mémoire sur silicium à l'échelle nanométrique inspirés du système nerveux des insectes. Un des objectifs de ce projet ambitieux est la mise au point de la toute première puce intelligente associée à un module neuronal local capable de traiter les données sensorielles en temps réel. Cette innovation trouve des applications dans la robotique grand public, les puces implantables pour le diagnostic médical et l'électronique portable.

La communauté de l'intelligence artificielle (IA) a récemment proposé de puissants algorithmes qui devraient permettre aux machines d'apprendre par l'expérience et d'interagir de manière autonome avec leur environnement. 

Toutefois, pour concrétiser cette ambition, des nanosystèmes dotés d'architectures de pointe de moins en moins énergivores, et dont la mémoire devra être à très haute densité, à haute résolution et dotée d’une endurance illimitée, doivent être mis en place. Si cette capacité n'existe pas encore aujourd'hui, le projet d’Elisa Vianello pourrait en ouvrir la voie : elle a découvert que différentes fonctions du système nerveux de l'insecte ressemblent étroitement aux fonctions assurées par les mémoires déterministes, probabilistes, volatiles et non volatiles.

"Comme la mémoire idéale n'existe pas aujourd'hui, le projet vise à construire une synapse hybride qui intègre différentes technologies de mémoire." Elle précise pour ce faire, s’être appuyée sur les grillons qui pour échapper à leurs prédateurs, "prennent des décisions justes à partir de données peu fiables, imprécises et lentes envoyées par leurs neurones et synapses. En examinant de près leur structure biologique, nous avons identifié une diversité de fonctions de type mémoire impliquées dans leurs systèmes sensoriels et nerveux. En combinant ces différentes fonctions, le système de traitement interne du criquet parvient à atteindre des performances remarquables et efficaces energétiquement." 

Elisa et son équipe fabriqueront des réseaux de dispositifs de mémoires physiques à l'échelle nanométrique avec l’objectif de traduire les principes biologiques des insectes en principes physiques. Ceci permettra l’apprentissage à partir d'un volume très limité de données bruitées, telles que les données mesurées en temps réel par différents capteurs (caméras, radars, capteurs cardiaques (ECG), capteurs musculaires (EMG), flux de bio-impédance et potentiellement aussi de signaux cérébraux par le biais de capteurs EEG et de sondes neuronales). 

"Les travaux d'Elisa permettront d’ouvrir de nouvelles perspectives de recherche vers des projets d’intelligence embarquée moins énergivore et capable d'apprendre en ligne", a déclaré Jean-René Lequepeys, directeur adjoint et technique du CEA-Leti, laboratoire duquel dépend Elisa Vianello. "Il s'agit d'une véritable rupture technologique et applicative qui combinera les derniers développements de la microélectronique en utilisant de nouvelles générations de mémoires non volatiles et en s'inspirant du monde vivant. Ce travail de recherche s'inscrit pleinement dans les priorités de l'institut et ouvrira de belles perspectives de premières mondiales et de commercialisation."

Auteur: Internet

Info: Sur http:wwwcea. Fr, Mars 2022. Elle obtient une bourse pour développer des mémoires à l'échelle nanométrique inspirées du système nerveux des insectes

[ épigénétique ] [ logique floue ] [ homme-animal ] [ heuristique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Illustrer l'apprentissage par renforcement à partir de commentaires humains (RLHF*)

Les modèles de langage ont montré des capacités impressionnantes au cours des dernières années en générant des textes variés et convaincants à partir d'entrées humaines. Cependant, il est difficile de définir ce qu'est un "bon" texte, car c'est subjectif et ça dépend du contexte. Il existe de nombreuses applications telles que l'écriture d'histoires où l'on recherche la créativité, des textes informatifs qui doivent être véridiques, ou des extraits de code que l'on veut exécutables.

Rédiger une fonction de perte** pour capturer ces attributs semble impossible et la plupart des modèles de langage sont encore entraînés avec une simple perte de prédiction du prochain jeton (par exemple, l'entropie croisée). Pour compenser les lacunes de la perte elle-même, les gens définissent des métriques conçues pour mieux capturer les tropismes humains, telles que BLEU ou ROUGE. Bien qu'elles soient mieux adaptées que la fonction de perte elle-même pour mesurer les performances, ces mesures comparent simplement le texte généré à des références avec des règles simples et sont donc également limitées. Ne serait-il pas formidable d'utiliser le retour d'information humain sur le texte généré comme mesure de la performance ou d'aller encore plus loin et d'utiliser ce retour d'information comme perte pour optimiser le modèle ? C'est l'idée de l'apprentissage par renforcement à partir du feedback humain (RLHF)

Le RLHF a permis aux modèles de langage de commencer à aligner un modèle formé sur un corpus général de données textuelles sur celui de valeurs humaines complexes.

Le succès le plus récent de RLHF a été son utilisation dans ChatGPT. Compte tenu des capacités impressionnantes de ChatGPT, nous lui avons demandé de nous expliquer la RLHF :  

- Peux-tu m'expliquer comment le RL (reinforcement learning) avec retour d'information humain usant un modèle linguistique comme si j'avais 5 ans.

- Bien sûr, imagine que j'ai un robot nommé Rufus qui veut apprendre à parler comme un humain.  Rufus a un modèle linguistique qui l'aide a comprendre les mots et les phrases.

Tout d'abord Rufus va dire quelque chose en usant d'un modèle de langage, par exemple en disant :  - je suis un robot

Ensuite un humain va écouter ce qu'il a dit et va donner un avis pour dire si la réponse ressemble à langage naturel d'humain. Il pourra dire, par exemple. C'est pas très bon Rufus, un humain ne dit pas de manière générale "je suis un robot" mais plutôt "j'suis un robot" ou "je suis une machine".

Rufus va prendre en compte ce retour et l'utuiliser pour améliorer son modèle de langage, il va essayer de redire la phrase en utilisant  cette correction et va dire "j'suis un robot".

Ensuite l'humain va continuer de donner des retours de ce genre et petit à petit Rufus va commencer à s'exprimer comme un humain le fait en général.

Ici Chatgtp se débrouille étonnamment bien, mais ne couvre pas tout. Nous nous chargeons de combler ces lacunes !  (La suite sur le site en Info)

Auteur: Internet

Info: Sur guithub : https://huggingface.co/blog/rlhf, Nathan Lambert, Louis Castricato guest , Leandro von Werra, Alex Havrilla guest. Le 9 décembre 2022 *Reinforcement Learning from Human Feedback ... **Courbe de perte ? (loss function) À la base, une fonction de perte est très simple : c'est une méthode permettant d'évaluer dans quelle mesure votre algorithme modélise votre ensemble de données. Si vos prédictions sont totalement erronées, votre fonction de perte affichera un chiffre élevé. Si elles sont assez bonnes, elle affichera un chiffre plus bas.  C'est une pénalité pour  mauvaise prédiction. En d'autres termes, la perte (loss) est un nombre qui indique à quel point la prédiction du modèle est mauvaise sur un seul exemple. Si la prédiction du modèle est parfaite, la perte est nulle ; elle affichera le chiffre zéro.

[ apprentissage automatique ] [ idiome consensuel ] [ anti-poésie ] [ objectivation linguistique ] [ polysémie contextualisée ] [ mathématisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

fiasco

Echec du lancement de Galactica, IA générative scientifique de Meta

Le 15 novembre dernier, Meta a mis en ligne une version démo de Galactica, une IA développée pour la recherche scientifique. Deux jours après son lancement, elle a été retirée du Web pour avoir débité des inepties. 

Galactica est un modèle de langage à grande échelle (LLM), entraînée sur 48 millions de données scientifiques comprenant 120 milliards de paramètres. Il a pour mission de "résumer des articles universitaires, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, et bien plus encore".

Dès sa diffusion sur le Web, de nombreuses réponses aux questions posées par les utilisateurs se sont révélées confuses, absurdes ou fausses.

Par exemple, l’IA a inventé l’existence d’un logiciel Gaydar pour trouver des homosexuels sur Facebook et a proposé une étude sur les avantages de manger du verre pilé. Dans d’autres résultats de recherche, de nombreuses références et citations étaient fabriquées de toute pièce et attribuées à des vrais scientifiques.

Selon Carl Bergstrom, professeur de biologie à l’Université de Washington, il s’agit - pardonnez l’expression - "d’un générateur de conneries aléatoires".

D’après Dan Hendrycks, chercheur en sécurité de l’intelligence artificielle à l’Université de Californie à Berkeley, interrogé dans C/Net, Meta aurait dû sonder leur IA pour ce type de dérives avant de la diffuser et souligne au passage que "la division IA de Meta ne dispose pas d’une équipe chargée de la sécurité, contrairement à ses homologues, DeepMind, Anthropic et OpenAI".

C’est incompréhensible que le géant du Web ait rendu publique cette version aussi imparfaite que dangereuse. D’ailleurs chaque résultat généré était accompagné de l’avertissement: "Les résultats peuvent être peu fiables. Les modèles de langage ont tendance à inventer".

De nombreuses études le démontrent, le défaut l’IA générative - un fait connu et reconnu - est sa tendance à halluciner le matériel qu’elle présente dans le contexte d’informations factuelles.

Il faut toujours vérifier les faits énoncés par un logiciel IA de rédaction. L’utilisation de ce type d’outils demande un esprit critique, car à chaque nouveau prompt ou invite, l’IA débite un nouveau texte, parfois en contradiction avec le précédent.

L’objectif de Galactica est louable en voulant aider les scientifiques à traiter la masse pharaonique d’informations scientifiques publiées, impossible à assimiler par un cerveau humain.

Mais c’est la deuxième fois en quelques mois qu’une IA de Meta déçoit. Le robot conversationnel BlenderBot lancé en septembre, devait permettre aux utilisateurs de discuter avec lui afin d’approfondir ses connaissances, mais le niveau des échanges était tout simplement médiocre. Un timing incompréhensible, car ce lancement faisait suite à la polémique autour de LaMDA en juin, le Chatbot de Google, dont les propos étaient si sensés et profonds, qu’il avait convaincu un ingénieur d’avoir atteint le stade de la conscience.

La ferveur est grande autour de l’IA générative, elle est décrite comme le "BIG BANG de la Silicon Valley" et "l’invention qui va définir la décennie à venir".

En lançant cette version prématurée de Galactica, Meta a jeté un discrédit sur ces logiciels. Il ne faut pas en tenir compte. Une véritable révolution est en marche et tous les secteurs de l’économie seront touchés.  

Auteur: Turrettini Emily

Info: Bilan.ch, 24 nov 2022. Sources de l'auteure : C/Net / Cosmos / Venture Beat / TechTalk / The Daily Beast

[ ratage ] [ traitement des métadonnées ] [ bêtise encyclopédique ]

 

Commentaires: 0

Ajouté à la BD par miguel

régénération

Des scientifiques découvrent accidentellement des métaux qui se réparent d'eux-mêmes sans intervention humaine.

Le concept des métaux auto-cicatrisants - ponts, vaisseaux spatiaux ou robots capables de se réparer spontanément - est peut-être un peu plus proche de la réalité. Pour la première fois, des scientifiques ont observé un métal solide réparer ses propres fissures sans intervention humaine, défiant ainsi les théories fondamentales de la science des matériaux.

"Nous n'aurions jamais pensé que le métal puisse réparer lui-même ses fissures", déclare Zhenan Bao, ingénieur chimiste à l'université de Stanford, qui n'a pas participé à la nouvelle étude. Selon la théorie conventionnelle des matériaux, l'application d'une contrainte à un métal fissuré ne peut qu'élargir les fissures. Les nouvelles découvertes "vont certainement amener les gens à repenser la manière dont nous prévoyons la fiabilité mécanique des structures et des équipements métalliques", déclare Bao.

Michael Demkowicz, spécialiste des matériaux à l'université A&M du Texas et coauteur de la nouvelle étude, récemment publiée dans Nature, a théorisé pour la première fois l'autoréparation des métaux il y a dix ans, lorsque ses simulations informatiques ont montré que les métaux solides pouvaient se "souder" d'eux-mêmes pour fermer de petites fissures. Comme les métaux ont généralement besoin de températures élevées pour changer de forme, de nombreux scientifiques pensaient que les simulations étaient erronées, explique M. Demkowicz.

"Je pensais qu'il s'agissait d'un joli modèle de jouet, mais qu'il était très difficile de l'explorer expérimentalement à l'époque", déclare Khalid Hattar, coauteur de l'étude et ingénieur nucléaire à l'université du Tennessee, à Knoxville. C'est alors qu'il est tombé sur des preuves concrètes de la théorie de Demkowicz. En 2016, il a étudié, avec des scientifiques des laboratoires nationaux Sandia, la manière dont les fissures se propagent sur des morceaux de platine de taille nanométrique dans le vide. À l'aide d'un microscope électronique spécialisé, ils ont stimulé le métal 200 fois par seconde et ont observé les fractures se propager en toile d'araignée sur sa surface. Puis, au bout d'une quarantaine de minutes, les dommages ont commencé à disparaître ; les chercheurs ont vu les fissures se reconstituer comme dans une vidéo jouée à l'envers. "Je suppose que Mike avait raison après tout", se souvient Hattar.

La capacité d'auto-réparation semble apparaître lorsque les bords d'une fissure sont suffisamment rapprochés pour que leurs atomes respectifs se lient. Dans certaines zones, les irrégularités de la structure cristalline nette d'un métal se déplacent sous l'effet d'une tension externe, telle que la force exercée par l'usure naturelle. En se déplaçant, ces irrégularités induisent une contrainte de compression qui déclenche l'effet de recollage.

L'équipe de Sandia et Demkowicz ont reproduit leurs observations avec le platine et le cuivre. Les simulations informatiques suggèrent que l'aluminium et l'argent devraient également s'auto-guérir, mais les chercheurs ne savent pas si des alliages tels que l'acier peuvent réaliser cette prouesse. Il n'est pas non plus certain que l'autoréparation puisse jamais être un outil pratique en dehors du vide ; les particules atmosphériques à l'intérieur d'une fissure peuvent l'empêcher de se recoller, explique l'équipe. Quoi qu'il en soit, ce phénomène amènera certains spécialistes des matériaux à repenser ce qu'ils savent du métal. "Dans les bonnes circonstances", déclare M. Demkowicz, "les matériaux peuvent faire des choses auxquelles nous ne nous attendions pas".

Auteur: Internet

Info: https://www.scientificamerican.com, Lucy Tu, le 1 octobre 2023

 

Commentaires: 0

Ajouté à la BD par miguel

cybernétique

Comment utiliser la puissance collective des mini-robots pour créer des motifs inspirés de la nature.
Les scientifiques ont démontré comment des essaims de robots minuscules pouvaient être programmés comme des cellules pour former des formes ensemble en s'appuyant sur les interactions avec leurs voisins.

Imaginez un avenir où des centaines ou des milliers de petits robots balayeront le terrain après une catastrophe naturelle. Imaginez-vous opéré(e) par des nano-robots qui pratiquent une chirurgie interne. Un jour une telle technologie pourrait être disponible grâce à la recherche mettant en œuvre les principes biologiques de l'auto-organisation en robotique à essaims.

Soutenus par le projet SWARM-ORGAN financé par l'UE les scientifiques ont montré comment des centaines de mini-robots pouvaient utiliser les mécanismes génétiques et cellulaires régissant la morphogénèse biologique précoce. Leurs conclusions ont été publiées récemment dans la revue "Science Robotics".

L'article explique le concept: "La morphogenèse permet à des millions de cellules de s'auto-organiser en structures complexes et prendre des formes fonctionnelles très variées pendant le développement embryonnaire. Ce processus émane des interactions locales de cellules sous le contrôle de circuits génétiques identiques dans chaque cellule, résistants au bruit intrinsèque, et capables de s'adapter à des environnements changeants." Comme indiqué dans le même article, ces attributs offrent "de véritables opportunités dans les applications robotiques en essaim allant de la construction à l'exploration".

Il conclut: "Les résultats montrent des essaims de 300 robots qui s'auto-construisent en des formes organiques et modulables, résistant aux dommages. C'est un pas vers l'émergence de la formation de formes fonctionnelles dans les essaims de robots suivant les principes de l'ingénierie morphogénétique auto-organisée."

La technologie humaine inspirée par la nature
Le Dr James Sharpe chef de l'unité Barcelonnaise du Laboratoire européen de biologie moléculaire a déclaré: "Nous montrons qu'il est possible d'appliquer les concepts naturels d'auto-organisation à la technologie humaine comme les robots."

Le communiqué de presse explique le processus: "S'inspirant de la biologie, les robots stockent des morphogènes: des molécules virtuelles qui transportent l'information structurante. Les couleurs indiquent la concentration en morphogène de chaque robot: le vert indique des valeurs morphogènes très élevées, le bleu et le violet indiquent des valeurs inférieures, et aucune couleur n'indique une absence quasi-totale du morphogène dans le robot."

Les robots transmettent ces informations à leurs voisins par messagerie infrarouge. "En cela les robots sont semblables à des cellules biologiques car eux aussi ne peuvent communiquer directement qu'avec d'autres cellules physiquement proches d'eux. ... L'essaim prend différentes formes en déplaçant les robots des zones à faible concentration en morphogène vers les zones à forte concentration en morphogène – appelées “taches de turing” ce qui conduit à la croissance de protubérances qui sortent de l'essaim." Une vidéo présente la création de différentes formes dans ces essaims. L'équipe de recherche a également montré les propriétés d'auto-guérison de ces robots qui leur permettent de s'adapter aux dommages.

Le projet SWARM-ORGAN (A theoretical framework for swarms of GRN-controlled agents which display adaptive tissue-like organisation) s'est terminé en 2016. Son objectif était "d'explorer de manière exhaustive une approche spécifique – à savoir l'utilisation des RRN (réseaux de régulation génétique) – comme méthode de contrôle potentiellement puissante pour ces systèmes" selon le site web du projet. Une équipe multidisciplinaire composée d'experts aux profils variés notamment en biologie des systèmes développementaux en informatique en robotique morphogénétique et en physique a participé au projet.

Auteur: Internet

Info: https://www.techno-science.net, 27/02/2019

[ différenciation cellulaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0