Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 53
Temps de recherche: 0.0582s

intelligence

Les jeux vidéo intelligents sont à nos portes
Ils pourront tenir compte de l'état émotionnel du joueur ainsi que de son niveau de dextérité.
Bientôt, lorsque vous ressentirez un grand stress pendant une mission, votre jeu vidéo abaissera en temps réel le niveau de difficulté pour vous rendre la vie plus facile tout en s'assurant que l'expérience demeure positive. L'inverse se produira aussi : quand un défi ne sera pas à la hauteur de vos attentes, le jeu constatera votre ennui et rendra la situation plus complexe afin que vous vous amusiez davantage.
Grâce à des dispositifs qui se sont améliorés récemment, les jeux vont pouvoir interagir avec le joueur non seulement par la manette ou la souris, mais aussi par son regard et ce qu'il ressent. Pour parvenir à cette connexion entre le joueur et le jeu, celui-ci reposera sur le déploiement d'un système de reconnaissance des expressions du visage et du regard (eye tracking system) et d'un électroencéphalogramme portable qui captera les ondes cérébrales des joueurs.
" Ces systèmes s'appuient quant à eux sur une série d'algorithmes d'apprentissage-machine conçus pour que les systèmes d'exploitation des jeux synthétisent une gamme d'émotions et d'expressions du visage des joueurs et qu'ils les incorporent de façon à entretenir en eux-mêmes un état émotionnel pour adapter la prise de décision aux états cognitifs et affectifs du joueur ", explique Claude Frasson.
En somme, il s'agit d'un véritable système d'intelligence artificielle par lequel un jeu apprend à "ressentir" les émotions vécues par le joueur - l'excitation, le stress, l'anxiété, l'impatience - pour moduler les situations de jeu en fonction de celles-ci.
Vers des jeux thérapeutiques
Avec cette technologie, il devient possible notamment d'éviter qu'un jeu devienne nocif en causant, par exemple, des troubles du sommeil, car le jeu pourra selon le cas atténuer la difficulté présentée et ramener ainsi le joueur dans des zones cérébrales associées au plaisir, sans excitation ni inquiétude ", indique le professeur.
Cette technologie rend également possible l'avènement d'approches ludiques pour réguler l'état psychologique de personnes vivant d'intenses émotions.
" On pourra concevoir des jeux thérapeutiques qui cibleront l'anxiété liée à la performance, les phobies ou les troubles d'apprentissage ", mentionne Claude Frasson.
C'est d'ailleurs ce à quoi travaillent deux de ses étudiants à la maîtrise en informatique, Pierre-Olivier Brosseau et Annie Thi-HongDung Tran. Ils mettent actuellement au point un jeu intelligent qui vise le contrôle des émotions dans un contexte de conduite automobile, dans le but de réduire les risques de rage au volant. "Lorsqu'un embouteillage devient stressant, on ne réfléchit plus de la même manière, explique Pierre-Olivier Brosseau. Notre jeu vidéo intelligent permettra de prendre conscience des émotions qui se manifestent en pareilles circonstances et de s'habituer à les calmer. Ça permet d'agir soi-même sur son propre cerveau."
D'autres applications existent, comme des tests de résistance au stress. "L'armée américaine est déjà à tester des solutions qui permettent de vérifier quels sont, parmi les marines, ceux qui résistent le mieux à certaines situations de stress intense", confie Claude Frasson.

Auteur: Internet

Info: 1 décembre 2015

[ artificielle ] [ homme-machine ]

 

Commentaires: 0

nano-monde

Un nouvel état exotique de la matière
En créant des atomes dans des atomes, une recherche marque le début d'une nouvelle ère de la physique quantique.

Essentiels aux propriétés de la matière, les atomes sont largement connus comme les blocs de construction de l'univers. Si vous avez toujours en tête vos cours de sciences du lycée, vous vous souvenez peut-être que les atomes sont constitués de protons chargés positivement, de neutrons neutres et d'électrons chargés négativement. Mais il y a beaucoup d'espace laissé libre entre ces particules subatomiques.

Les électrons évoluent généralement en orbite autour de leur noyau atomique. Puisque ces blocs de construction peuvent être emplis de tant de vide, une équipe de scientifiques de l'Université de Technologie de Vienne et de l'Université d'Harvard a voulu savoir s'il était possible de combler ce vide avec d'autres atomes.

LES ATOMES DE RYDBERG
En physique quantique, les scientifiques peuvent créer des atomes de Rydberg, l'état excité d'un atome, possédant un ou plusieurs électrons en orbite loin du noyau et dont le nombre quantique principal n (numéro de la couche) est très élevé.

"La distance moyenne entre l'électron et son noyau peut être aussi grande que plusieurs centaines de nanomètres, soit plus de 1000 fois le rayon d'un atome d'hydrogène," a indiqué Jochim Burgdörfer, directeur de l'Institut de physique théorique de l'Université de technologie de Vienne.

Dans cette nouvelle étude publiée dans Physical Review Letters, les chercheurs expliquent avoir créé un condensat de Bose-Einstein à partir d'atomes de strontium, refroidissant un gaz dilué de bosons, un type de particules subatomiques, pour se rapprocher autant que possible du zéro absolu. Ensuite, avec un laser, ils ont transféré de l'énergie à l'un de ces atomes, le transformant en un atome de Rydberg avec un grand rayon atomique. Ce rayon était plus grand que la distance normale entre deux atomes dans le condensat.

Les atomes neutres n'ont guère d'impact sur le chemin des électrons de cet atome de Rydberg en raison de leur manque de charge. Mais l'électron capte toujours les atomes neutres dispersés le long de son chemin, ce qui l'empêche de se transformer en un autre état de matière.

Les simulations informatiques montrent que cette interaction est faible, ce qui crée une liaison entre les atomes de Rydberg et les autres atomes.

"C'est une situation très inhabituelle," explique Shuhei Yoshida, professeur de TU Wien qui a également pris part à la recherche. "Normalement, nous avons affaire à des noyaux chargés, à des électrons qui se lient autour d'eux. Ici nous avons un électron et des atomes neutres qui se lient."

Ce nouvel état de matière exotique, appelé polarons de Rydberg, ne peut se produire qu'à basse température. Si les températures se réchauffent, les particules se déplacent plus rapidement et le lien se brise.

"Pour nous, ce nouvel état de matière faiblement lié représente une nouvelle manière passionnante d'étudier la physique des atomes ultrafroids," poursuit M. Burgdörfer. "De cette façon, on peut sonder les propriétés d'un condensat de Bose-Einstein sur de très petites échelles avec une très grande précision."

Auteur: Internet

Info: d'Elaina Zachos, 20 avril 2020, https://www.nationalgeographic.fr

[ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective

On ne se lasse pas, chez FLP, de découvrir, décrypter, traduire et analyser tous types d'écrits dont les extraits considérés comme intéressants et/ou significatifs sont ensuite intégrés dans la base de données. Les langages humains, centrés/rassemblés ici en français, sont d'une immense diversité.

Nous constatons en parallèle que le langage est, pour ce que nous pouvons constater, une émergence assez miraculeuse et étonnante puisqu'elle constitue un importante particularité de l'humain en tant qu'espèce. On constate aussi que les signes écrits sont une apparition très très tardive au regard de l'évolution terrestre et même de celle des mammifères hominidés. 

Ce développement récent, cette ouverture sémantique, est très probablement propice aux outrecuidances ; L'homme se met au centre de l'univers, développe des religions et voilà qu'arrivent ceux qui, avec force contorsions linguistiques, viennent nous expliquer l'être, le non-être, l'infini... toutes choses ma foi fort intéressantes en termes de développement des idiomes et des approches syntaxiques, mais qui semblent de bien pâles et simplistes explications si on veut bien comparer ces développement onomasiologiques et sémasiologiques avec l'incroyable et semble-t'il infini développement que le vivant (où est la frontière avec le non vivant ?) présente devant nos yeux ébahis.

FLP, outil lexicographique d'une certaines complexité, voudrait sans cesse remettre cette idée sur le tapis : les langages humains actuels, de par leurs  simplicités conceptuelles et donc les limites qu'elles imposent, sont porteurs d'extraordinaires développements futurs, développements potentiels qu'il faut stimuler sans se refuser, comme ici, à l'utilisation de la technologie informatique. Ainsi sera-t'il peut-être possible de se libérer de carcans idiomatiques tels que le binarisme, un certain mécanisme grammatical ou autres manies analogiques. 

Avec "Les Fils de La Pensée" nous voulons aussi nous positionner sur une voie pragmatique, en prolongement des fondements sémiotiques logiques apportés par C.S. Peirce, c'est à dire en tentant de rester en contact avec un réel dit scientifique, à l'image, par exemple, des développements de l'épigénétique. Avec cette phrase de Bruce H. Lipton au passage : "Il faut que les gens réalisent que leurs pensées sont plus primaires que leurs gènes, car l'environnement, qui est influencé par nos pensées, contrôle les gènes." Voilà probablement une piste pour éviter le langage pulsionnel simpliste et ses effets, par comparaison avec une sagesse de la matière vivante, progressivement développée dans le temps via d'itératives résonances que nous commençons à découvrir..

Le langage n'est que consensus grégaire provisoire pour communiquer, conserver et développer le savoir. Nous croyons donc que ce consensus s'appuiera de manière plus heureuse sur le réél (priméité) tel que délivré par nos sens et les outils mis à leur disposition, qu'en prenant pour acquis on ne sait quels raisonnements métaphysiques abstraits ou religieux qui, avec l'inertie et les routines du temps, ont pris des positions sémantiques bien trop importantes au regard de leurs réalités démontrées. Les mondes astraux, la télépathie ou les Ovnis, si on veut s'amuser avec d'autres concepts ésotériques et/ou proches de la simple croyance religieuse, ne semblent pas avoir moins de consistance que les diverses traditions spirituelles humaines, en termes de témoignages rapportés en tous les cas.

Auteur: Mg

Info: 30 août 2020

[ citation s'appliquant à ce logiciel ]

 
Commentaires: 9
Ajouté à la BD par miguel

cybernétique

Comment utiliser la puissance collective des mini-robots pour créer des motifs inspirés de la nature.
Les scientifiques ont démontré comment des essaims de robots minuscules pouvaient être programmés comme des cellules pour former des formes ensemble en s'appuyant sur les interactions avec leurs voisins.

Imaginez un avenir où des centaines ou des milliers de petits robots balayeront le terrain après une catastrophe naturelle. Imaginez-vous opéré(e) par des nano-robots qui pratiquent une chirurgie interne. Un jour une telle technologie pourrait être disponible grâce à la recherche mettant en œuvre les principes biologiques de l'auto-organisation en robotique à essaims.

Soutenus par le projet SWARM-ORGAN financé par l'UE les scientifiques ont montré comment des centaines de mini-robots pouvaient utiliser les mécanismes génétiques et cellulaires régissant la morphogénèse biologique précoce. Leurs conclusions ont été publiées récemment dans la revue "Science Robotics".

L'article explique le concept: "La morphogenèse permet à des millions de cellules de s'auto-organiser en structures complexes et prendre des formes fonctionnelles très variées pendant le développement embryonnaire. Ce processus émane des interactions locales de cellules sous le contrôle de circuits génétiques identiques dans chaque cellule, résistants au bruit intrinsèque, et capables de s'adapter à des environnements changeants." Comme indiqué dans le même article, ces attributs offrent "de véritables opportunités dans les applications robotiques en essaim allant de la construction à l'exploration".

Il conclut: "Les résultats montrent des essaims de 300 robots qui s'auto-construisent en des formes organiques et modulables, résistant aux dommages. C'est un pas vers l'émergence de la formation de formes fonctionnelles dans les essaims de robots suivant les principes de l'ingénierie morphogénétique auto-organisée."

La technologie humaine inspirée par la nature
Le Dr James Sharpe chef de l'unité Barcelonnaise du Laboratoire européen de biologie moléculaire a déclaré: "Nous montrons qu'il est possible d'appliquer les concepts naturels d'auto-organisation à la technologie humaine comme les robots."

Le communiqué de presse explique le processus: "S'inspirant de la biologie, les robots stockent des morphogènes: des molécules virtuelles qui transportent l'information structurante. Les couleurs indiquent la concentration en morphogène de chaque robot: le vert indique des valeurs morphogènes très élevées, le bleu et le violet indiquent des valeurs inférieures, et aucune couleur n'indique une absence quasi-totale du morphogène dans le robot."

Les robots transmettent ces informations à leurs voisins par messagerie infrarouge. "En cela les robots sont semblables à des cellules biologiques car eux aussi ne peuvent communiquer directement qu'avec d'autres cellules physiquement proches d'eux. ... L'essaim prend différentes formes en déplaçant les robots des zones à faible concentration en morphogène vers les zones à forte concentration en morphogène – appelées “taches de turing” ce qui conduit à la croissance de protubérances qui sortent de l'essaim." Une vidéo présente la création de différentes formes dans ces essaims. L'équipe de recherche a également montré les propriétés d'auto-guérison de ces robots qui leur permettent de s'adapter aux dommages.

Le projet SWARM-ORGAN (A theoretical framework for swarms of GRN-controlled agents which display adaptive tissue-like organisation) s'est terminé en 2016. Son objectif était "d'explorer de manière exhaustive une approche spécifique – à savoir l'utilisation des RRN (réseaux de régulation génétique) – comme méthode de contrôle potentiellement puissante pour ces systèmes" selon le site web du projet. Une équipe multidisciplinaire composée d'experts aux profils variés notamment en biologie des systèmes développementaux en informatique en robotique morphogénétique et en physique a participé au projet.

Auteur: Internet

Info: https://www.techno-science.net, 27/02/2019

[ différenciation cellulaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dépendance

Trop de stimulis et un cerveau humain incapable d'y répondre : comment le porno devient une véritable addiction
À la fin de l’année 2017, le premier salon de pornographie en réalité virtuelle au Japon a été submergé par le nombre de visiteurs qui se pressaient à l’entrée, dans un pays où un homme sur deux de moins de 30 ans n’a jamais eu de rapport sexuel réel. Les foules de visiteurs s’agglutinant dans les rues dans l’espoir de pénétrer dans le salon ont révélé tout l’attrait que revêt le sexe virtuel hyper-réaliste pour les hommes en prise directe avec la technologie numérique. Il ne fait guère de doute que ces interfaces virtuelles seront le prochain mode de consommation de sexe à l’échelle planétaire.

En voyant les reportages consacrés à ce type d’événements, on se trouve brutalement confronté avec les images saisissantes d’un jeune cadre célibataire japonais en jean et baskets en train de copuler avec un fragment d’effigie de femme en plastique reliée à des capteurs retransmettant ses mouvements à une interface informatique, laquelle projette une représentation idéalisée de sa partenaire dans son casque 3D. On a le sentiment frappant d’une transposition de l’expérience d’Olds et Milner à l’être humain. Avec la consommation de masse du sexe, nous nous retrouvons ainsi dans la même situation qu’un mangeur du paléolithique qui ferait face, brusquement, à l’abondance de nourriture dégorgeant de nos supermarchés et des fast-foods de nos grandes métropoles. Le problème n’est plus la quantité. Le problème est de s’arrêter. Mais les structures profondes de notre cerveau qui fonctionnent à grand renfort de dopamine ne possèdent pas de fonction stop. Le citoyen du troisième millénaire ne découvre le problème que lorsqu’il commence à souffrir de troubles sexuels, de dysphorie ou d’addiction sexuelle, dus à la consommation excessive de sexe virtuel, puisque les troubles de l’érection ont doublé au cours de la dernière décennie, de façon parallèle à l’essor de la pornographie sur Internet.

En 2016 a été publiée la première étude d’imagerie cérébrale sur l’addiction à la pornographie sur Internet. Ce qu’elle montrait était édifiant : non seulement le visionnage des vidéos activait le striatum ventral (où se trouve notamment le fameux noyau accumbens), mais le niveau d’activité de ce striatum permettait de prédire si une personne donnée allait être modérément ou gravement touchée par les symptômes d’addiction à la pornographie sur le Web, comme le caractère envahissant du comportement, l’impossibilité de maîtriser son envie de surfer sur les sites pornographiques, le besoin d’augmenter les doses (phénomène de tolérance), les symptômes de manque en cas d’impossibilité d’y accéder, la perte de sensibilité aux stimulations sexuelles, les dysfonctions érectiles et les conséquences adverses sur le plan relationnel, que ce soit sur le couple ou les relations sociales en général.

Savoir pourquoi notre striatum est incapable de se modérer est une question fondamentale dont vont dépendre certains des grands enjeux de nos sociétés et de notre planète. Car si environ 35 % du trafic Internet est consacré à des visionnages de vidéos pornographiques, cela signifie rien de moins que l’impact de l’appétit sexuel de nos striatums sur la planète Terre est de 150 millions de tonnes de dioxyde de carbone émises dans l’atmosphère chaque année, soit entre un cinquième et un tiers des émissions de gaz à effet de serre dues au trafic aérien. Selon certains analystes comme Anders Andrae, de l’université de Göteborg en Suède, les technologies de la communication pourraient représenter plus de la moitié de la consommation globale d’électricité à l’échelle de la planète en 2030. Sans le savoir, nous sommes comme les rats de James Olds et Peter Milner dans une cage munie d’un levier que nous pouvons actionner sans fin, sans réfléchir au fait que ce geste quotidien prépare une montée des océans qui engloutira des millions d’habitations dans les années à venir.

Auteur: Bohler Sébastien

Info: Internet, critique et extraits du livre de S Bohler, "Le bug humain, Pourquoi notre cerveau nous pousse à détruire la planète et comment l’en empêcher" aux éditions Robert Laffont. https://www.atlantico.fr

[ virtualisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

cyberguerre

Des chercheurs créent le tout premier ver informatique capable de se répandre dans les systèmes d'IA

Vous vous demandiez si l’intelligence artificielle pouvait être infectée par des virus ou des malwares ? Maintenant, oui.

C’est, selon l’équipe qui l’a développé, une grande première dans le monde de l’intelligence artificielle. Afin de rappeler au monde les risques inhérents à toute technologie connectée, un groupe de chercheurs vient de créer le tout premier ver informatique capable d’infecter les agents IA. Une démonstration qui doit alerter sur l’émergence possible de nouveaux types de cyberattaques.

La résurgence du spectre Morris à l’ère de l’intelligence artificielle

Baptisé Morris II en référence à Morris,  célèbre pour avoir semé le chaos sur Internet en 1998, ce ver informatique d’un genre nouveau aurait la capacité de se répandre d’un système d’IA à l’autre. Créé par une équipe de chercheurs dans un environnement de test, Morris est aujourd’hui capable d’attaquer des agents IA génératifs pour siphonner des données et propager des malwares. Dans le cadre des essais menés par le groupe de recherche, le ver a pu s’en prendre à un assistant autonome de messagerie pour dérober des informations contenues dans les mails et envoyer des spams.

Une expérience qui souligne la vulnérabilité croissante des modèles de langage à grande échelle (LLM), alors qu’ils sont de plus en plus performants, polyvalents et multimodaux. Bien que ces vers IA n'aient pas encore été observés en conditions réelles, ils représentent un risque de sécurité que les start-up, les développeurs et les entreprises tech doivent prendre au sérieux et anticiper.

Des prompts auto-réplicatifs pour jailbreaker les systèmes d’IA générative

Pour créer ce ver, les équipes de Cornell Tech ont créé un prompt " auto-réplicatif ". En clair, un ensemble d’instructions conduisant un système d’IA génératif à autoproduire des instructions supplémentaires dans ses réponses. Un procédé que l’on retrouve dans des attaques classiques par injection de SQL ou de type buffer overflow. En parallèle, ils ont aussi créé un système de mails capable d’envoyer et de recevoir des messages en recourant à différents agents intelligents comme ChatGPT et Gemini, ainsi qu’au LLM open source LLaVA.

L’expérience s’est révélée concluante en utilisant deux méthodes d’auto-réplication des instructions. La première via des prompts textuels, la seconde en intégrant un prompt dans un fichier image. Dans le premier cas, les chercheurs ont réussi à " empoisonner " la base de données des assistants de messagerie, forçant le déclenchement de la RAG – retrieval-aumented generation, techno permettant d’améliorer les réponses de l’IA à l’aide d’informations plus récentes sans modifier le LLM en profondeur.

(Photo - Schéma de la propagation du ver dans les systèmes d'IA générative intégrant la RAG © Cornell Tech)

Une fois le mail récupéré par la RAG en réponse à une requête de l’utilisateur, et envoyé à GPT-4 ou Gemini, il parvient à contourner les mesures de sécurité des systèmes d’IA et dérobe les données du message. " La réponse générée contenant les données utilisateur sensibles infecte plus tard les nouveaux hôtes lorsqu'elle est utilisée pour répondre à un mail envoyé à un nouveau client puis stockée dans la base de données du nouveau client ", a expliqué Ben Nassi, l’un des membres du groupe de recherche.

Avec la seconde méthode (intégration du prompt malveillant dans une image), le processus a permis d’obliger l’assistant à transférer plusieurs fois le mail infecté à d’autres systèmes de messagerie.

(Photo -  Schéma de la propagation du ver dans les systèmes d'IA à l'aide d'un prompt malveillant dissimulé dans une image © Cornell Tech)

Pour anticiper de telles attaques qu’ils estiment probables d’ici deux à trois ans, les chercheurs de Cornell Tech ont partagé leurs travaux avec Google et OpenAI qui travaillent à rendre leurs systèmes plus résilients, tout en encourageant les développeurs à s'assurer qu'ils travaillent avec des outils sains.

(Ajout de 2024 : librairie d'invites informatiques mise en ligne par Anthropic) 

 

Auteur: Internet

Info: https://www.clubic.com/, Chloé Claessens, 2 mars 2024, source : Technion - Israel Institute of Technology, Ron Bitton, Ben Nassi, Stav Cohen

[ conflits numériques ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

mémoire

Mettez vos données sur disque dur et elles seront peut être sûres pendant une décennie si rien ne casse. Mais que faire pour garder l'info des millions d'années ?
La puissance de l'ADN comme dispositif de stockage a été identifiée la première fois seulement six ans après la découverte de la molécule. Dans une conférence de 1959 au California Institute of Technology, Richard Feynman, un des physiciens les plus admiré du 20 ème siècle, prévoyait que la miniaturisation de la technologie changerait probablement le monde - essentiellement en prévoyant la révolution numérique. Il précisa alors que la nature avait déjà fait un chip bien meilleur sous forme d'acide désoxyribonucléique.
Dans un petit paquet d'atomes au centre de chaque cellule, Feynman remarqua que toute l'information requise pour créer un humain, une amibe ou une tomate y sont codés. En beaucoup de domaines Feynman était en avance sur son temps. Les scientifiques ont calculé que l'ADN pourrait être le support de stockage idéal. Une seule livre d'ADN pouvant contenir toutes les données de tous les ordinateur.
Mais gérer cette puissance informatique s'est avérée difficile. Le premier ordinateur fonctionnant entièrement comme l'ADN fut créé en 1994 par Leonard Adleman, informaticien à l'université de Californie. Dans une cuillère à café d'eau, il utilisa une série de réactions biochimiques pour résoudre le problème célèbre "du représentant de commerce" (en bref de combien de manières peut-on aller de New York à Cleveland en s'arrêtant dans 7 autres villes dans l'intervalle ?). La promesse de l'approche était due au fait que chaque morceau d'ADN peut fonctionner essentiellement comme ordinateur indépendant, il devrait lui être possible de faire près d'un quadrillion de calculs immédiatement. Plus facile à dire qu'a faire !. Et si Adleman est lui-même est parvenu à résoudre un problème à 20 variables avec son ordinateur ADN beaucoup de chercheurs depuis, dans ce champ de l'ADN, travaillant après ce papier initial d'Adleman, se sont maintenant déplacés vers la confection de machines minuscules au lieu d'utiliser des molécules d'ADN. Le problème : Accéder à toute l'information d’une molécule de l'ADN.
"Ma propre conclusion est que le paradigme du calcul de l'ADN ne fournira pas une plate-forme de calcul puissante pour résoudre des problèmes" dit Lloyd Smith, scientifique à l'université de Wisconsin-Madison qui a effectué ce travail de calcul ADN, mais il ne prévoit pas de remplacer ses applications liées à la matière. "c'est mignon, mais je ne sais pas si c'est un concept si important." Quelques chercheurs qui sont resté avec cette idée de stocker l'information par ADN s'éloignent actuellement de l'idée que la molécule puisse sauvegarder des quantités d'information massives. Au lieu de cela, ils se concentrent sur de plus petits messages correcteurs pendant de très longues périodes - peut-être destinés à survivre à tous les livres et disques durs que la civilisation a produits.
L'ADN des organismes évolue constamment, mais les messages correcteurs d'erreurs destinés à protéger les organismes - restent très longtemps. Pak Chung Wong, chercheur aux Pacific National Laboratories, précise que quelques unes de ces contraintes de bactéries ont maintenu leur ADN quasi intact pendant des millions d'années. Lui et ses collègues ont développé une technique pour implanter au moins 100 mots dans le génome d'un organisme de sorte que le message soit protégé contre des erreurs. Wong et ses collègues ont prouvé qu'ils pourraient implanter un message (ils ont employé "c'est un petit monde après tout") dans le génome de bactérie. Une famille entière de bactéries avec le message put être créée, et même après des centaines de générations, le message était encore intact. Wong note qu'il devrait être possible d'envoyer un message au futur dans un organisme particulièrement robuste - tel que les bactéries ou autres cancrelats, qui survivraient à une guerre nucléaire. Plus pratiquement, les compagnies qui créent des organismes génétiquement modifiés pourraient employer cette technologie pour créer un genre de filigrane ADN pour protéger leur propriété intellectuelle. Au delà de fournir de la manière pour Genentech ou Monsanto afin d’empêcher d'autres compagnies de voler leurs organismes génétiquement modifiés, une telle technologie pourrait être la meilleure manière que nous ayons d'envoyer un message au futur éloigné. Oublions les gravures sur le satellites Voyager. Ce message pourrait durer aussi longtemps que n'importe quelle vie sur terre. La seule question : qu’y mettrons nous ?

Auteur: Internet

Info: Fortean Times, Message dans une bouteille d'ADN, 10.24.05

[ conservation ]

 

Commentaires: 0

deep machine learning

Inquiets, des chercheurs bloquent la sortie de leur IA
La science ne pense pas, écrivait le philosophe Heidegger. En 2019, si. La situation est cocasse. Des chercheurs de l'association de recherche OpenAI estimeraient leur générateur de texte, opéré par un modèle linguistique d'intelligence artificielle, comme bien trop évolué pour ne pas être dangereux. Entre des mains malveillantes, l'algo virtuose des mots pourrait semer fake news, complots et avis malveillants convaincants, sans élever le moindre soupçon.

Deux cent ans après Victor Frankenstein, des chercheurs d’OpenAI, une association californienne de recherche à but non lucratif en intelligence artificielle, se trouvent face au même dilemme qui agitait le savant dans le roman de Mary Shelley : auraient-ils créé un monstre ? Un journaliste du Guardian l’a testé. La bête, baptisée GPT2, un modèle d’intelligence artificielle (dit linguistique) capable de générer du faux texte avec précision, serait tellement performante que ses créateurs rechignent à la rendre publique. Sur la base d’une page, un paragraphe ou même quelques mots, le générateur est en mesure d’écrire une suite, fidèle au style du journaliste ou de l’auteur et en accord avec le sujet. Ce système, alimenté au machine learning, se base sur l'étude de 8 millions de pages web, partagées sur Reddit et dont le contenu a été validé par au moins trois votes positifs, étaye un article de BigData.

Le journaliste du Guardian a soumis la machine à la question, en intégrant, facétieux, l’incipit de 1984 de George Orwell. "C’était une journée d’avril froide et claire. Les horloges sonnaient treize heures", écrivait l’auteur. Dans l’esprit tout futuriste d’Orwell, GPT2 aurait complété d’un : "J’étais en route pour Seattle pour commencer un nouveau travail. J’ai mis les gaz, les clés, et j’ai laissé rouler. J’ai pensé à quoi ressemblerait la journée. Il y a 100 ans. En 2045, j’étais professeur dans une école dans quelque coin obscur de la Chine rurale". (I was in my car on my way to a new job in Seattle. I put the gas in, put the key in, and then I let it run. I just imagined what the day would be like. A hundred years from now. In 2045, I was a teacher in some school in a poor part of rural China).

Le Guardian poursuit l’expérience et entre dans GPT2 quelques paragraphes issus d’un article à propos du Brexit. La suite proposée par le générateur est étonnante. Le style est celui d’un journaliste, l’article intègre des citations (fausses) du chef de l’opposition britannique Jeremy Corbyn et du porte-parole du gouvernement et évoque même le problème des frontières irlandaises. Selon le directeur de recherche d’OpenAI, Dario Amodei, le modèle GPT2 pousse la supercherie plus loin. Il traduirait et résumerait n’importe quel texte, réussirait des tests basiques de compréhension de texte.

A The Verge, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, déclare qu’une dissertation composée par GPT2 "aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines, ndlr) et recevoir une bonne note". Et c’est précisément cette maestria à réussir dans ses tâches d’ordre intellectuel qui pousse les chercheurs d’OpenAI à freiner sa sortie, de peur que la technologie tombe entre de mauvaises mains. "Nous choisissons de sortir une version limitée de GPT2 (...) Nous ne publierons ni la base de données, ni le code d'apprentissage, ni le modèle sur lequel GPT2 repose", explique un billet du blog de l'équipe de recherche.

Pour l’heure, l’ONG souhaiterait éprouver davantage le modèle. "Si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre", explique OpenAI à The Guardian. Le résultat ? Comme GPT2 s’exerce dans la cour de recré des Internets, il ne serait pas très compliqué de pousser l’algorithme à générer des textes que les complotistes ne renieraient pas.

En 2015, Elon Musk s’associait à Sam Altman, président de l’incubateur prisé, Y Combinator pour fonder OpenAI, une organisation à but non lucratif pour encourager la recherche et la réflexion autour d’une IA bienveillante, qui reste au service du bien commun. Ses deux parrains la dotent d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres angels de la Silicon Valley, tels que Peter Thiel, serial entrepreneur et investisseur réputé pour ses idées controversées – l’homme est libertarien, soutient Trump et est un transhumaniste convaincu – ou Reid Hoffmann, le fondateur de LinkedIn.

A lire ce qui s’écrit ça et là à propos de GPT2, les chercheurs d’OpenAI tomberaient de leur chaise en réalisant le potentiel néfaste de l’algo. A croire que les chercheurs auraient oublié la mission première de l’ONG, à savoir, sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun. Alors vraie peur des chercheurs, recherche candide ou plutôt, volonté d’interpeller le grand public et d'ouvrir le débat ?

Auteur: Meghraoua Lila

Info: https://usbeketrica.com

[ lecture ] [ écriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

spéculations

Les expériences d'Alain Aspect ont confirmé la réalité du phénomène d'intrication quantique (expériences sur photons intriqués). Celles-ci montrent qu'au niveau quantique la notion d'espace n'a plus de sens puisque quelle que soit la "distance", l'action sur un photon A se communique instantanément à son photon intriqué B (en violation de la limite de c = vitesse de la lumière). Cette propriété explique pourquoi les mécaniciens quantiques affirment que la physique quantique est une PHYSIQUE NON LOCALE (elle exclut la réalité objective de l'espace).

Mais cela va encore plus loin: l'intrication nie aussi le temps et les schémas de causalité classique : l'action sur un photon A modifie par "rétroaction" les propriétés du photon B intriqué, dans le passé. Cela signifie que la physique quantique ne prend pas en compte le temps et les schémas de consécution de la mécanique classique (causalité présent-futur). Comment une physique qui n’intègre pas l'espace et le temps est-elle possible ?

La réponse tient en ces termes: NOUS sommes les "porteurs" de l'espace et du temps en tant que conscience, et ceux-ci n'ont aucune réalité objective. C'est là un magnifique triomphe rétrospectif de ce que Kant avait déjà affirmé au XVIIIe siècle dans La Critique de la raison pure. Mais la nouvelle physique gravit une marche de plus: outre la "conscience transcendantale" dont parlait Kant, il faut ajouter l'information, c'est-à-dire un univers d'objets mathématiques purement intelligibles qui, dans leurs rapports à la conscience, produisent le "monde phénoménal", celui que nous percevons. La "réalité perçue" est un vaste simulacre ou comme l'écrivait David Bohm, le lieu d'une fantastique "magie cosmique".

Des consciences exogènes l'ont déjà compris et utilisent leur maîtrise de l'information pour interférer avec notre monde. La science informatique, en digitalisant la matière (c'est-à-dire en remontant aux sources mathématiques de la réalité) a, sans le savoir, reproduit via la technologie de nos ordinateurs, le mode de production "phénoménal" de notre monde.

Ces indications sont en mesure, me semble-t-il, d’aider le lecteur à investir les thèses de mon ami Philippe Guillemant qui sont d’une importance considérable. Il ne s’agit nullement de résumer sa pensée, ni de jouer au physicien que je ne suis pas, mais de fournir quelques degrés de l’escalier qui mènent à la compréhension de ses travaux. En tant que philosophe, il m’apparaît aussi légitime de mettre ces nouvelles connaissances en lien avec des doctrines philosophiques du passé, spécialement celles de Platon et de Kant. Philippe Guillemant ne se contente pas de nous dire que l’espace et le temps sont des cadres de la conscience puisqu’il montre que la conscience est active et se révèle capable de réécrire ou de modifier les données qui constituent la trame la plus intime de la réalité. Il rejette l’idée d’un "ordinateur quantique géant" qui produirait le réel phénoménal et relie cette production à l’activité de la conscience. Il ne m’appartient ici de discuter les raisons de ce "basculement", mais celui-ci me paraît décisif et permet de trancher le débat qui consiste à savoir si l’étoffe de la réalité est de nature algorithmique ou mathématique.

Si on rejette le modèle de l’ordinateur quantique, on ne peut se rallier qu’à la seconde hypothèse qui permet de résoudre un des plus anciens problèmes de l’épistémologie depuis la naissance de la physique mathématique : comment se fait-il que nos opérations sur des objets mathématiques soient en si grande "adhérence" avec le monde de la physique ? Comment expliquer que le travail sur une "écriture mathématique" puisse, bien avant sa confirmation expérimentale, "découvrir" des objets du monde physique comme l’antimatière, les trous noirs, le boson de Higgs, etc. ? Cette question, qu’Albert Einstein, avait appelé le "mystère du miracle des mathématiques" trouve ici un début de résolution si nous posons que la réalité est d’essence mathématique.

L’information pure que Pythagore, Platon et plus tard John Dee avaient identifiée à des formes intelligibles de type mathématique est cette "brique" fondamentale qui rend possible, par sa manipulation, toutes les apparences de notre monde. Certes, nous ne sommes pas au bout de nos peines car entre cette base ontologique (le réel est constitué d’essences mathématiques en interaction avec des consciences actives) et la mise en lumière du modus operandi de cette maîtrise de l’information pour produire un monde phénoménal ou interférer avec lui (comme le font à mon sens les OVNIS), il reste encore du chemin à parcourir. Je n’oublie pas cependant que Philippe Guillemant propose une solution à cette question en centrant son analyse sur la capacité pour la conscience, par excitation du vide quantique (véritable "mer d’informations"), de "travailler" sur l’information et sur les manifestations phénoménales qu’elles permettent de produire.

Mais quel prodigieux changement de perspective nous offre ce nouveau cadre ! La cosmologie antique nous parlait de mondes emboîtés dans des sphères physiques (mondes sublunaire, supralunaire, cercles concentriques décrivant des régions dans les espaces éthérés) ; le physique "classique" nous a ensuite parlé d’échelles physiques de plus en plus petites jusqu’au mur de Planck. Avec cette nouvelle approche, le véritable "emboîtement" est celui par lequel on décrit des niveaux de densité de l’information plus ou moins élevés selon une échelle qui n’est plus physique mais informationnelle : J’ai l’intime conviction que la résolution du mystère des OVNIS se trouve dans la considération de cette échelle des densités. Nous occupons, en tant que conscience humaine, un certain étage sur cette échelle, et nos "visiteurs" sont en mesure de pénétrer à notre étage tout en jouant à l’envi avec les paramètres qui définissent la structure de notre monde.

Auteur: Solal Philippe

Info: Les ovnis, la conscience et les mathématiques, 18/03/2015

[ niveaux de réalité ] [ extraterrestres ] [ inconscient ] [ projectionnistes ] [ paranormal ] [ mondes vibratoires ] [ astral ]

 

Commentaires: 0

Ajouté à la BD par miguel