Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 16
Temps de recherche: 0.0389s

combat

Furieuse, la bête se cabra et a tortilla ses intégrales itérées sous les coups polynomiaux du roi, s'écroula en une série infinie de termes indéterminés, puis se releva, montant à la puissance n, mais le roi l'avait tellement abreuvée de différentielles et de dérivées partielles que ses coefficients de Fourier s'annulèrent tous (voir le lemme de Riemann), et dans la confusion qui s'en suivit, les constructeurs perdirent complètement de vue tant le roi que la bête. Ils firent donc une pause, se dégourdirent les jambes, burent une gorgée de la cruche de Leyde pour reprendre des forces, puis se remirent au travail et recommencèrent depuis le début, en déployant cette fois tout leur arsenal de matrices tensorielles et de grands ensembles canoniques, attaquant le problème avec une telle ferveur que le papier même se mit à fumer. Le roi, s'étant précipité avec toutes ses coordonnées cruelles et ses valeurs moyennes, trébucha dans une sombre forêt de racines et de logarithmes, et dut faire marche arrière, puis il rencontra la bête sur un champ de nombres irrationnels (F1) et la frappa si durement qu'elle perdit deux décimales et un epsilon, mais la bête avait glissé autour d'une asymptote pour se cacher dans un espace de phase orthogonal à n dimensions, puis, ayant subi une expansion elle en ressortit, fumante de manière factorielle, et elle tomba sur le roi pour le blesser de manière passagère. Mais le roi, sans se décourager, revêtit sa cotte de mailles de Markov et tous ses paramètres imperméables, puis porta son incrément Δk à l'infini et asséna à la bête un véritable uppercut booléen, la faisant tituber à travers un axe des x et plusieurs parenthèses - mais la bête, préparée à cela, a abaissé ses cornes et... VLAN ! - Les crayons s'éparpillèrent comme des fous à travers les fonctions transcendantes et les doubles transformations, et lorsque la bête se rapprocha enfin alors que le roi était mis à terre pour le compte, les constructeurs se levèrent d'un bond, dansèrent une gigue, en riant et chantant, déchirant tous leurs papiers en lambeaux, à la grande surprise des espions juchés dans le lustre - perchés là en vain, car ils n'étaient pas initiés aux subtilités des mathématiques supérieures et n'avaient donc aucune idée de la raison pour laquelle Trurl et Klapaucius criaient maintenant, encore et encore, "Hourra ! Victoire !!!"

Auteur: Lem Stanislaw

Info: The Cyberiad

[ monde mathématique ] [ humour ] [ complexité ]

 

Commentaires: 0

Ajouté à la BD par miguel

science-fiction

Ce décodeur multi-quantique universel, en permettant de geler et de fixer certaines plages-séquences - elles-mêmes complexes enchevêtrements simultanés en mouvement - permet alors de les comparer entre elles via de très raffinées simulations. Ces simulations comparatives, qui ne sont encore que de pauvres transpositions de qualité médiocres, apportent cependant un nouvel éclairage. Ce que nous appelons un changement de paradigme véritable.

Ecoutez-moi bien : les planètes sont des matrices, chacune est le socle créateur où se développe un éco système interconnecté, évolution locale fondée et auto imprégnée des couches successives d'une évolution propre articulée sur des spécificités et des paramètres d'un temps T à un endroit E. Résultat : chaque développement organique planétaire a des bases si "originales" en terme de syntonisation de ses vibrations sources que l'intrication singulière développée sur une planète X ou Y rend la vie de sa surface invisible aux autres, sauf rarissimes exceptions que la théorie prédit mais n'a pas encore découvertes.

Par exemple nous autres ne pouvons distinguer que des amas gravitationnel rond, constitués d'atomes et de particules en apparence identiques aux nôtres, ce qui est une erreur.

C'est à dire que tout monde-sphère autre que le sien apparaît comme "désert" aux yeux de l'explorateur étranger, même si ces deux mondes sont dans le même système solaire. Les vies des planètes sont isolées les unes des autres à cause de ces déphasages.

Une autre équipe à aussi montré que deux mondes proches avec un paramétrage biophysique d'origine quasi similaire ne font pas émerger des systèmes de vie perceptibles l'un pour l'autre, ce qui donne une idée de l'infinie finesse de ces variations poly vibratoires. Tout décalage biophysique quantique originel modifie donc profondément la perception de ce que l'observateur appelle "vie non minérale évoluée" à la surface d'une planète autre que la sienne.

Ici telle planète-civilisation très ancienne et complexe apparaît comme un monde invivable parce que déchiré par de puissants cyclones sous des pressions atmosphériques inimaginables pour nous. Là une autre sphère biotope à un stade plus précoce de son évolution, qui est vue comme un enfer désertique et glacial douché par de fréquentes pluies de méthane. Ou là encore, telle planète, sans lumière parce que trop éloignée de son soleil et entièrement recouverte d'un océan-banquise instable, empêchera même d'imaginer un vie à sa surface. Et pourtant cet obscur chaudron abrite des organismes, si loin de nous que vouloir les décrire, même si c'est formellement possible, constitue une entreprise ridicule.

C'est de ces constats que naquit l'hyper-relativité.

Auteur: Mg

Info: 26 octobre 2017 - Les théories de Piel Essiarf, In "A la recherche de Zoul"

[ solipsisme planétaire ] [ dé-syntonisation ] [ limitations sensorielles ] [ niveaux vibratoires ] [ autopoïèse ] [ self-organisation ] [ exoplanètes ]

 
Mis dans la chaine
Commentaires: 2

société marchande

Reste à établir que l'adjectif "immortel" s'applique bien à nos produits, même les plus fragiles. Il y a désormais une nouvelle forme d'immortalité : la réincarnation industrielle, c'est-à-dire l'existence de produits de série. En tant qu'objet singulier (cette vis, cette machine à laver, ce microsillon "longue durée", cette ampoule électrique), chaque produit a des performances, un domaine d'application et une durée de vie limités. Mais, si on la considère en tant que marchandise de série, la nouvelle ampoule électrique ne prolonge-t-elle pas la vie de l'ancienne qui avait grillé ? Ne devient-elle pas l'ancienne ampoule ? Chaque objet perdu ou cassé ne continue-t-il pas à exister à travers l'Idée qui lui sert de modèle ? L'espoir d'exister à nouveau dès que son jumeau aura pris sa place, n'est-ce pas une consolation pour chaque produit ? N'est-il pas devenu "éternel" en devenant interchangeable grâce à la reproduction technique ? Mort, où est ta faux ?

[...]

Quand des milliers de pages sont parties en fumée lors des autodafés de livres organisés par Hitler en 1933, aucune page absolument unique n'a brûlé, à la différence de ce qui s'était produit lors de l'incendie de la bibliothèque d'Alexandrie. Chacune d'elles avait en réalité des centaines ou des milliers de sœurs. Aussi ignominieuses qu'aient pu être les intentions de l’incendiaire, d'aussi mauvais augure qu'ait pu être son geste - laissant prévoir qu'il livrerait bientôt aux flammes tout autre chose que du papier -, la destruction qu'il opérait n'était encore, à ce stade, qu'une farce. Au milieu des cris de la foule qui dansait autour des bûchers, passait invisible, légère, hors de portée des flammes, une farandole moqueuse, celle des livres originaux criant : "Brûlez nos exemplaires ! Brûlez-les ! Vous ne nous brûlerez pas pour autant !" - avant de se disperser aux quatre vents. Les livres prétendument détruits vivent toujours aujourd'hui à des milliers d'exemplaires.

[...]

Certes, le monde dans lequel nous vivons n’est pas un "royaume des Idées". Mais il est incontestablement plus "platonicien" que ne l’a jamais été le monde des hommes. Et ce pour la simple raison qu’il se compose de choses qui sont en grande partie des produits de série standardisés, des produits qui ont vu le jour en tant qu’imitations ou reproductions de modèles, de plans ou de matrices. Ils doivent leur existence à des Idées. [...] Cette possibilité de réincarnation ne prend fin que lorsque l’altération touche l’ "Idée" même du produit, c’est-à-dire lorsque l’on préfère adopter un nouveau modèle. Les milliers d’objets reproduits d’après l’ancien modèle disparaissent alors progressivement ; rien de plus aisé à comprendre.

Auteur: Anders Günther Stern

Info: Dans "L'obsolescence de l'homme", trad. de l'allemand par Christophe David, éditions Ivrea, Paris, 2002, pages 69-70

[ cycle de vie et de mort ] [ prolifération ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

sciences

Notre intelligence s'exprime différemment de celle des générations précédentes.
Des tests d'intelligence qui donnaient des résultats moyens de 100 points dans les années 60 donnent aujourd'hui des résultats de 120. C'est ce que les spécialistes de l'intelligence appellent l'effet Flynn, du nom du politologue néo-zélandais James Richard Flynn, qui a remarqué, à la fin des années 70, une progression de trois à cinq points du quotient intellectuel (QI) par décennie. Le phénomène se serait poursuivi depuis, selon plusieurs autres études.
Les nouvelles générations ne sont pas plus intelligentes que les précédentes, Serge Larivée, professeur à l'École de psychoéducation de l'Université de Montréal nous dit : "Si c'était le cas, souligne-t-il, cela voudrait dire que la génération de nos grands-parents était constituée en grande partie de déficients intellectuels, ce qui est insensé aux yeux de l'histoire."
Dans un texte qui vient de paraitre dans la revue L'année psychologique, le professeur analyse avec ses collègues Carole Sénéchal (Université d'Ottawa) et Pierre Audy (UdeM) les paradoxes de l'effet Flynn.
Les différents chercheurs qui se sont penchés sur l'effet Flynn en ont attribué la cause à des facteurs culturels plutôt qu'à des changements d'ordre génétique. Parmi ces facteurs, mentionnons une scolarisation plus précoce et plus étendue, une plus grande familiarité avec les tests d'intelligence, l'urbanisation et l'industrialisation, les changements dans les attitudes parentales, l'amélioration de la santé grâce à de meilleurs soins et à une alimentation plus équilibrée ainsi que la prolifération de médias visuels de plus en plus complexes.
Mais ce n'est pas dans tous les types de tests d'intelligence que s'observe l'effet Flynn. L'effet est plus fort dans les habiletés visuospatiales (mesurées par les matrices de Raven) et dans les compétences logiques (mesurées par les échelles de Weschler), alors qu'il est plutôt faible dans les performances verbales et mathématiques.
"Nous serions plus doués que nos ancêtres quant au raisonnement abstrait et aux aptitudes visuospatiales, sans les dépasser pour autant dans d'autres aspects de l'intelligence", écrivent les auteurs dans une version vulgarisée de leur texte paru dans la revue Sciences humaines d'octobre dernier. Ce serait donc ces compétences visuelles et de logique qui seraient davantage sollicitées et développées par notre environnement culturel d'une complexité croissante. Autrement dit, notre intelligence s'exprime différemment sans que nous soyons nécessairement plus intelligents que les générations précédentes. Nos arrière-grands-parents avaient une intelligence plus pratique, nous avons une intelligence plus abstraite.
Mais cette explication qui attribue le développement du QI à des éléments culturels ne contredit-elle pas les études, notamment réalisées auprès de jumeaux identiques, qui imputent une bonne part du QI à la génétique?
La réponse à ce paradoxe est fort simple: les gènes ne produisent leur effet qu'à la faveur d'un environnement propice à leur actualisation. Ainsi, une personne qui dispose d'un avantage génétique relativement à une habileté particulière va rechercher un environnement stimulant où son potentiel génétique va pouvoir s'exprimer. Selon les chercheurs, l'effet multiplicateur qui s'ensuit est un facteur probable de l'effet Flynn.
L'effet Flynn n'est pas ailleurs pas illimité. "Deux parents qui ont des quotients intellectuels élevés n'engendreront pas un enfant attardé, mais la probabilité qu'ils aient un enfant doté d'un QI aussi élevé qu'eux est plutôt faible", affirme Larivée. Il y aurait ainsi un retour à la normale.
La théorie de l'effet combiné des gènes et de l'environnement nous dit aussi qu'un plateau est atteint lorsque l'environnement a livré tout son effet stimulant. On assiste d'ailleurs à une stabilisation du QI dans certains pays développés où les scores sont parmi les plus hauts. Des études montrent un ralentissement de la tendance, voire une stagnation, au Danemark et en Suède, alors que d'autres concluent même à un léger déclin en Angleterre et dans d'autres pays industrialisés.
Dans les pays où le QI moyen continue de croitre, c'est surtout au sein des classes les plus défavorisées qu'on observe une remontée. Serge Larivée y voit l'effet d'une éducation de qualité maintenant accessible à tous.
Si l'effet Flynn a atteint ses limites dans les pays développés, il commence à se faire sentir dans les pays en voie de développement, notamment dans certains pays africains comme le Kenya et le Soudan.
Pour le professeur, il s'agit de bonnes nouvelles. "Cela signifie que l'écart entre les plus doués et les moins doués s'amincit, de même qu'il se réduit entre les pays riches et les pays pauvres. Cela signifie aussi qu'un environnement stimulant peut bénéficier aux plus démunis.

Auteur: Baril Daniel

Info: fév. 2013

[ anthropologie ] [ société ] [ évolution ] [ descendances ]

 

Commentaires: 0

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Une nouvelle approche du calcul réinvente l'intelligence artificielle

Par l'imprégnation d'énormes vecteurs de sens sémantique, nous pouvons amener les machines à raisonner de manière plus abstraite et plus efficace qu'auparavant.

M
algré le succès retentissant de ChatGPT et d'autres grands modèles de langage, les réseaux de neurones artificiels (ANN) qui sous-tendent ces systèmes pourraient être sur la mauvaise voie.

D'une part, les ANN sont "super gourmands en énergie", a déclaré Cornelia Fermüller , informaticienne à l'Université du Maryland. "Et l'autre problème est [leur] manque de transparence." De tels systèmes sont si compliqués que personne ne comprend vraiment ce qu'ils font, ou pourquoi ils fonctionnent si bien. Ceci, à son tour, rend presque impossible de les amener à raisonner par analogie, ce que font les humains - en utilisant des symboles pour les objets, les idées et les relations entre eux.

Ces lacunes proviennent probablement de la structure actuelle des RNA et de leurs éléments constitutifs : les neurones artificiels individuels. Chaque neurone reçoit des entrées, effectue des calculs et produit des sorties. Les RNA modernes sont des réseaux élaborés de ces unités de calcul, formés pour effectuer des tâches spécifiques.

Pourtant, les limites des RNA sont évidentes depuis longtemps. Considérez, par exemple, un ANN qui sépare les cercles et les carrés. Une façon de le faire est d'avoir deux neurones dans sa couche de sortie, un qui indique un cercle et un qui indique un carré. Si vous voulez que votre ANN discerne également la couleur de la forme - bleu ou rouge - vous aurez besoin de quatre neurones de sortie : un pour le cercle bleu, le carré bleu, le cercle rouge et le carré rouge. Plus de fonctionnalités signifie encore plus de neurones.

Cela ne peut pas être la façon dont notre cerveau perçoit le monde naturel, avec toutes ses variations. "Vous devez proposer que, eh bien, vous avez un neurone pour toutes les combinaisons", a déclaré Bruno Olshausen , neuroscientifique à l'Université de Californie à Berkeley. "Donc, vous auriez dans votre cerveau, [disons,] un détecteur Volkswagen violet."

Au lieu de cela, Olshausen et d'autres soutiennent que l'information dans le cerveau est représentée par l'activité de nombreux neurones. Ainsi, la perception d'une Volkswagen violette n'est pas codée comme les actions d'un seul neurone, mais comme celles de milliers de neurones. Le même ensemble de neurones, tirant différemment, pourrait représenter un concept entièrement différent (une Cadillac rose, peut-être).

C'est le point de départ d'une approche radicalement différente de l'informatique connue sous le nom d'informatique hyperdimensionnelle. La clé est que chaque élément d'information, comme la notion d'une voiture, ou sa marque, son modèle ou sa couleur, ou tout cela ensemble, est représenté comme une seule entité : un vecteur hyperdimensionnel.

Un vecteur est simplement un tableau ordonné de nombres. Un vecteur 3D, par exemple, comprend trois nombres : les coordonnées x , y et z d'un point dans l'espace 3D. Un vecteur hyperdimensionnel, ou hypervecteur, pourrait être un tableau de 10 000 nombres, par exemple, représentant un point dans un espace à 10 000 dimensions. Ces objets mathématiques et l'algèbre pour les manipuler sont suffisamment flexibles et puissants pour amener l'informatique moderne au-delà de certaines de ses limites actuelles et favoriser une nouvelle approche de l'intelligence artificielle.

"C'est ce qui m'a le plus enthousiasmé, pratiquement de toute ma carrière", a déclaré Olshausen. Pour lui et pour beaucoup d'autres, l'informatique hyperdimensionnelle promet un nouveau monde dans lequel l'informatique est efficace et robuste, et les décisions prises par les machines sont entièrement transparentes.

Entrez dans les espaces de grande dimension

Pour comprendre comment les hypervecteurs rendent le calcul possible, revenons aux images avec des cercles rouges et des carrés bleus. Nous avons d'abord besoin de vecteurs pour représenter les variables SHAPE et COLOR. Ensuite, nous avons également besoin de vecteurs pour les valeurs pouvant être affectées aux variables : CERCLE, CARRÉ, BLEU et ROUGE.

Les vecteurs doivent être distincts. Cette distinction peut être quantifiée par une propriété appelée orthogonalité, ce qui signifie être à angle droit. Dans l'espace 3D, il existe trois vecteurs orthogonaux entre eux : un dans la direction x , un autre dans la direction y et un troisième dans la direction z . Dans un espace à 10 000 dimensions, il existe 10 000 vecteurs mutuellement orthogonaux.

Mais si nous permettons aux vecteurs d'être presque orthogonaux, le nombre de ces vecteurs distincts dans un espace de grande dimension explose. Dans un espace à 10 000 dimensions, il existe des millions de vecteurs presque orthogonaux.

Créons maintenant des vecteurs distincts pour représenter FORME, COULEUR, CERCLE, CARRÉ, BLEU et ROUGE. Parce qu'il y a tellement de vecteurs presque orthogonaux possibles dans un espace de grande dimension, vous pouvez simplement assigner six vecteurs aléatoires pour représenter les six éléments ; ils sont presque garantis d'être presque orthogonaux. "La facilité de créer des vecteurs presque orthogonaux est une raison majeure d'utiliser la représentation hyperdimensionnelle", a écrit Pentti Kanerva , chercheur au Redwood Center for Theoretical Neuroscience de l'Université de Californie à Berkeley, dans un article influent de 2009.

L'article s'appuyait sur des travaux effectués au milieu des années 1990 par Kanerva et Tony Plate, alors étudiant au doctorat avec Geoff Hinton à l'Université de Toronto. Les deux ont développé indépendamment l'algèbre pour manipuler les hypervecteurs et ont fait allusion à son utilité pour le calcul en haute dimension.

Étant donné nos hypervecteurs pour les formes et les couleurs, le système développé par Kanerva et Plate nous montre comment les manipuler à l'aide de certaines opérations mathématiques. Ces actions correspondent à des manières de manipuler symboliquement des concepts.

La première opération est la multiplication. C'est une façon de combiner les idées. Par exemple, multiplier le vecteur FORME par le vecteur CERCLE lie les deux en une représentation de l'idée "LA FORME est CERCLE". Ce nouveau vecteur "lié" est presque orthogonal à la fois à SHAPE et à CIRCLE. Et les composants individuels sont récupérables - une caractéristique importante si vous souhaitez extraire des informations à partir de vecteurs liés. Étant donné un vecteur lié qui représente votre Volkswagen, vous pouvez dissocier et récupérer le vecteur pour sa couleur : VIOLET.

La deuxième opération, l'addition, crée un nouveau vecteur qui représente ce qu'on appelle une superposition de concepts. Par exemple, vous pouvez prendre deux vecteurs liés, "SHAPE is CIRCLE" et "COLOR is RED", et les additionner pour créer un vecteur qui représente une forme circulaire de couleur rouge. Là encore, le vecteur superposé peut être décomposé en ses constituants.

La troisième opération est la permutation ; cela implique de réorganiser les éléments individuels des vecteurs. Par exemple, si vous avez un vecteur tridimensionnel avec des valeurs étiquetées x , y et z , la permutation peut déplacer la valeur de x vers y , y vers z et z vers x. "La permutation vous permet de construire une structure", a déclaré Kanerva. "Ça permet de gérer des séquences, des choses qui se succèdent." Considérons deux événements, représentés par les hypervecteurs A et B. Nous pouvons les superposer en un seul vecteur, mais cela détruirait les informations sur l'ordre des événements. La combinaison de l'addition et de la permutation préserve l'ordre ; les événements peuvent être récupérés dans l'ordre en inversant les opérations.

Ensemble, ces trois opérations se sont avérées suffisantes pour créer une algèbre formelle d'hypervecteurs permettant un raisonnement symbolique. Mais de nombreux chercheurs ont été lents à saisir le potentiel de l'informatique hyperdimensionnelle, y compris Olshausen. "Cela n'a tout simplement pas été pris en compte", a-t-il déclaré.

Exploiter le pouvoir

En 2015, un étudiant d'Olshausen nommé Eric Weiss a démontré un aspect des capacités uniques de l'informatique hyperdimensionnelle. Weiss a compris comment représenter une image complexe comme un seul vecteur hyperdimensionnel contenant des informations sur tous les objets de l'image, y compris leurs propriétés, telles que les couleurs, les positions et les tailles.

"Je suis pratiquement tombé de ma chaise", a déclaré Olshausen. "Tout d'un coup, l'ampoule s'est allumée."

Bientôt, d'autres équipes ont commencé à développer des algorithmes hyperdimensionnels pour reproduire des tâches simples que les réseaux de neurones profonds avaient commencé à effectuer environ deux décennies auparavant, comme la classification d'images.

Considérons un ensemble de données annotées composé d'images de chiffres manuscrits. Un algorithme analyse les caractéristiques de chaque image en utilisant un schéma prédéterminé. Il crée ensuite un hypervecteur pour chaque image. Ensuite, l'algorithme ajoute les hypervecteurs pour toutes les images de zéro pour créer un hypervecteur pour l'idée de zéro. Il fait ensuite la même chose pour tous les chiffres, créant 10 hypervecteurs "de classe", un pour chaque chiffre.

Maintenant, l'algorithme reçoit une image non étiquetée. Il crée un hypervecteur pour cette nouvelle image, puis compare l'hypervecteur aux hypervecteurs de classe stockés. Cette comparaison détermine le chiffre auquel la nouvelle image ressemble le plus.

Pourtant, ce n'est que le début. Les points forts de l'informatique hyperdimensionnelle résident dans la capacité de composer et de décomposer des hypervecteurs pour le raisonnement. La dernière démonstration en date a eu lieu en mars, lorsqu'Abbas Rahimi et ses collègues d'IBM Research à Zurich ont utilisé l'informatique hyperdimensionnelle avec des réseaux de neurones pour résoudre un problème classique de raisonnement visuel abstrait - un défi important pour les RNA typiques, et même certains humains. Connu sous le nom de matrices progressives de Raven, le problème présente des images d'objets géométriques dans, disons, une grille 3 par 3. Une position dans la grille est vide. Le sujet doit choisir, parmi un ensemble d'images candidates, l'image qui correspond le mieux au blanc.

"Nous avons dit:" C'est vraiment ... l'exemple qui tue pour le raisonnement abstrait visuel, allons-y "", a déclaré Rahimi.

Pour résoudre le problème à l'aide de l'informatique hyperdimensionnelle, l'équipe a d'abord créé un dictionnaire d'hypervecteurs pour représenter les objets dans chaque image ; chaque hypervecteur du dictionnaire représente un objet et une combinaison de ses attributs. L'équipe a ensuite formé un réseau de neurones pour examiner une image et générer un hypervecteur bipolaire - un élément peut être +1 ou -1 - aussi proche que possible d'une superposition d'hypervecteurs dans le dictionnaire ; l'hypervecteur généré contient donc des informations sur tous les objets et leurs attributs dans l'image. "Vous guidez le réseau de neurones vers un espace conceptuel significatif", a déclaré Rahimi.

Une fois que le réseau a généré des hypervecteurs pour chacune des images de contexte et pour chaque candidat pour l'emplacement vide, un autre algorithme analyse les hypervecteurs pour créer des distributions de probabilité pour le nombre d'objets dans chaque image, leur taille et d'autres caractéristiques. Ces distributions de probabilité, qui parlent des caractéristiques probables à la fois du contexte et des images candidates, peuvent être transformées en hypervecteurs, permettant l'utilisation de l'algèbre pour prédire l'image candidate la plus susceptible de remplir l'emplacement vacant.

Leur approche était précise à près de 88 % sur un ensemble de problèmes, tandis que les solutions de réseau neuronal uniquement étaient précises à moins de 61 %. L'équipe a également montré que, pour les grilles 3 par 3, leur système était presque 250 fois plus rapide qu'une méthode traditionnelle qui utilise des règles de logique symbolique pour raisonner, car cette méthode doit parcourir un énorme livre de règles pour déterminer la bonne prochaine étape.

Un début prometteur

Non seulement l'informatique hyperdimensionnelle nous donne le pouvoir de résoudre symboliquement des problèmes, mais elle résout également certains problèmes épineux de l'informatique traditionnelle. Les performances des ordinateurs d'aujourd'hui se dégradent rapidement si les erreurs causées, par exemple, par un retournement de bit aléatoire (un 0 devient 1 ou vice versa) ne peuvent pas être corrigées par des mécanismes de correction d'erreurs intégrés. De plus, ces mécanismes de correction d'erreurs peuvent imposer une pénalité sur les performances allant jusqu'à 25 %, a déclaré Xun Jiao , informaticien à l'Université de Villanova.

Le calcul hyperdimensionnel tolère mieux les erreurs, car même si un hypervecteur subit un nombre important de retournements de bits aléatoires, il reste proche du vecteur d'origine. Cela implique que tout raisonnement utilisant ces vecteurs n'est pas significativement impacté face aux erreurs. L'équipe de Jiao a montré que ces systèmes sont au moins 10 fois plus tolérants aux pannes matérielles que les ANN traditionnels, qui sont eux-mêmes des ordres de grandeur plus résistants que les architectures informatiques traditionnelles. "Nous pouvons tirer parti de toute [cette] résilience pour concevoir du matériel efficace", a déclaré Jiao.

Un autre avantage de l'informatique hyperdimensionnelle est la transparence : l'algèbre vous indique clairement pourquoi le système a choisi la réponse qu'il a choisie. Il n'en va pas de même pour les réseaux de neurones traditionnels. Olshausen, Rahimi et d'autres développent des systèmes hybrides dans lesquels les réseaux de neurones cartographient les éléments du monde physique en hypervecteurs, puis l'algèbre hyperdimensionnelle prend le relais. "Des choses comme le raisonnement analogique vous tombent dessus", a déclaré Olshausen. "C'est ce que nous devrions attendre de tout système d'IA. Nous devrions pouvoir le comprendre comme nous comprenons un avion ou un téléviseur.

Tous ces avantages par rapport à l'informatique traditionnelle suggèrent que l'informatique hyperdimensionnelle est bien adaptée à une nouvelle génération de matériel extrêmement robuste et à faible consommation d'énergie. Il est également compatible avec les "systèmes informatiques en mémoire", qui effectuent le calcul sur le même matériel qui stocke les données (contrairement aux ordinateurs von Neumann existants qui transfèrent inefficacement les données entre la mémoire et l'unité centrale de traitement). Certains de ces nouveaux appareils peuvent être analogiques, fonctionnant à très basse tension, ce qui les rend économes en énergie mais également sujets aux bruits aléatoires. Pour l'informatique de von Neumann, ce caractère aléatoire est "le mur que vous ne pouvez pas franchir", a déclaré Olshausen. Mais avec l'informatique hyperdimensionnelle, "vous pouvez simplement percer".

Malgré ces avantages, l'informatique hyperdimensionnelle en est encore à ses balbutiements. "Il y a un vrai potentiel ici", a déclaré Fermüller. Mais elle souligne qu'il doit encore être testé contre des problèmes du monde réel et à des échelles plus grandes, plus proches de la taille des réseaux de neurones modernes.

"Pour les problèmes à grande échelle, cela nécessite un matériel très efficace", a déclaré Rahimi. "Par exemple, comment [faites-vous] une recherche efficace sur plus d'un milliard d'articles ?"

Tout cela devrait venir avec le temps, a déclaré Kanerva. "Il y a d'autres secrets [que] les espaces de grande dimension détiennent", a-t-il déclaré. "Je vois cela comme le tout début du temps pour le calcul avec des vecteurs."

Auteur: Ananthaswamy Anil

Info: https://www.quantamagazine.org/ Mais 2023

[ machine learning ]

 

Commentaires: 0

Ajouté à la BD par miguel