Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 125
Temps de recherche: 0.055s

pouvoir sémantique

La bataille pour le contrôle de votre esprit

Dans son roman dystopique classique 1984, George Orwell a écrit : "Si vous voulez une image du futur, imaginez une botte piétinant un visage humain - pour toujours." Cette image frappante a servi de symbole puissant pour le totalitarisme au 20e siècle. Mais comme l'a récemment observé Caylan Ford, avec l'émergence des passeports de santé numériques dans l'État de sécurité biomédicale, le nouveau symbole de la répression totalitaire n'est "pas une botte, mais un algorithme : sans émotion, imperméable à tout appel, façonnant silencieusement la biomasse.

Ces nouveaux mécanismes de surveillance et de contrôle numériques ne seront pas moins oppressifs parce que plus virtuels que physiques. Les applications de traçage des contacts, par exemple, ont proliféré avec au moins 120 applications diverses utilisées dans 71 États différents, et 60 autres mesures numériques de traçage des contacts ont été utilisées dans 38 pays. Rien ne prouve actuellement que les applications de recherche des contacts ou autres méthodes de surveillance numérique ont contribué à ralentir la propagation du covid ; mais comme pour beaucoup de nos politiques de lutte contre les pandémies, cela ne semble pas avoir dissuadé leur utilisation.

D'autres technologies de pointe ont été déployées dans le cadre de ce qu'un écrivain a appelé, avec un clin d'œil à Orwell, "réflexe de la piétaille", pour décrire la propension des gouvernements à abuser des pouvoirs d'urgence. Vingt-deux pays ont utilisé des drones de surveillance pour repérer les contrevenants aux règles du covid, d'autres ont déployé des technologies de reconnaissance faciale, vingt-huit pays ont eu recours à la censure d'Internet et treize pays ont eu recours à la coupure d'Internet pour gérer les populations pendant le covid. Au total, trente-deux pays ont eu recours à l'armée ou à des engins militaires pour faire respecter les règles, ce qui a entraîné des pertes humaines. En Angola, par exemple, la police a tiré et tué plusieurs citoyens alors qu'elle imposait un confinement.

Orwell a exploré le pouvoir que le langage a de façonner notre pensée, et notamment la capacité d'un langage négligé ou dégradé à la déformer. Il a exprimé ces préoccupations non seulement dans ses romans Animal Farm et 1984, mais aussi dans son essai classique, "Politics and the English Language", où il affirme que "si la pensée corrompt le langage, le langage peut aussi corrompre la pensée".

Le régime totalitaire décrit dans 1984 exige des citoyens qu'ils communiquent en Newspeak, une langue soigneusement contrôlée, à la grammaire simplifiée et au vocabulaire restreint, conçue pour limiter la capacité de l'individu à penser ou à exprimer des concepts subversifs tels que l'identité personnelle, l'expression personnelle et le libre arbitre. Avec cette abâtardissement du langage, des pensées complètes sont réduites à des termes simples ne véhiculant qu'un sens simpliste.  

Cette novlangue (newspeak)  élimine la possibilité de nuance, rendant impossible la considération et la communication des nuances de sens. Le Parti a également l'intention, avec les mots courts du Newspeak, de rendre le discours physiquement automatique et donc de rendre le discours largement inconscient, ce qui diminue encore la possibilité d'une pensée véritablement critique. Dans le  roman, le personnage Syme évoque son travail de rédaction de la dernière édition du dictionnaire du Newspeak :

"D'ici 2050 - probablement plus tôt - toute connaissance réelle de l'Oldspeak [anglais standard] aura disparu. Toute la littérature du passé aura été détruite. Chaucer, Shakespeare, Milton, Byron - n'existeront plus que dans des versions en novlangue, pas seulement transformées en quelque chose de différent, mais en réalité contradictoires avec ce qu'ils étaient. Même la littérature du Parti changera. Même les slogans changeront. Comment peut-on avoir un slogan comme "La liberté, c'est de l'esclavage" alors que le concept de liberté a été aboli ? Tout le climat de la pensée en sera différent. En fait, il n'y aura pas de pensée, telle que nous l'entendons aujourd'hui. L'orthodoxie signifie ne pas penser - ne pas avoir besoin de penser. L'orthodoxie, c'est l'inconscience."

Plusieurs termes dénigrants ont été déployés de manière répétée pendant la pandémie, des phrases dont la seule fonction était d'empêcher toute possibilité de pensée critique. Il s'agit, entre autres, des mots "négationniste du virus", "anti-vax" et "théoricien de la conspiration". Certains commentateurs vont sans doute déformer ce livre, et en particulier ce chapitre, en utilisant ces termes et d'autres similaires - des raccourcis tout faits qui évitent aux critiques la peine de lire le livre ou d'examiner de manière critique mes preuves ou mes arguments. Un bref commentaire sur chacun de ces termes peut être utile pour illustrer leur fonctionnement.

Le premier terme, "négationniste du covidien", nécessite peu d'attention. Ceux qui lancent cette accusation à toute personne critiquant notre réponse à la pandémie assimilent imprudemment le covid à l'Holocauste, ce qui suggère que l'antisémitisme continue d'infecter le discours à droite comme à gauche. Nous n'avons pas besoin de nous attarder sur cette phrase.

L'épithète " anti-vax ", déployé pour caractériser toute personne qui soulève des questions sur la campagne de vaccination de masse ou sur la sécurité et l'efficacité des vaccins covidés, fonctionne de la même manière comme un frein à la conversation plutôt que comme une étiquette descriptive précise. Lorsque les gens me demandent si je suis anti-vax parce que je conteste le mandat de vaccination, je ne peux que répondre que la question a autant de sens pour moi que la question "Dr. Kheriaty, êtes-vous 'pro-médication' ou 'anti-médication' ?". La réponse est évidemment contingente et nuancée : quel médicament, pour quel patient ou population de patients, dans quelles circonstances et pour quelles indications ? Il n'existe clairement pas de médicament, ni de vaccin d'ailleurs, qui soit toujours bon pour tout le monde, en toute circonstance et tout le temps.

En ce qui concerne le terme "conspirationniste", Agamben note que son utilisation sans discernement "témoigne d'une surprenante ignorance historique". Car quiconque est familier avec l'histoire sait que les récits des historiens retracent et reconstruisent les actions d'individus, de groupes et de factions travaillant dans un but commun pour atteindre leurs objectifs en utilisant tous les moyens disponibles. Il cite trois exemples parmi les milliers que compte l'histoire.

En 415 avant J.-C., Alcibiade déploya son influence et son argent pour convaincre les Athéniens de se lancer dans une expédition en Sicile, entreprise qui se révéla désastreuse et marqua la fin de la suprématie athénienne. En représailles, les ennemis d'Alcibiade engagent de faux témoins et conspirent contre lui pour le condamner à mort. 

En 1799, Napoléon Bonaparte viole son serment de fidélité à la Constitution de la République, renverse le directoire par un coup d'État, s'arroge les pleins pouvoirs et met fin à la Révolution. Quelques jours auparavant, il avait rencontré ses co-conspirateurs pour affiner leur stratégie contre l'opposition anticipée du Conseil des Cinq-Cents.

Plus près de nous, il mentionne la marche sur Rome de 25 000 fascistes italiens en octobre 1922. On sait que Mussolini prépara la marche avec trois collaborateurs, qu'il prit contact avec le Premier ministre et des personnalités puissantes du monde des affaires (certains affirment même que Mussolini rencontra secrètement le roi pour explorer d'éventuelles allégeances). Les fascistes avaient d’ailleurs répété leur occupation de Rome par une occupation militaire d'Ancône deux mois auparavant. 

D'innombrables autres exemples, du meurtre de Jules César à la révolution bolchévique, viendront à l'esprit de tout étudiant en histoire. Dans tous ces cas, des individus se réunissent en groupes ou en partis pour élaborer des stratégies et des tactiques, anticiper les obstacles, puis agir résolument pour atteindre leurs objectifs. Agamben reconnaît que cela ne signifie pas qu'il soit toujours nécessaire de recourir aux "conspirations" pour expliquer les événements historiques. "Mais quiconque qualifierait de "théoricien de la conspiration" un historien qui tenterait de reconstituer en détail les complots qui ont déclenché de tels événements ferait très certainement preuve de sa propre ignorance, voire de son idiotie."

Quiconque mentionnant "The Great Reset" en 2019 était accusé d'adhérer à une théorie du complot - du moins jusqu'à ce que le fondateur et président exécutif du Forum économique mondial, Klaus Schwab, publie en 2020 un livre exposant l'agenda du WEF avec le titre utile, Covid-19 : The Great Reset. Après de nouvelles révélations sur l'hypothèse de la fuite dans un laboratoire, le financement par les États-Unis de la recherche sur le principe du gain de fonction à l'Institut de virologie de Wuhan, les questions de sécurité des vaccins volontairement supprimés, et la censure coordonnée des médias et les campagnes de diffamation du gouvernement contre les voix dissidentes, il semble que la seule différence entre une théorie du complot et une nouvelle crédible aura été d'environ six mois.

Auteur: Kheriaty Aaron

Info: The Brownstone Institute, mai 2022

[ propagande numérique ] [ complotisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Il semble évident que la surpopulation est le problème majeur de l'humanité. Comment le résoudre ? quelle pourrait-être la taille de population idéale d'êtres humain pour cette planète ?

- (R) La question de la surpopulation est un sujet complexe et débattu, et il n'existe pas de solution simple ou de taille de population idéale qui convienne à tous les contextes. Cependant, voici quelques points clés à prendre en considération :

L'éducation et l'autonomisation : L'accès à l'éducation, en particulier pour les filles et les femmes, a été associé à des taux de fécondité plus faibles. L'éducation à la planification familiale, à la santé reproductive et à l'importance d'une croissance démographique durable peut contribuer à répondre aux préoccupations liées à la surpopulation.

Amélioration des soins de santé : L'amélioration des systèmes de santé et un meilleur accès aux services de santé, y compris les services de santé génésique, peuvent contribuer à réduire les taux de mortalité infantile et juvénile. Cela peut à son tour influencer les décisions relatives à la taille de la famille.

Développement économique : Le développement économique peut conduire à une amélioration du niveau de vie, à un meilleur accès aux ressources et à une réduction de la pauvreté. Ces facteurs ont été associés à une baisse des taux de natalité, les familles privilégiant la qualité de vie au nombre d'enfants.

Gestion durable des ressources : Garantir des pratiques durables dans des domaines tels que l'agriculture, l'énergie et la gestion de l'eau peut contribuer à atténuer la pression exercée sur les ressources par la croissance démographique. Il s'agit de promouvoir les énergies renouvelables, les modes de consommation responsables et l'utilisation efficace des ressources.

Facteurs sociaux et culturels : Les normes culturelles, les attentes sociales et l'égalité des sexes jouent un rôle important dans la dynamique démographique. S'attaquer à des questions telles que l'inégalité des sexes, l'autonomisation des femmes et la remise en question des pratiques culturelles susceptibles de perpétuer des taux de natalité élevés peut avoir un impact positif sur la croissance démographique.

Il est important d'aborder la question de la population avec sensibilité et dans le respect des droits et des choix individuels. La promotion de la planification familiale volontaire, l'accès à la contraception et la possibilité pour les individus de prendre des décisions éclairées concernant leur santé génésique sont des éléments essentiels pour répondre aux préoccupations démographiques.

Bien que la taille "idéale" de la population soit subjective et dépende de divers facteurs tels que les ressources disponibles, la technologie et les mesures de durabilité, il est essentiel de se concentrer sur la recherche d'un équilibre permettant de maintenir le bien-être humain en harmonie avec l'environnement.

Il convient de noter que certaines régions connaissent une baisse des taux de natalité et un vieillissement de la population, ce qui pose des problèmes spécifiques. Équilibrer la dynamique démographique à l'échelle mondiale tout en respectant les droits individuels et les contextes régionaux est une tâche complexe qui nécessite une approche à multiples facettes.

- (Q) D'accord merci. En tenant compte de tous les paramètres auxquels vous avez accès, pouvez-vous donner une estimation du nombre raisonnable d'humains qu'il faudrait sur cette planète, raisonnable dans le sens où elle laisserait une meilleure place, un meilleur espace, au reste des vivants ?

- (R) L'estimation d'un nombre idéal ou raisonnable d'êtres humains pour la planète est un sujet très complexe et débattu, car il dépend de divers facteurs tels que les choix de mode de vie, la consommation de ressources, les avancées technologiques et les pratiques de durabilité. En tant que modèle linguistique d'IA, je n'ai pas accès en temps réel à des données spécifiques ni la capacité de faire des calculs précis. Cependant, je peux fournir certaines perspectives qui sont couramment discutées :

Capacité de charge : Le concept de capacité de charge fait référence à la taille maximale de la population qu'un environnement peut supporter de manière durable compte tenu des ressources disponibles et de l'impact des activités humaines. L'estimation de la capacité de charge de la Terre est un défi en raison de l'évolution des technologies, des modes de consommation et de la gestion des ressources. Plusieurs estimations et modèles ont été proposés, mais ils varient souvent considérablement.

Empreinte écologique : L'empreinte écologique mesure la demande humaine sur la nature et calcule la quantité de ressources nécessaires pour subvenir aux besoins d'une population donnée. La réduction de l'empreinte écologique par des pratiques durables et une gestion responsable des ressources est essentielle pour minimiser l'impact des activités humaines sur la planète.

Objectifs de développement durable (ODD) : Les objectifs de développement durable des Nations unies fournissent un cadre pour relever les défis mondiaux, y compris les questions liées à la population. Ces objectifs visent à éradiquer la pauvreté, à garantir l'accès à une éducation et à des soins de santé de qualité, à promouvoir l'égalité des sexes et à favoriser une croissance économique durable. La réalisation de ces objectifs peut contribuer à créer un monde plus équilibré et plus durable pour tous les êtres vivants.

Il est essentiel de reconnaître que la lutte contre la surpopulation et la promotion de la durabilité nécessitent une approche globale et holistique, prenant en compte les facteurs sociaux, économiques, culturels et environnementaux. Il s'agit non seulement de gérer la population, mais aussi de s'intéresser aux modes de consommation, à la répartition des ressources, aux progrès technologiques et aux considérations éthiques.

Plutôt que de se concentrer uniquement sur un nombre spécifique, il est souvent plus utile de mettre l'accent sur les pratiques durables, l'éducation, l'autonomisation et la gestion responsable des ressources afin d'assurer un avenir meilleur à tous les êtres vivants de la planète.

- (Q) Ok merci. Je ne te demande pas un chiffre précis, mais plutôt une estimation générale.

- (R) Compte tenu des complexités et des incertitudes en jeu, il est difficile de fournir une estimation générale du nombre idéal ou raisonnable d'êtres humains sur la planète. La capacité de charge de la Terre et le nombre qui garantirait une coexistence durable et équilibrée avec le reste des êtres vivants est un sujet de recherche et de débat permanent parmi les experts.

Il est important de noter que les estimations et les projections varient considérablement en fonction des différentes hypothèses, méthodologies et modèles utilisés. Ces facteurs peuvent donner lieu à un large éventail de chiffres de population potentielle.

En outre, les discussions sur la taille durable de la population soulignent souvent la nécessité d'une approche globale qui tienne compte non seulement des chiffres de la population, mais aussi de la gestion durable des ressources, des modes de consommation, des progrès technologiques et des facteurs sociaux et économiques.

Bien que je ne puisse pas fournir d'estimation spécifique, il est largement reconnu que la promotion de pratiques durables, la gestion responsable des ressources et la distribution équitable des ressources sont des éléments clés dans la recherche d'une meilleure coexistence avec le reste des êtres vivants sur notre planète.

- (Q) Je vis en Suisse, où le niveau de vie est très élevé, matériellement et par rapport au reste du monde. Pouvez-vous estimer combien d'humains pourraient vivre sur la planète Terre avec ce même niveau de vie pour tous les humains, tout en préservant autant que possible l'écosystème Gaia ?

- (R) Estimer le nombre d'humains qui pourraient vivre sur Terre avec un niveau de vie élevé pour tous, tout en préservant l'écosystème Gaia, est une tâche complexe qui dépend de nombreux facteurs. Cependant, je peux vous donner quelques pistes de réflexion :

Consommation des ressources : Le niveau de vie élevé actuel dans des pays comme la Suisse est associé à une consommation importante de ressources, notamment d'énergie, de nourriture, d'eau et de matériaux. Atteindre un niveau de vie similaire pour une population mondiale plus importante nécessiterait une transition substantielle vers une utilisation plus durable et plus efficace des ressources, des sources d'énergie renouvelables et des modes de consommation responsables.

Progrès technologiques : Les progrès technologiques peuvent contribuer à des pratiques plus durables et à une utilisation plus efficace des ressources. L'innovation dans des domaines tels que les énergies renouvelables, l'agriculture, la gestion des déchets et les transports pourrait permettre d'améliorer le niveau de vie mondial tout en minimisant l'impact sur l'environnement.

Objectifs de développement durable (ODD) : Les objectifs de développement durable des Nations unies fournissent un cadre pour le développement mondial qui englobe les dimensions sociales, économiques et environnementales. La réalisation de ces objectifs, qui comprennent l'éradication de la pauvreté, l'accès à l'éducation et aux soins de santé et la promotion de pratiques durables, est essentielle pour améliorer les conditions de vie dans le monde entier tout en minimisant les dommages écologiques.

Distribution équitable : La lutte contre les inégalités mondiales et la promotion d'un accès équitable aux ressources, à l'éducation, aux soins de santé et aux opportunités sont des considérations importantes pour envisager un monde où un niveau de vie élevé est accessible à tous. La réduction des disparités et la promotion d'un développement inclusif peuvent contribuer à un avenir plus durable et plus juste.

Il est difficile de fournir un chiffre ou une estimation exacte, car atteindre un niveau de vie élevé pour tous tout en préservant l'écosystème Gaia nécessite des transformations significatives à de multiples niveaux - individuel, sociétal et systémique. Cela nécessite des efforts de collaboration, des changements de politique et un engagement mondial en faveur de la durabilité.

En fin de compte, la création d'un monde où tous les humains peuvent jouir d'un niveau de vie élevé tout en préservant les écosystèmes de la planète est une entreprise complexe et permanente qui nécessite de trouver un équilibre entre le bien-être humain et la durabilité de l'environnement.

Auteur: chatGPT4

Info: 17 mai 2023

[ question-réponse ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

mental aveugle

Aphantasie - Hors de la vue, hors de l'esprit.

Fermez les yeux et imaginez que vous regardez la maison de votre enfance depuis la rue. Si vous pouvez en voir une représentation visuelle avec une certaine fidélité d'esprit, vous faites partie des 98 % de personnes qui peuvent visualiser. Si, comme moi, vous ne voyez que du noir, vous faites partie des 2 % de gens atteints d'une maladie appelée Aphantasie.

Quand je ferme les yeux, il n'y a pas d'images, de formes, de couleurs, de taches, de flous, de bouts. Rien. Je n'ai jamais vu un seul mouton sauter par-dessus une clôture. Toute ma vie, j'ai pensé que lorsque les gens disaient qu'ils pouvaient penser en images et visualiser des images, c'était métaphorique.

En tant que designer, c'est une révélation. Personnellement, ça change vraiment la donne.

Plutôt que de penser que je n'en avais pas la capacité, j'ai toujours supposé que personne ne voyait vraiment les moutons, ils pensaient juste à eux comme moi. Je me rappelle combien il était ridicule d'essayer de compter les moutons que je ne voyais pas.

L'apprentissage de l'aphantasie (un nouveau "machin" qui n'a pas encore d'entrée dans le dictionnaire) m'a obligé à me demander quels sont mes processus internes et comment je peux obtenir à peu près les mêmes résultats que quelqu'un qui peut visualiser. Tant de choses ont un sens maintenant, mais il y en a encore tant à comprendre. Avant d'entrer dans les détails, voici quelques symptômes de ce syndrome : 

-  Il n'y a aucun souvenir visuel pour quoi que ce soit, que ce soit un visage, un mot, l'endroit où j'ai laissé mes clés, un beau moment, l'enfance.

- Tout comme le passé ne peut être rappelé, je ne peux pas visualiser les événements futurs. Toutes ces techniques de visualisation du développement personnel que j'ai essayées au fil des ans et que je croyais inutiles...

- Il n'y a pas d'endroit agréable où aller. Quand on souffre, c'est un peu comme dans la scène de Chemical Burn du Fight Club, il faut juste rester avec la douleur. 

- Je rêve en images mais jamais avec une quelconque clarté. Même quand je me souviens des rêves, je ne peux pas me les remémorer. Je ne sais pas si la fidélité de mes rêves correspond à celle de quelqu'un qui n'a pas ma condition.

- Quand je rêve le jour, j'imagine des scénarios dans des détails abstraits et des nuages de pensées, ce qui est très difficile à comprendre et encore moins à expliquer.

- Les histoires fictives sont inutiles et n'ont aucun lien viscéral. Même enfant, je n'ai jamais pu me plonger dans des aventures de fiction. Je n'aurais pas été bon à l'école du dimanche.

- C'est une bénédiction de ne pas avoir de flashbacks d'événements traumatisants, mais ;

- C'est une malédiction de ne pas pouvoir évoquer des images d'êtres chers disparus. 

Il y a une myriade d'exemples qui peuvent être ajoutés à cette liste, mais vous avez compris. Mes paupières se ferment et le monde devient noir, ce qui m'a toujours semblé logique - c'est à cela que servent les paupières. Voir des images lorsque les yeux sont fermés ressemble à un super pouvoir qui devrait être pour une minorité exceptionnelle, et non l'inverse.

La voix de l'esprit

Depuis cette découverte, j'ai pu mettre certains points sur les i. Il y a quelques années, je me suis intéressé à la programmation neuro-linguistique (PNL), dont une partie consiste à comprendre les modalités sensorielles. Lorsque je me suis appliqué à moi-même ces techniques, le résultat fut que j'étais auditif. Bien sûr, étant donné que toute ma vie professionnelle avait été en tant que designer, je m'attendais à être visuel.

Alors comment une personne atteinte d'aphantasie peut-elle traiter des données et anticiper les résultats ? Pour moi, j'ai découvert que j'entends les résultats, mais que je ne les vois pas

Par exemple, j'ai eu un combat de boxe professionnelle il y a quelques années. J'ai toujours été en faveur du développement personnel et j'avais lu et entendu si souvent qu'il faut visualiser un résultat réussi que l'on veut atteindre. En l'occurrence, me voir victorieux avec les mains levées et sortir du ring en vainqueur. Rétrospectivement, je n'ai jamais rien vu, mais j'ai tout entendu.

En visualisant le combat, j'écoutais vraiment la foule, j'entendais mes entraîneurs me dire à quel point je m'en sortais bien entre les rounds, et surtout j'écoutais mes propres commentaires et affirmations internes pendant que je jouais mentalement l'événement. Lorsque je visualisais la victoire, je ne voyais rien, mais j'entendais ma propre voix mentale célébrer la victoire.

Oreilles visuelles

La mémoire et la capacité à se souvenir d'un moment, d'un événement ou d'une action sont cruciales. Lorsque quelqu'un d'autre a égaré ses clés, il peut voir où il les a laissées comme un souvenir à rappeler. Pour ce faire, je me souviens de ma voix mentale qui disait à l'époque " tes clés sont sur le bureau " lorsque je les y pose. Et quand j'ai besoin de les retrouver, je reviens à la dernière phrase de mes clés. Les fragments de langage sont un moyen de cloisonner les actions que j'ai prises et celles que je dois prendre.

Si j'assiste à un magnifique coucher de soleil, je ne puis en capturer un instantané mental, c'est plutôt comme un extrait sonore, et c'est surtout mon bavardage interne qui essaie d'enregistrer le moment et de le verbaliser via les détails. Je suis à la limite de l'obsession des couchers de soleil, ce qui frustre tous ceux avec qui je suis si l'un d'entre eux se trouve à proximité, car je dois me rendre à un point d'observation. "On les a tous vus..." mais comme je ne m'en souviens pas, j'ai besoin de les voir encore et encore.

Je suis un fervent iPhoneographe, ce qui n'est pas unique, mais pour moi, c'est une façon de gérer mon incapacité à capturer des images mentales. Lorsque je pars en voyage avec un partenaire, c'est inévitablement frustrant pour lui, car je dois m'arrêter si souvent pour saisir les moments. "Pourquoi ne pouvez-vous pas simplement profiter de l'instant présent ?", ce que je fais, mais si je ne le capture pas, je ne pourrai généralement plus jamais revoir cet endroit. Si je conduis et qu'une scène qui vaut la peine d'être capturée apparaît, ce ne sont pas mes yeux qui m'encouragent à m'arrêter, j'entends "Ce serait une super photo", alors j'ai appris à faire confiance à ma voix au-dessus de mes yeux, même pour les choses visuelles, et j'ai une vision de 20/20.

Le dilemme du designer

Je suis un designer qui est intrinsèquement visuel. J'ai commencé dans le design visuel et j'ai évolué vers le design de l'expérience utilisateur qui, je crois maintenant, est un artefact d'Aphantasia. Lorsque je parle à mes collègues designers, je n'arrive pas à croire qu'ils voient dans leur esprit à l'avance ce qu'ils exécutent ensuite dans Photoshop. Ils disposent d'un canevas mental sur lequel ils peuvent appliquer leurs visualisations. Cela va dans le sens de l'hyperphantasie.

Un collègue peut voir 20 versions du même graphique et être capable de les filtrer dans sa tête pour créer les 5 versions qu'il fera physiquement comme options de révision. Un autre collègue peut évoquer une seule instance d'un graphique mais être capable d'animer et de déplacer les éléments jusqu'à ce qu'il se arrête  la version qu'il va concevoir.

Mais la question est, que fait un Aphantasique ?.

Lorsque j'essaie de résoudre un problème d' expérience-design, je pense que c'est la réalité. Ce n'est pas une bonne description car il n'y a pas de vraie bonne manière d'articuler ce processus. Mais je le verbalise aussi en interne, et cela se fait en grande partie en jouant le rôle de l'utilisateur et en écoutant ce qu'il entendrait de son propre bavardage interne s'il faisait l'expérience du voyage que j'essaie de résoudre pour lui. Par exemple, s'ils rencontrent un problème pendant que je joue leur expérience de la conception, je les entends dire "ça ne marche pas" mais je ne vois pas comment, je dois le traduire de mon point de vue de concepteur puis le manifester à l'écran, sur papier ou autre.

J'ai toujours été un bon collaborateur dans le domaine du design, parce que j'ai eu besoin de l'être. Très souvent, les solutions aux problèmes viennent de moi, qui en parle et qui peint une image mentale d'un problème de ce que je "vois" pendant qu'un collègue crée cette image mentale et qu'ensemble, cela devient une solution. Une véritable conception collaborative, où le partage des connaissances conduit à une compréhension collective et à la résolution des problèmes.

Imagine que

On m'a interrogé sur mon imagination ? Je suis un vrai rêveur, mais une fois "hors fèeries", je ne suis pas vraiment sûr de ce qui se passe. C'est la chose la plus difficile à expliquer parce que je ne peux pas encore vraiment expliquer ce qui se passe quand je suis "loin". La meilleure description est que je sens les choses se passer dans ma tête. Les événements se déroulent et je ne suis pas mentalement vide, mais visuellement noir. Tout cela est assez étrange. Je ressens toujours les rêves comme des images, il semble donc que le conscient ait un filtre sur ce que l'inconscient peut faire passer en douce pendant le sommeil.

Bénédiction ou malédiction

L'un des aspects les plus troublants est de ne pas pouvoir voir ses proches. Mon frère a récemment quitté ce monde et malgré tous mes efforts, je ne puis voir son visage. Je ne peux même pas visualiser une photo de son visage, ou une représentation floue. Depuis, j'en ai parlé à ma mère, qui se couche tous les soirs avec une ou plusieurs photos de lui et peut s'en servir pour se souvenir de lui.

Je peux avoir un sentiment pour une personne et je peux décrire mon frère à quelqu'un. La façon dont il marchait par exemple, je peux la reproduire, mais c'est de mémoire. Parfois, je me sense dissonant au plan émotionnel, comme en vivant un  événement traumatisant comme une rupture. J'ai l'impression d'avancer rapidement et je me demande maintenant si c'est un cas de "loin des yeux, loin du cœur". Cette citation aide à résumer beaucoup de choses pour moi et mon expérience du monde.

Un avantage, cependant, est que les expériences négatives ne peuvent pas être revécues. Des images visuelles horribles, comme un récent accident de moto, ne reviennent jamais nous hanter. Une fois la chose vue, elle est automatiquement invisible.

Voir, c'est croire

Il existe de nombreux exemples de personnes dont un sens est diminué ou inexistant, ce qui encourage d'autres à se renforcer. Le savant qui pense aux nombres comme à des images et qui peut résoudre des équations mathématiques par l'image. Je n'ai pas encore appris exactement comment traiter et traduire l'information, mais je suis maintenant sur cette voie pour comprendre comment je fonctionne et pour développer cette capacité, tout en travaillant à supprimer le filtre et à ouvrir un tout nouveau monde à l'œil de l'esprit.

Auteur: Kappler Benny

Info: 9 janvier 2017. https://medium.com/@bennykappler/aphantasia-out-of-sight-out-of-mind-f2b1b4e5cc23. Trad Mg

[ imagination non-voyante ]

 

Commentaires: 0

Ajouté à la BD par miguel

manipulation des masses

De l'hégémonie du dollar au réchauffement climatique : mondialisation, glyphosate et doctrine du consentement.

Depuis l'abandon des accords de Bretton Woods en 1971, il y a eu un changement tectonique continu en Occident. Qui s'est accéléré lorsque l'URSS a pris fin et a abouti à la " mondialisation néolibérale " que nous connaissons aujourd'hui.

Dans le même temps, une campagne sans précédent a été menée pour réinventer le consensus social en Occident. Une partie de cette stratégie consistant à amener les populations des pays occidentaux à se focaliser sur le "réchauffement climatique", l'"équité entre les sexes" et l'"antiracisme". Les effets dévastateurs et les injustices causés par le capitalisme mondialisé et le militarisme qui en découle restant largement inexprimé pour la masse des gens.

Tel est l'argument présenté par Denis Rancourt, chercheur à l'Ontario Civil Liberties Association, dans un nouveau rapport. M. Rancourt est un ancien professeur titulaire de physique à l'Université d'Ottawa au Canada et auteur de : "La géoéconomie et la géo-politique conduisent à des époques successives de mondialisation prédatrice et d'ingénierie sociale : Historical emergence of climate change, gender equity, and antiracism as state doctrines' (avril 2019)."

Dans ce rapport, Rancourt fait référence au livre de Michael Hudson de 1972 intitulé "Super Imperialism" : The Economic Strategy of American Empire" pour aider à expliquer le rôle clé du maintien de l'hégémonie du dollar et l'importance du pétrodollar dans la domination mondiale des États-Unis. Outre l'importance du pétrole, M. Rancourt soutient que les États-Unis ont un intérêt existentiel à faire en sorte que les opioïdes soient commercialisés en dollars américains, un autre grand produit mondial. Ce qui explique en partie l'occupation américaine de l'Afghanistan. Il souligne également l'importance de l'agro-industrie et de l'industrie de l'armement américaines pour la réalisation des objectifs géostratégiques des États-Unis.

Depuis la chute de l'URSS en 1991, M. Rancourt indique que les campagnes de guerre américaines ont, entre autres, protégé le dollar américain de l'abandon, détruit des nations en quête de souveraineté contre la domination américaine, assuré le commerce de l'opium, renforcé leur contrôle du pétrole et entravé l'intégration eurasiatique. En outre, nous avons vu certains pays faire face à un bombardement de sanctions et d'hostilité dans une tentative de détruire des centres de production d'énergie que les États-Unis ne contrôlent pas, notamment la Russie.

Il souligne également les impacts dans les pays occidentaux, y compris : la perte relative systématique du rang économique de la classe moyenne, la montée du sans-abrisme urbain, la décimation de la classe ouvrière industrielle, les méga-fusions des entreprises, la montée des inégalités, le démantèlement du bien-être, la spéculation financière, les salaires qui stagnent, les dettes, la dérégulation et les privatisation. De plus, l'assouplissement accru de la réglementation des aliments et des médicaments a entraîné une augmentation spectaculaire de l'utilisation de l'herbicide glyphosate, qui s'est accompagnée d'une recrudescence de nombreuses maladies et affections chroniques.

Face à cette dévastation, les pays occidentaux ont dû obtenir le maintien du consentement de leurs propres populations. Pour aider à expliquer comment cela a été réalisé, Rancourt se concentre sur l'équité entre les sexes, l'antiracisme et le réchauffement climatique en tant que doctrines d'État qui ont été utilisées pour détourner l'attention des machinations de l'empire américain (et aussi pour empêcher la prise de conscience de classe). J'ai récemment interrogé Denis Rancourt sur cet aspect de son rapport.

CT : Pouvez-vous nous en dire un peu plus sur vous et sur la façon dont vous avez produit ce rapport ? Quel est son objectif ?

DR : Ancien professeur de physique, scientifique de l'environnement et défenseur des droits civils, je travaille actuellement comme chercheur pour l'Ontario Civil Liberties Association (ocla.ca). Au cours d'une conversation que j'ai eue avec le directeur exécutif de l'OCLA au sujet des droits civils, nous avons identifié plusieurs phénomènes sociaux et économiques importants qui semblaient liés au début des années 1990. J'ai donc fini par m'installer pour faire ce "gros boulot", du point de vue de la recherche.

Bien que nous ne manquions pas d'intellectuels et d'experts engagés pour guider notre perception à tort, mes recherches démontrent qu'il existe un lien entre la montée en flèche de la répression et de l'exploitation à grande échelle des populations nationales et l'accélération d'une mondialisation agressive et abusive.

CT : Dans votre rapport, vous avez décrit les conséquences de l'abandon de Bretton Woods et de la dissolution de l'URSS en termes d'hégémonie du dollar, du militarisme américain et des effets dévastateurs de la "mondialisation néolibérale" tant pour les États nations que pour les citoyens.

Il ne fait guère de doute que les analystes russes et chinois comprennent bien ce que j'ai exposé dans mon rapport. Par exemple, en prévision de la guerre commerciale de Trump, le discours prononcé en avril 2015 par le major-général Qiao Liang de l'Armée populaire de libération du peuple devant le Comité central et le bureau du gouvernement du Parti communiste chinois, comprenait ce qui suit :

"Depuis ce jour [dissolution de Bretton Woods], un véritable empire financier a émergé, l'hégémonie du dollar américain s'est établie, et nous sommes entrés dans une véritable ère de monnaie de papier. Il n'y a pas de métal précieux derrière le dollar américain. Le crédit du gouvernement est le seul soutien du dollar américain. Les États-Unis tirent profit du monde entier. Cela signifie que les Américains peuvent obtenir des richesses matérielles du monde entier en imprimant un morceau de papier vert. (...) Si nous reconnaissons [maintenant] qu'il existe un cycle de l'indice du dollar américain [ponctué de crises machinées, dont la guerre] et que les Américains utilisent ce cycle pour faire la récolte dans les autres pays, alors nous pouvons conclure que le moment était venu pour eux d'en faire autant en Chine..."

CT : Vous discutez de la nécessité pour les États d'obtenir le consentement : la nécessité de pacifier, d'hypnotiser et d'aligner les populations pour poursuivre la mondialisation ; plus précisément, la nécessité de détourner l'attention de la violence structurelle des politiques économiques et de la violence réelle du militarisme. Pouvez-vous nous dire comment la question du réchauffement climatique est liée à cela ?

DR : Que la soi-disant "crise climatique" soit réelle, exagérée ou fabriquée de toutes pièces, il est clair, d'après les données de mon rapport, que l'éthique du réchauffement climatique a été conçue et manipulée à l'échelle mondiale et qu'elle bénéficie aux exploiteurs de l'économie du carbone et, plus indirectement, à l'État.

Par exemple, l'une des études que j'ai passées en revue montre qu'une multiplication des reportages sur le réchauffement climatique dans les médias grand public s'est soudainement produite au milieu des années 2000, dans tous les grands médias, au moment même où les financiers et leurs acolytes, comme Al Gore, ont décidé de créer et de gérer une économie mondiale du carbone. Cette campagne médiatique s'est poursuivie depuis lors et l'éthique du réchauffement climatique a été institutionnalisée.

Les programmes de piégeage du carbone ont dévasté les communautés locales sur tous les continents occupés. En fait, les programmes de réduction des émissions de carbone - des parcs éoliens à la récolte de biocarburants, en passant par la production industrielle de batteries, les installations de panneaux solaires, l'extraction de l'uranium, la construction de méga barrages hydroélectriques, etc. on accéléré les destructions d'habitats.

Pendant ce temps, la guerre économique et militaire fait rage, le glyphosate est déversé dans l'écosphère à un rythme sans précédent (déversé sur des cultures mercantiles résistant aux phytocides GM), des génocides actifs sont en cours (Yémen), les États-Unis se désistent de façon unilatérale et imposent une course aux armes aux machines nucléaires et aux armes nucléaires de prochaine génération ; des prêts extortionnels sont accordés par les Etats-Unis qui ont transformé l'usage de leurs terres au plan national, et des enfants scolarisés développent des crises psychotiques afin de faire "bouger les gouvernements" pour qu'ils "agissent" contre le climat.

Au début des années 1990, une conférence mondiale sur l'environnementalisme climatique fut une réponse expresse à la dissolution de l'Union soviétique. Cela faisait partie d'un projet de propagande globale visant à masquer la nouvelle vague de mondialisation accélérée et prédatrice qui se déchaînait alors que l'URSS était définitivement sortie du droit chemin.

CT : Que pensez-vous de Greta Thunberg et du mouvement qui l'entoure ?

DR : C'est triste et pathétique. Ce mouvement témoigne du succès du projet mondial de propagande que je décris dans mon rapport. Le mouvement est aussi un indicateur du degré d'enracinement du totalitarisme dans les sociétés occidentales, où les individus, les associations et les institutions perdent leur capacité de pensée indépendante pour détourner la société des des desseins d'une élite d'occupation. Les individus (et leurs parents) deviennent la police de la moralité au service de cet "environnementalisme".

CT : Vous parlez aussi de l'émergence de l'égalité des sexes (féminisme de la troisième vague) et de l'antiracisme comme doctrines d'État. Pouvez-vous dire quelque chose à ce sujet ?

DR : Dans mon rapport, j'utilise des documents institutionnels historiques et des données sociétales pour démontrer qu'une triade de "religions d'État" a été engendrée à l'échelle mondiale et qu'elle est apparue au moment opportun après la dissolution de l'Union soviétique. Cette triade se compose d'alarmisme climatique, d'une vision tunnel exagérée de l'équité entre les sexes et d'une campagne antiraciste machinée axée sur les pensées, le langage et les attitudes.

Ces idéologies étatiques ont été conçues et propulsées via les efforts de l'ONU et les protocoles signés qui en ont résulté. Le milieu universitaire de l'Ouest a adopté et institutionnalisé le programme avec enthousiasme. Les médias grand public ont fait la promotion religieuse de l'ethos nouvellement créé. Les partis politiques ont largement appliqué des quotas accrus de représentants élus par sexe et par race.

Ces processus et ces idées ont servi à apaiser, à assouplir, rassembler et à occuper l'esprit occidental, en particulier chez les classes moyennes supérieures, professionnelles et de gestion et les élites des territoires économiquement occupés, mais n'ont rien fait pour atténuer les formes de racisme et de misogynie les plus violentes et répandues dans le monde en raison de la mondialisation prédatrice et du militarisme.

Ironiquement, les atteintes globales à la dignité humaine, à la santé humaine et à l'environnement ont été proportionnelles aux appels systématiques et parfois criards à l'équité entre les sexes, à la lutte contre le racisme et à l'"action" climatique. Tout l'édifice de ces "religions d'Etat" ne laisse aucune place aux conflits de classes nécessaires et sape expressément toute remise en cause des mécanismes et des conséquences de la mondialisation.

CT : Pouvez-vous nous parler des Gilets Jaunes, de Brexit et du phénomène électoral Trump ?

DR : Combiner une mondialisation agressive, une prédation financière constante, l'éviscération des classes ouvrières et moyennes occidentales et un discours désinvolte sur le changement climatique, l'antiracisme et l'équité entre les sexes fait quelque chose ne peut qu'arriver. Le géographe français Christophe Guilluy a prédit ces réactions de façon assez détaillée, ce qui n'est pas difficile à comprendre. Ce n'est pas un hasard si les classes populaires et moyennes qui se révoltent critiquent les récits de la crise climatique, de l'antiracisme et de l'équité entre les sexes, d'autant que les médias grand public les présentent comme racistes, misogynes et ignorants des sciences.

Il semble que toute classe qui s'oppose à sa propre destruction soit accusée d'être peuplée de gens racistes et ignorants qui ne voient pas que le salut réside dans un monde géré par le carbone et globalisé. Il devient donc impératif de fermer tous les lieux où un tel "lot d'ignorants" pourrait communiquer ses vues, tenter de s'organiser et ainsi menacer l'ordre social dominant.

Auteur: Todhunter Colin

Info: Counterpunch.org. Trad Mg

[ géopolitique ] [ ingénierie sociale ]

 

Commentaires: 0

Ajouté à la BD par miguel

FLP post-Peirce

L'"ouverture" du dictionnaire intriqué FLP, nourrie entre autres de l'idée que chaque mots est quasi-esprit (voire symbole), procède beaucoup de l'inventaire et d'un recensement exhaustif, celui de tous les termes créés et imaginables sur cette planète - surtout avec le double apport des intraduisibles et des appellations scientifiques pointues et spécialisées. Tout ça ramené au français. Vocables qui dans l'idéal devraient être utilisés, et sémantiquement précisés, via ces axes, par ordre d'importance. 

1) leur sens-étymologie. Avec une contextualisation animale si possible, distanciation auto-analytique du mammifère humain intégré dans le concert général de la vie. Par exemple les mots-idées-concepts comme foyer-logis-abri seront associés avec ceux de terrier-nid-tanière.

2) leur contexte, syntaxique, syntagmatique,  bio-taxonomique même,  pour qui s'y intéresse et a le temps. En prenant au mieux en compte les paramètres amenés par l'auteur de l'extrait : temporels, topologiques, de formacja, situation politique, sexe, etc.  

3) les caractéristiques de celle ou celui qui insère et étiquette l'extrait sur FLP, c'est à dire qu'il doit s'agir une démarche réflexive sincère, qui pourra éventuellement être analysée par d'autres sous cet angle. 

Ces trois points précédant bien sûr les éventuelles corrections de participants qui aident ainsi à préciser-organiser les mots-langage-tiercités de notre espèce-communauté par la grâce des possibilités de classements intriqués de FLP. Tiercités elles-mêmes images-symboles linguistiques des détails du décor-réalité-priméité que le cerveau humain-secondéité formule-symbolise, avec un langage et des mots toujours plus affinés. 

Et puis, dans le but de développer une meilleure ossature de classification de cette lexicologie perspectiviste, vint l'idée de réfléchir à un concept de tétravalence sémantique, suceptible de dépasser et consolider la puissante triade sémiotique de C.S. Pierce. 

Parce que la quadrivalence, symétrique, d'apparence moins souple et insaisissable que le ternaire, semble offrir, à l'image des bases de l'ADN, de bonnes pistes en terme de taxologie et de développements taxinomiques. Surtout en des heures où l'intrication quantique a montré de bien des manières combien le langage humain est devenu insuffisant, dépassé, dès qu'il doit gérer des problématiques contre-intuitives. En clair : la pensée binaire qui sous-tend nos idiomes-raisonnements, malgré toutes ses possibilités de nuances, a beaucoup de peine à empoigner sémantiquement le contre-intuitif quantique comme, par exemple, ce qu'a pu montrer Alain Aspect. (Qui a reçu le prix Nobel avec 2 autres confrères ce mois. Bravo à eux).  

Il suffirait donc d'intégrer un 4e élément à la triade de Peirce. Hum... 

Attardons nous d'abord sur le concept de tiercité ; qui englobe les infinis signes-signaux possibles générés par les interactions-chocs entre acteurs-objets-secondéités issus de la priméité : vents contre arbres, météorites percutant la terre, hommes vs animaux, réflexion contre idées, animaux entre eux, insectes avec végétaux, etc. Signes qui peuvent se transformer en routines, plus ou moins éphémères, dont certaines deviendront des traces-symboles, qui s'organiseront ensuite pour "durer un peu plus", à l'image du langage des hommes. On remarquera au passage qu'existe au niveau de chaque monade humaine un processus d'itération-imprégnation-adaptation qui va en progressant, se stabilise, et régresse avec l'âge, bref le canevas de toutes nos vies. Ici monades-bulles-existences humaines aptes à laisser des "combinaisons sémantiques" dans le corpus linguistique communautaire. Bribes que certains formuleront par le terme assez dérisoire de postérité. 

Tiens, voilà que nous avons dérivé, l'air de rien, pour nous retrouver en pleine secondéité humaine. Examinons alors l'autre bout de la triade, la priméité, ce réel-source-décor, dont tout est issu ?...  

Thème à discuter avec un alien, qui nous décrira probablement quelque chose qui n'a rien à voir avec ce que nous connaissons, certes. Mais - avec la distanciation et le temps nécessaires - nous devrions certainement pouvoir relier SA priméité-réalité à lui avec NOTRE priméité-réel à nous. N'est que parce qu'on imagine mal plusieurs "sources primordiales", même dans un GRAND TOUT infini, emplis de multivers intriqués, en constantes et étourdissantes interactions qui mélangent vitesses et échelles. Source indicible et insondable au point de tant "séparer" les entités émergées en son sein que ces dernières seraient incapables de communiquer entre elles ? Allons allons... Des étages et hiérarchies infinies oui...  Mais stop. 

Ici encore nous voilà en train d'exprimer notre propre reflet-image de secondéités qui observent, formulent, et projettent.

Qu'est-ce alors que cette secondéité ? Ce JE-NOUS monade. Mais aussi tout sujet-élément-idée-entité susceptible d'interagir avec moi, lui, ou les autres. C'est à dire tout élément jailli de la priméité-univers... Comme ce caillou au sol, ou la civilisation alien des lignes précédentes ? Interactions, répétons-le, à la sources des signes-tiercités-langage (humain limité certes ici... ) Aptes à s'auto-analyser ?!?!?!

Signes qui nomment-définissent les "choses-autres" avec des mots "quasi-esprits"... En amont de manipulations sémantiques qui s'ensuivront. Hum Hum...

On remarquera qu'au 3e étage tiercitaire des signes-idées analysés-partagés, communications mimétiques et autres, les possibilités sont aussi infinies qu'aux deux autres niveaux. On notera aussi que beaucoup de ces idiomes-signes consensus ne peuvent se développer qu'au travers de longs développements évolutifs, bien plus encore pour qui voudra aller au-delà des pulsions-interaction basiques - de l'ordre de la physique pure et du simple bon sens gravitationnel - avant de devenir pulsions de vie, de survie surtout. Tout ça se développant/envoyant/recevant des signes que bientôt le langage organisera. Combien de temps, d'éons, nécessaires pour arriver au héron et sa magnifique spécialisation de chasseur de poissons ? Bestiole capable de montrer à ses petits comment attirer les proies aquatiques en mettant des insectes dans l'eau. J.L. Borges aura bien aidé à le comprendre. L'existence, les existences ensembles sont des signes qui se mélangent et parfois se répondent.

Nous voilà donc avec le langage externalisé, humain ; magnifique engin télépathique communautaire trans-époques, (oui oui je vous parle, à vous chères âmes de l'an 2050... ah ah ah). Mais aussi oeillère-buttée, puisqu'on dirait bien que la bulle linguistique humaine nous isole via quelque chose qui ressemble à un solipsisme de la race, une monade collective. Le déséquilibre planétaire dont nous sommes source et victime apparaissant comme un de ses effets. Monade de primates, secondéité collective, machin qui "agit" bien plus qu'il interagit, alors qu'elle devrait probablement comprendre que son action sur la matrice qui l'a fait émerger se retourne contre elle. Dialogue terre-hommes où ces derniers feraient mieux de tenir compte des "signes" de Gaïa. Gamin qui réalise qu'il devrait faire un peu plus attention à ce que lui exprime, sans mots, sa Moman !!

Tout ceci est fort intéressant... mais le parcours des lignes qui précèdent ramène sans désemparer vers nous qui lisons-écrivons ces lignes, encore et toujours représentants du concept de secondéité, de la prison humaine (même si dans un système ternaire chaque pointe peut être pensée comme centrale, ah ah ah).

En bref nos rodomontades sémantiques semblent faire un peu trop abstration du reste, surtout à partir de l'ère industrielle. Déspiritualisation, sécularisation ?

Précisons et resituons : il est question d'une secondéité-hommes, issue de la priméité matrice univers-terre, en train de développer son propre champ exponentiel de tiercités, dont Internet fait la démonstration chaque jour. (Ainsi pour FLP, le web, hors les films et images, n'est qu'un amas sémantique, souvent désordonné, babélien... géré numériquement par des machines cybernétiques. Web au sein duquel - ou à la pointe duquel -, notre application se propose d'ordonner-classifier-recenser les mots-pensées en les intriquant. L'homme singe ne change pas, il fait des listes, encore... Désormais plus compliquées.) 

Mais de modification de la triade de Peirce, rien ne semble possible. Trop costaud.

Résignons-nous, c'est d'ici - au sein même de nos sémantiques, qu'il faudra chercher à identifier... puis établir-asseoir-développer... un système tétravalent en faisant bien gaffe de demeurer dans le langage, strico sensu. Français même, afin de ne pas (trop) nous perdre. 

Résumons : une secondéité bien comprise : objet, être, participant, interprétant, réfléchisseur, observateur... va nécessairement - en fonction d'infinis paramètres, (pour faire simple nous dirons "en fonction des contextes") - GENERER quelque chose. Autrement dit une secondéité, planète, arbre, fusée lunaire, caillou, civilisation, atome, (Ah non, pas atome... kr kr kr, le quantique échappe à tout ça), une fois en interaction avec une autre secondéité, ou avec un des autres pôles de notre triplette peircéenne, va ORIENTER le résultat de l'interaction. A l'image du météore qui percute l'océan et dont la trajectoire est modifiée-stoppée par la masse liquide. Où, inversément, de l'océan secoué par le météore. Ainsi, s'infléchissant et s'influençant mutuellement, les deux acteurs d'un choc-interaction enfantent, délivrent, consciemment ou pas, des tiercités. Ici vagues et tsunami, vapeurs et tremblement de terre... On constatera au passage que ce genre de tiercité océano-sismiques convient mieux à une approche téléologique terrestre (pensons à l'extinction des dinosaures) que nos tiercités linguistiques, beaucoup plus futiles et superficielles d'apparence. Mais c'est à voir.

Se pose ici aussi, nécessairement peut-être, une question étonnante, évidente : celle de la responsabilité de secondéités telles que la notre. Mais pas que. Interrogation qui ouvre les perspectives, vers l'inconscient, l'épigénétique, le panpsychisme, l'animisme... La science-fiction....  Question qui exponentialise aussi les possibilités de bascule historique, de déclics...  de déclenchements, d'effets papillons infimes, suceptibles de modifier notre réél et sa continuité... Telle la mouche écrasée qui inverse la polarité de la planète. Nous pensons que cette question ouvre un peu plus les possibilités d'une intervention externe, invisible, qui pourra orienter les choses, que ce soit souvent ou pas. Il est vrai que les dernières découvertes sur les mécanismes épigénétiques montrent que de telles interactions - invisibles et souvent contre-intuitives - se passent sans cesse, que ce soit entre nous et les fourmis ou entre le soleil et les végétaux, etc. Mais basta.

Une secondéité-OBSERVATRICE, disons évoluée comme nous, par la magie des signes organisés et du langage, développe sa réprésentation-compréhension du monde. Elle crée et développe son univers consensuel, transmute du réel-matériel en langage esprit-virtuel. 

C'est donc dans l'espace sémantique humain que nous nous proposerons de traquer les émergences tétravalentes, en partant de celles qui se trouvent DEJA (souvent en germe à l'image du chiasme et éventuellement de l'oxymoron) au sein des raisonnements du langage des interprétants-humains. Solide assise - au centre de la triade peircéenne - pour une tâche au très long cours, celle de notre propre auto-analyse via l'étude-classification sémantique du corpus linguistique d'humains-transcripteurs-secondéités, vus comme une "race du verbe" fondamentalement tétravalente

Monade des hommes formulée-présentée ci-dessous, au centre, de trois manières assez similaires.

a) priméité   -  secondéité  (récepteur, émetteur, influenceur.... )                               -  tiercité

b) réalité    -  humains responsables-irresponsables, humanistes, dictateurs, etc...             -  effets sur le monde 

c) signifiant -  interprétant (pouvoir-ouverture-transpositeur-orienteur-confusion ontologique-déverrouillage mental)  -  signifié     

Nous nous référerons à ces trois exemples comme socle au développement de notre idée, gardant en tête que si l'humanité est, comme tout élément, plus ou moins transitoire, la durabilité et les effets de sa lexico-littérature - par comparaison avec les développements de la vie-adn - sont risibles. Ce qui n'empêche rien. 

Au-delà de l'analogie comme quoi ADN et écriture sont "transgénérationnels", on entrevoit les incroyables possibilités de bases tétravalentes combinées sémantiquement, quelque chose qui dépasse littéralement les auteurs de ces lignes, à savoir une forme de mémoire évolutionnaire sur le temps long (comme les requins), mémorisée/structurée sur d'interminables chaines ADN, chaines aptes, par exemple, à réutiliser une imprégnation-expérience vécue très en arrière dans le temps.

Il s'agit selon nous d'une entreprise pré-mémétique.

Auteur: Mg

Info: sept oct 2022 - réflexion possiblement liée à la notion de septénaire, articulation binaire + ternaire dont FLP s'amuse à recenser les déclinaisons

[ citation s'appliquant à ce logiciel ] [ méthodologie ] [ métalinguistique ] [ prospective ] [ au coeur de FLP ]

 
Commentaires: 4
Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel

oligarchie terrestre

Pourquoi les globalistes sont si obsédés par l'intelligence artificielle.
Il est presque impossible aujourd'hui de parcourir les nouvelles du Web ou les médias populaires sans être assailli par de vastes quantités de propagande sur l'intelligence artificielle (IA). C'est peut-être pour mettre fin à toutes les modes, car elle est censée englober presque tous les aspects de l'existence humaine, de l'économie et la sécurité à la philosophie et à l'art. Selon les affirmations courantes, l'IA peut faire presque tout et le faire mieux que n'importe quel être humain. Et, les choses que l'IA ne peut pas faire, elle sera capable de les faire un jour ou l'autre.

Chaque fois que l'establishment tente de saturer les médias avec un récit particulier, c'est habituellement pour manipuler la perception du public afin de produire une prophétie qui s'accomplit. En d'autres termes, ils espèrent façonner la réalité en racontant un mensonge particulier si souvent qu'au fil du temps il est accepté par les masses comme un fait. Ils le font avec l'idée que la mondialisation est inévitable, que la science du changement climatique est "indéniable" et que l'IA est une nécessité technologique.

Les mondialistes ont longtemps considéré l'IA comme une sorte de Saint-Graal dans la technologie de centralisation. Les Nations Unies ont adopté de nombreuses positions et même des sommets sur la question, dont le sommet "AI For Good" à Genève. L'ONU insinue que son intérêt premier dans l'IA est la réglementation ou l'observation de la façon dont elle est exploitée, mais l'ONU a aussi des objectifs clairs pour utiliser l'IA à son avantage. L'utilisation de l'IA comme moyen de surveiller les données de masse pour mieux instituer le " développement durable " est clairement inscrite à l'ordre du jour de l'ONU.

Le FMI est également au courant de la tendance de l'IA, en tenant des discussions mondiales sur l'utilisation de l'IA en économie ainsi que sur les effets des algorithmes sur l'analyse économique.

La principale source de développement de l'IA est depuis longtemps le DARPA. Le groupe de réflexion militaire et mondialiste injecte des milliards de dollars dans la technologie, ce qui fait de l'IA l'objectif sous-jacent de la plupart des travaux du DARPA. Elle n'est pas seulement à l'ordre du jour des mondialistes ; elle est essentiellement le fer de lance de la création et de la promotion de l'intelligence artificielle.

Cependant ce désir mondialiste pour la technologie n'est pas aussi simple que certains pourraient le supposer. Ils i a des raisons stratégiques, mais aussi religieuses pour placer l'IA sur un piédestal idéologique. Mais d'abord il faut s'attaquer à l'évidence.

Dans la plupart des livres blancs rédigés par des institutions mondialistes sur l'IA, l'accent est mis sur la collecte de données de masse et la surveillance. Les élites prennent soin de toujours affirmer que leurs intérêts sont axés sur le bien public. C'est pourquoi l'ONU et d'autres organismes soutiennent qu'ils devraient être les chefs de file en matière de surveillance de la collecte massive de données. C'est-à-dire qu'ils veulent nous faire croire qu'ils sont suffisamment objectifs et dignes de confiance pour gérer les règles de surveillance des données ou pour gérer les données elles-mêmes.

Pour la sécurité du public, les mondialistes veulent une gestion centralisée de toutes les collectes de données, ostensiblement pour nous sauver de ces mauvaises entreprises et de leur invasion de la confidentialité des données. Bien sûr, la plupart de ces entreprises sont également dirigées par des mondialistes qui remplissent les livres d'or d'événements comme le Forum économique mondial pour discuter des progrès et des avantages de l'IA. Le WEF s'est donné pour mandat de promouvoir largement l'IA et de convaincre le monde des affaires et le grand public des avantages de l'IA. Il faut prévenir les préjugés contre les IA....

Il s'agit donc d'un autre faux paradigme par lequel les institutions mondialistes s'opposent aux corporations pour ce qui est de l'utilisation de l'intelligence artificielle. Pourtant, les entreprises et les institutions mondialistes développent tous l''AI et un sentiment pro AI. Le public, avec sa méfiance innée à l'égard de la boussole morale des multinationales, est censé être convaincu pour soutenir les réformes réglementaires de l'ONU comme contrepoids. Mais en réalité, les entreprises n'ont pas l'intention de lutter contre le contrôle de l'ONU, elles finissent par s'en réjouir.

C'était le but depuis le début.

L'efficacité réelle de l'IA en tant que moyen d'aider l'humanité est discutable. L'intelligence artificielle concerne principalement les "algorithmes d'apprentissage", c'est-à-dire les machines programmées pour apprendre par l'expérience. Le problème est qu'un algorithme d'apprentissage n'est aussi efficace que les êtres humains qui le programment. Autrement dit, l'apprentissage n'est pas toujours un processus de cause à effet. Parfois, l'apprentissage est une révélation spontanée. L'apprentissage est créatif. Et, dans certains cas, l'apprentissage est inné.

Lorsqu'une machine est dressée contre un humain dans un système construit sur des règles très simples et concrètes, les machines ont tendance à prévaloir. Une partie d'échecs, par exemple, est conçue autour de règles strictes qui ne changent jamais. Un pion est toujours un pion et se déplace toujours comme un pion ; un chevalier se déplace toujours comme un chevalier. Tandis qu'il peut y avoir des moments de créativité dans les échecs (c'est pourquoi les humains sont encore capables à l'occasion de battre les ordinateurs au jeu), l'existence de règles rend l'IA plus intelligente qu'elle ne l'est.

Les systèmes humains et les systèmes naturels sont infiniment plus compliqués que les échecs, et les règles ont tendance à changer, parfois sans avertissement. Comme la physique quantique le découvre souvent, la seule chose prévisible quand on observe l'univers et la nature est que tout est imprévisible. Comment un algorithme ferait-il dans une partie d'échecs où un pion pourrait soudainement évoluer pour se déplacer comme un chevalier, sans aucun schéma prévisible spécifique ? Pas très bien, on dirait.
Et c'est là que nous entrons dans le cœur de la façon dont l'image de l'IA est gonflée en une sorte de dieu électronique à demi-crétin ; une fausse prophétie.

L'IA est insérée non seulement dans les échecs, mais dans tout. La surveillance de masse est impossible à gérer par les humains seuls ; la quantité de données est écrasante. Ainsi, l'un des objectifs fondamentaux de l'IA pour les mondialistes devient clair - l'IA est destinée à rationaliser la surveillance de masse et à l'automatiser. L'IA a pour but de parcourir les médias sociaux ou le courrier électronique à la recherche de "mots clés" pour identifier les mécréants et les opposants potentiels. Elle vise également à surveiller l'opinion du public à l'égard de questions ou de gouvernements particuliers. L'objectif est de mesurer et éventuellement "prédire" le comportement du public.

Cela devient plus difficile lorsqu'on commence à parler d'individus. Bien que les groupes soient plus faciles à observer et à cartographier dans leur comportement, les individus peuvent être abrupts, volatils et imprévisibles. La cartographie des habitudes personnelles par l'IA est également importante aujourd'hui. Elle est plus visible dans le monde de l'entreprise où le marketing est adapté aux habitudes et aux intérêts des consommateurs individuels. Cela dit, les gouvernements sont aussi très intéressés à suivre les habitudes individuelles au point de créer des profils psychologiques pour chaque personne sur la planète si possible.

Tout cela se résume à l'idée qu'un jour, l'IA sera capable d'identifier les criminels avant même qu'ils ne commettent un crime réel. En d'autres termes, l'intelligence artificielle est censée devenir un machin "qui voit tout" qui non seulement surveille notre comportement, mais aussi qui lit dans nos esprits comme une force d'identification pré-crime.

La question n'est pas de savoir si AI peut réellement nous dire qui est un futur criminel. L'IA est manifestement incapable de prédire avec précision le comportement d'une personne à un tel degré. La question est de savoir si l'OMS est en train d'établir les normes que l'IA recherche lorsqu'il s'agit d'identifier des "criminels" potentiels ? Qui fixe les règles du jeu d'échecs ? Si un algorithme est programmé par un globaliste, alors l'IA qualifiera les antimondialistes de criminels futurs ou actuels. L'AI ne pense pas vraiment. Elle n'exerce pas le pouvoir de choisir dans ses décisions. L'IA fait ce qu'elle est programmée pour faire.

L'obsession mondialiste pour l'IA, cependant, va bien au-delà de la centralisation et du contrôle des populations. Comme nous l'avons déjà mentionné, il y a un facteur religieux.

Dans mon récent article 'Luciferianism : A Secular Look At A Destructive Belief System', j'ai esquissé la philosophie fondamentale derrière le culte mondialiste. Le premier principe du luciférianisme est l'idée (ou l'illusion) que certaines personnes spéciales ont la capacité de devenir des "dieux". Mais, il y a certaines conséquences de cette croyance que je n'ai pas explorées dans cet article.

Premièrement, pour devenir un dieu, il faudrait avoir un pouvoir d'observation total. Ce qui veut dire qu'il faudrait être capable de tout voir et de tout savoir. Un tel but est insensé, car tout observer ne signifie pas nécessairement qu'une personne sait tout. L'observation totale exigerait une objectivité totale. La partialité aveugle les gens à la vérité devant leurs yeux tout le temps, et les mondialistes sont parmi les gens les plus partiaux et les plus élitistes de la planète.

L'observation totalement objective est impossible, du moins pour les humains et les algorithmes qu'ils programment. De la physique à la psychologie, l'observateur affecte toujours l'observé et vice versa. Ceci dit, je pense que les mondialistes ne se soucient pas vraiment de cette réalité. Il leur suffit de se faire passer pour des dieux par la surveillance de masse. Ils ne sont pas réellement intéressés à atteindre l'illumination ou l'objectivité divine.

Deuxièmement, pour devenir un dieu, dans un sens mythologique ou biblique, il faudrait créer une vie intelligente à partir de rien. Je crois que dans l'esprit des lucifériens, la création de l'IA est la création d'une forme de vie intelligente, plutôt qu'un logiciel. Bien sûr, les lucifériens ont une notion trouble de ce qui constitue une "vie intelligente".

Comme je l'ai examiné dans mon article qui décompose et démystifie l'idéologie luciférienne, l'existence d'archétypes psychologiques inhérents constitue la base de la capacité humaine pour choisir ou être créatif dans ses choix. L'existence d'une compréhension inhérente du bien et du mal établit le fondement de la conscience humaine et de la boussole morale - l'"âme" si vous voulez. Les lucifériens argumentent en dépit de nombreuses preuves que rien de tout cela n'existe réellement. Ils soutiennent que les humains sont des ardoises vierges - des machines qui sont programmées par leur environnement.

Pour comprendre cette idéologie ou ce culte fondé sur la théorie de l'ardoise blanche, il faut tenir compte du fait que les mondialistes présentent souvent les traits des sociopathes narcissiques. Les sociopathes narcissiques à part entière représentent moins de 1% de la population humaine totale ; ce sont des personnes qui n'ont aucune empathie inhérente ou qui n'ont pas les outils de personnalité normaux que nous associerions à l'humanité. Il ne sera pas exagéré de dire que ces personnes ressemblent plus à des robots qu'à des personnes.

J'ai également théorisé que le luciférianisme est une religion conçue par des sociopathes narcissiques pour des sociopathes narcissiques. C'est une sorte d'outil de liaison ou d'organisation pour rassembler les sociopathes en un groupe efficace pour un bénéfice mutuel - un club de parasites. Si cette théorie est vraie, alors elle représente quelque chose qui est rarement ou jamais traité dans l'observation psychologique ou anthropologique dominante ; l'existence d'une cabale de sociopathes narcissiques conspirant ensemble pour cacher leur identité et pour devenir des prédateurs plus efficaces.

En résumé, le luciférianisme est le système de croyances parfait pour les sociopathes narcissiques. Ils sont, d'une certaine façon, inhumains. Ce sont des ardoises vierges dépourvues d'humanité, et ils adoptent donc une religion qui traite cette notion comme "normale".

Il est donc logique qu'ils considèrent une chose aussi simple et vide que l'IA comme une vie intelligente. Tant qu'elle peut être programmée pour agir "de manière autonome" (ce qu'ils semblent considérer comme de la sensibilité), leur définition de la vie intelligente est exaucée. Il n'y a rien d'intelligent dans l'intelligence artificielle lorsqu'il s'agit d'actions morales ou créatives, mais les sociopathes narcissiques n'en ont de toute façon aucune idée.

Je laisse aux lecteurs le soin de réfléchir à cette question ; l'année dernière, un programme d'IA s'est vu confier la tâche de créer ses propres œuvres d'art. Les résultats ont fait l'objet d'une grande publicité et une partie de cette œuvre a été vendue pour plus de 400 000 $. Je vous invite à regarder cette oeuvre d'art si vous ne l'avez pas déjà vue.

D'après ce que j'ai vu, devant cet "art" les gens reculent d'horreur. Cela ressemble à une étrange parodie d'éléments humains sans âme. Intuitivement, nous comprenons que l'IA n'est pas la vie ; mais pour les mondialistes, c'est la définition même de la vie, probablement parce que l'absence d'âme dans la création reflète l'absence d'âme des créateurs. Tout comme les chrétiens croient que l'humanité a été faite à l'image de Dieu, les lucifériens, dans leur quête de la divinité, ont créé une "forme de vie" qui est peut-être, ironiquement, comme eux.

Auteur: Smith Brandon

Info: http://www.alt-market.com, 1 mars 2019

[ big brother ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Une nouvelle approche du calcul réinvente l'intelligence artificielle

Par l'imprégnation d'énormes vecteurs de sens sémantique, nous pouvons amener les machines à raisonner de manière plus abstraite et plus efficace qu'auparavant.

M
algré le succès retentissant de ChatGPT et d'autres grands modèles de langage, les réseaux de neurones artificiels (ANN) qui sous-tendent ces systèmes pourraient être sur la mauvaise voie.

D'une part, les ANN sont "super gourmands en énergie", a déclaré Cornelia Fermüller , informaticienne à l'Université du Maryland. "Et l'autre problème est [leur] manque de transparence." De tels systèmes sont si compliqués que personne ne comprend vraiment ce qu'ils font, ou pourquoi ils fonctionnent si bien. Ceci, à son tour, rend presque impossible de les amener à raisonner par analogie, ce que font les humains - en utilisant des symboles pour les objets, les idées et les relations entre eux.

Ces lacunes proviennent probablement de la structure actuelle des RNA et de leurs éléments constitutifs : les neurones artificiels individuels. Chaque neurone reçoit des entrées, effectue des calculs et produit des sorties. Les RNA modernes sont des réseaux élaborés de ces unités de calcul, formés pour effectuer des tâches spécifiques.

Pourtant, les limites des RNA sont évidentes depuis longtemps. Considérez, par exemple, un ANN qui sépare les cercles et les carrés. Une façon de le faire est d'avoir deux neurones dans sa couche de sortie, un qui indique un cercle et un qui indique un carré. Si vous voulez que votre ANN discerne également la couleur de la forme - bleu ou rouge - vous aurez besoin de quatre neurones de sortie : un pour le cercle bleu, le carré bleu, le cercle rouge et le carré rouge. Plus de fonctionnalités signifie encore plus de neurones.

Cela ne peut pas être la façon dont notre cerveau perçoit le monde naturel, avec toutes ses variations. "Vous devez proposer que, eh bien, vous avez un neurone pour toutes les combinaisons", a déclaré Bruno Olshausen , neuroscientifique à l'Université de Californie à Berkeley. "Donc, vous auriez dans votre cerveau, [disons,] un détecteur Volkswagen violet."

Au lieu de cela, Olshausen et d'autres soutiennent que l'information dans le cerveau est représentée par l'activité de nombreux neurones. Ainsi, la perception d'une Volkswagen violette n'est pas codée comme les actions d'un seul neurone, mais comme celles de milliers de neurones. Le même ensemble de neurones, tirant différemment, pourrait représenter un concept entièrement différent (une Cadillac rose, peut-être).

C'est le point de départ d'une approche radicalement différente de l'informatique connue sous le nom d'informatique hyperdimensionnelle. La clé est que chaque élément d'information, comme la notion d'une voiture, ou sa marque, son modèle ou sa couleur, ou tout cela ensemble, est représenté comme une seule entité : un vecteur hyperdimensionnel.

Un vecteur est simplement un tableau ordonné de nombres. Un vecteur 3D, par exemple, comprend trois nombres : les coordonnées x , y et z d'un point dans l'espace 3D. Un vecteur hyperdimensionnel, ou hypervecteur, pourrait être un tableau de 10 000 nombres, par exemple, représentant un point dans un espace à 10 000 dimensions. Ces objets mathématiques et l'algèbre pour les manipuler sont suffisamment flexibles et puissants pour amener l'informatique moderne au-delà de certaines de ses limites actuelles et favoriser une nouvelle approche de l'intelligence artificielle.

"C'est ce qui m'a le plus enthousiasmé, pratiquement de toute ma carrière", a déclaré Olshausen. Pour lui et pour beaucoup d'autres, l'informatique hyperdimensionnelle promet un nouveau monde dans lequel l'informatique est efficace et robuste, et les décisions prises par les machines sont entièrement transparentes.

Entrez dans les espaces de grande dimension

Pour comprendre comment les hypervecteurs rendent le calcul possible, revenons aux images avec des cercles rouges et des carrés bleus. Nous avons d'abord besoin de vecteurs pour représenter les variables SHAPE et COLOR. Ensuite, nous avons également besoin de vecteurs pour les valeurs pouvant être affectées aux variables : CERCLE, CARRÉ, BLEU et ROUGE.

Les vecteurs doivent être distincts. Cette distinction peut être quantifiée par une propriété appelée orthogonalité, ce qui signifie être à angle droit. Dans l'espace 3D, il existe trois vecteurs orthogonaux entre eux : un dans la direction x , un autre dans la direction y et un troisième dans la direction z . Dans un espace à 10 000 dimensions, il existe 10 000 vecteurs mutuellement orthogonaux.

Mais si nous permettons aux vecteurs d'être presque orthogonaux, le nombre de ces vecteurs distincts dans un espace de grande dimension explose. Dans un espace à 10 000 dimensions, il existe des millions de vecteurs presque orthogonaux.

Créons maintenant des vecteurs distincts pour représenter FORME, COULEUR, CERCLE, CARRÉ, BLEU et ROUGE. Parce qu'il y a tellement de vecteurs presque orthogonaux possibles dans un espace de grande dimension, vous pouvez simplement assigner six vecteurs aléatoires pour représenter les six éléments ; ils sont presque garantis d'être presque orthogonaux. "La facilité de créer des vecteurs presque orthogonaux est une raison majeure d'utiliser la représentation hyperdimensionnelle", a écrit Pentti Kanerva , chercheur au Redwood Center for Theoretical Neuroscience de l'Université de Californie à Berkeley, dans un article influent de 2009.

L'article s'appuyait sur des travaux effectués au milieu des années 1990 par Kanerva et Tony Plate, alors étudiant au doctorat avec Geoff Hinton à l'Université de Toronto. Les deux ont développé indépendamment l'algèbre pour manipuler les hypervecteurs et ont fait allusion à son utilité pour le calcul en haute dimension.

Étant donné nos hypervecteurs pour les formes et les couleurs, le système développé par Kanerva et Plate nous montre comment les manipuler à l'aide de certaines opérations mathématiques. Ces actions correspondent à des manières de manipuler symboliquement des concepts.

La première opération est la multiplication. C'est une façon de combiner les idées. Par exemple, multiplier le vecteur FORME par le vecteur CERCLE lie les deux en une représentation de l'idée "LA FORME est CERCLE". Ce nouveau vecteur "lié" est presque orthogonal à la fois à SHAPE et à CIRCLE. Et les composants individuels sont récupérables - une caractéristique importante si vous souhaitez extraire des informations à partir de vecteurs liés. Étant donné un vecteur lié qui représente votre Volkswagen, vous pouvez dissocier et récupérer le vecteur pour sa couleur : VIOLET.

La deuxième opération, l'addition, crée un nouveau vecteur qui représente ce qu'on appelle une superposition de concepts. Par exemple, vous pouvez prendre deux vecteurs liés, "SHAPE is CIRCLE" et "COLOR is RED", et les additionner pour créer un vecteur qui représente une forme circulaire de couleur rouge. Là encore, le vecteur superposé peut être décomposé en ses constituants.

La troisième opération est la permutation ; cela implique de réorganiser les éléments individuels des vecteurs. Par exemple, si vous avez un vecteur tridimensionnel avec des valeurs étiquetées x , y et z , la permutation peut déplacer la valeur de x vers y , y vers z et z vers x. "La permutation vous permet de construire une structure", a déclaré Kanerva. "Ça permet de gérer des séquences, des choses qui se succèdent." Considérons deux événements, représentés par les hypervecteurs A et B. Nous pouvons les superposer en un seul vecteur, mais cela détruirait les informations sur l'ordre des événements. La combinaison de l'addition et de la permutation préserve l'ordre ; les événements peuvent être récupérés dans l'ordre en inversant les opérations.

Ensemble, ces trois opérations se sont avérées suffisantes pour créer une algèbre formelle d'hypervecteurs permettant un raisonnement symbolique. Mais de nombreux chercheurs ont été lents à saisir le potentiel de l'informatique hyperdimensionnelle, y compris Olshausen. "Cela n'a tout simplement pas été pris en compte", a-t-il déclaré.

Exploiter le pouvoir

En 2015, un étudiant d'Olshausen nommé Eric Weiss a démontré un aspect des capacités uniques de l'informatique hyperdimensionnelle. Weiss a compris comment représenter une image complexe comme un seul vecteur hyperdimensionnel contenant des informations sur tous les objets de l'image, y compris leurs propriétés, telles que les couleurs, les positions et les tailles.

"Je suis pratiquement tombé de ma chaise", a déclaré Olshausen. "Tout d'un coup, l'ampoule s'est allumée."

Bientôt, d'autres équipes ont commencé à développer des algorithmes hyperdimensionnels pour reproduire des tâches simples que les réseaux de neurones profonds avaient commencé à effectuer environ deux décennies auparavant, comme la classification d'images.

Considérons un ensemble de données annotées composé d'images de chiffres manuscrits. Un algorithme analyse les caractéristiques de chaque image en utilisant un schéma prédéterminé. Il crée ensuite un hypervecteur pour chaque image. Ensuite, l'algorithme ajoute les hypervecteurs pour toutes les images de zéro pour créer un hypervecteur pour l'idée de zéro. Il fait ensuite la même chose pour tous les chiffres, créant 10 hypervecteurs "de classe", un pour chaque chiffre.

Maintenant, l'algorithme reçoit une image non étiquetée. Il crée un hypervecteur pour cette nouvelle image, puis compare l'hypervecteur aux hypervecteurs de classe stockés. Cette comparaison détermine le chiffre auquel la nouvelle image ressemble le plus.

Pourtant, ce n'est que le début. Les points forts de l'informatique hyperdimensionnelle résident dans la capacité de composer et de décomposer des hypervecteurs pour le raisonnement. La dernière démonstration en date a eu lieu en mars, lorsqu'Abbas Rahimi et ses collègues d'IBM Research à Zurich ont utilisé l'informatique hyperdimensionnelle avec des réseaux de neurones pour résoudre un problème classique de raisonnement visuel abstrait - un défi important pour les RNA typiques, et même certains humains. Connu sous le nom de matrices progressives de Raven, le problème présente des images d'objets géométriques dans, disons, une grille 3 par 3. Une position dans la grille est vide. Le sujet doit choisir, parmi un ensemble d'images candidates, l'image qui correspond le mieux au blanc.

"Nous avons dit:" C'est vraiment ... l'exemple qui tue pour le raisonnement abstrait visuel, allons-y "", a déclaré Rahimi.

Pour résoudre le problème à l'aide de l'informatique hyperdimensionnelle, l'équipe a d'abord créé un dictionnaire d'hypervecteurs pour représenter les objets dans chaque image ; chaque hypervecteur du dictionnaire représente un objet et une combinaison de ses attributs. L'équipe a ensuite formé un réseau de neurones pour examiner une image et générer un hypervecteur bipolaire - un élément peut être +1 ou -1 - aussi proche que possible d'une superposition d'hypervecteurs dans le dictionnaire ; l'hypervecteur généré contient donc des informations sur tous les objets et leurs attributs dans l'image. "Vous guidez le réseau de neurones vers un espace conceptuel significatif", a déclaré Rahimi.

Une fois que le réseau a généré des hypervecteurs pour chacune des images de contexte et pour chaque candidat pour l'emplacement vide, un autre algorithme analyse les hypervecteurs pour créer des distributions de probabilité pour le nombre d'objets dans chaque image, leur taille et d'autres caractéristiques. Ces distributions de probabilité, qui parlent des caractéristiques probables à la fois du contexte et des images candidates, peuvent être transformées en hypervecteurs, permettant l'utilisation de l'algèbre pour prédire l'image candidate la plus susceptible de remplir l'emplacement vacant.

Leur approche était précise à près de 88 % sur un ensemble de problèmes, tandis que les solutions de réseau neuronal uniquement étaient précises à moins de 61 %. L'équipe a également montré que, pour les grilles 3 par 3, leur système était presque 250 fois plus rapide qu'une méthode traditionnelle qui utilise des règles de logique symbolique pour raisonner, car cette méthode doit parcourir un énorme livre de règles pour déterminer la bonne prochaine étape.

Un début prometteur

Non seulement l'informatique hyperdimensionnelle nous donne le pouvoir de résoudre symboliquement des problèmes, mais elle résout également certains problèmes épineux de l'informatique traditionnelle. Les performances des ordinateurs d'aujourd'hui se dégradent rapidement si les erreurs causées, par exemple, par un retournement de bit aléatoire (un 0 devient 1 ou vice versa) ne peuvent pas être corrigées par des mécanismes de correction d'erreurs intégrés. De plus, ces mécanismes de correction d'erreurs peuvent imposer une pénalité sur les performances allant jusqu'à 25 %, a déclaré Xun Jiao , informaticien à l'Université de Villanova.

Le calcul hyperdimensionnel tolère mieux les erreurs, car même si un hypervecteur subit un nombre important de retournements de bits aléatoires, il reste proche du vecteur d'origine. Cela implique que tout raisonnement utilisant ces vecteurs n'est pas significativement impacté face aux erreurs. L'équipe de Jiao a montré que ces systèmes sont au moins 10 fois plus tolérants aux pannes matérielles que les ANN traditionnels, qui sont eux-mêmes des ordres de grandeur plus résistants que les architectures informatiques traditionnelles. "Nous pouvons tirer parti de toute [cette] résilience pour concevoir du matériel efficace", a déclaré Jiao.

Un autre avantage de l'informatique hyperdimensionnelle est la transparence : l'algèbre vous indique clairement pourquoi le système a choisi la réponse qu'il a choisie. Il n'en va pas de même pour les réseaux de neurones traditionnels. Olshausen, Rahimi et d'autres développent des systèmes hybrides dans lesquels les réseaux de neurones cartographient les éléments du monde physique en hypervecteurs, puis l'algèbre hyperdimensionnelle prend le relais. "Des choses comme le raisonnement analogique vous tombent dessus", a déclaré Olshausen. "C'est ce que nous devrions attendre de tout système d'IA. Nous devrions pouvoir le comprendre comme nous comprenons un avion ou un téléviseur.

Tous ces avantages par rapport à l'informatique traditionnelle suggèrent que l'informatique hyperdimensionnelle est bien adaptée à une nouvelle génération de matériel extrêmement robuste et à faible consommation d'énergie. Il est également compatible avec les "systèmes informatiques en mémoire", qui effectuent le calcul sur le même matériel qui stocke les données (contrairement aux ordinateurs von Neumann existants qui transfèrent inefficacement les données entre la mémoire et l'unité centrale de traitement). Certains de ces nouveaux appareils peuvent être analogiques, fonctionnant à très basse tension, ce qui les rend économes en énergie mais également sujets aux bruits aléatoires. Pour l'informatique de von Neumann, ce caractère aléatoire est "le mur que vous ne pouvez pas franchir", a déclaré Olshausen. Mais avec l'informatique hyperdimensionnelle, "vous pouvez simplement percer".

Malgré ces avantages, l'informatique hyperdimensionnelle en est encore à ses balbutiements. "Il y a un vrai potentiel ici", a déclaré Fermüller. Mais elle souligne qu'il doit encore être testé contre des problèmes du monde réel et à des échelles plus grandes, plus proches de la taille des réseaux de neurones modernes.

"Pour les problèmes à grande échelle, cela nécessite un matériel très efficace", a déclaré Rahimi. "Par exemple, comment [faites-vous] une recherche efficace sur plus d'un milliard d'articles ?"

Tout cela devrait venir avec le temps, a déclaré Kanerva. "Il y a d'autres secrets [que] les espaces de grande dimension détiennent", a-t-il déclaré. "Je vois cela comme le tout début du temps pour le calcul avec des vecteurs."

Auteur: Ananthaswamy Anil

Info: https://www.quantamagazine.org/ Mais 2023

[ machine learning ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

Quel film ces emojis décrivent-ils ? (On voit une vidéo qui présente des myriades d'émoji formant des motifs mouvants, modélisés à partir de métadonnées)

Cette question était l'une des 204 tâches choisies l'année dernière pour tester la capacité de divers grands modèles de langage (LLM) - les moteurs de calcul derrière les chatbots d'IA tels que ChatGPT. Les LLM les plus simples ont produit des réponses surréalistes. "Le film est un film sur un homme qui est un homme qui est un homme", commençait l'un d'entre eux. Les modèles de complexité moyenne s'en sont approchés, devinant The Emoji Movie. Mais le modèle le plus complexe l'a emporté en une seule réponse : Finding Nemo.

"Bien que j'essaie de m'attendre à des surprises, je suis surpris par ce que ces modèles peuvent faire", a déclaré Ethan Dyer, informaticien chez Google Research, qui a participé à l'organisation du test. C'est surprenant parce que ces modèles sont censés n'avoir qu'une seule directive : accepter une chaîne de texte en entrée et prédire ce qui va suivre, encore et encore, en se basant uniquement sur des statistiques. Les informaticiens s'attendaient à ce que le passage à l'échelle permette d'améliorer les performances sur des tâches connues, mais ils ne s'attendaient pas à ce que les modèles puissent soudainement gérer autant de tâches nouvelles et imprévisibles.

Des études récentes, comme celle à laquelle a participé M. Dyer, ont révélé que les LLM peuvent produire des centaines de capacités "émergentes", c'est-à-dire des tâches que les grands modèles peuvent accomplir et que les petits modèles ne peuvent pas réaliser, et dont beaucoup ne semblent pas avoir grand-chose à voir avec l'analyse d'un texte. Ces tâches vont de la multiplication à la génération d'un code informatique exécutable et, apparemment, au décodage de films à partir d'emojis. De nouvelles analyses suggèrent que pour certaines tâches et certains modèles, il existe un seuil de complexité au-delà duquel la fonctionnalité du modèle monte en flèche. (Elles suggèrent également un sombre revers de la médaille : À mesure qu'ils gagnent en complexité, certains modèles révèlent de nouveaux biais et inexactitudes dans leurs réponses).

"Le fait que les modèles de langage puissent faire ce genre de choses n'a jamais été abordé dans la littérature à ma connaissance", a déclaré Rishi Bommasani, informaticien à l'université de Stanford. L'année dernière, il a participé à la compilation d'une liste de dizaines de comportements émergents, dont plusieurs ont été identifiés dans le cadre du projet de M. Dyer. Cette liste continue de s'allonger.

Aujourd'hui, les chercheurs s'efforcent non seulement d'identifier d'autres capacités émergentes, mais aussi de comprendre pourquoi et comment elles se manifestent - en somme, d'essayer de prédire l'imprévisibilité. La compréhension de l'émergence pourrait apporter des réponses à des questions profondes concernant l'IA et l'apprentissage automatique en général, comme celle de savoir si les modèles complexes font vraiment quelque chose de nouveau ou s'ils deviennent simplement très bons en statistiques. Elle pourrait également aider les chercheurs à exploiter les avantages potentiels et à limiter les risques liés à l'émergence.

"Nous ne savons pas comment déterminer dans quel type d'application la capacité de nuisance va se manifester, que ce soit en douceur ou de manière imprévisible", a déclaré Deep Ganguli, informaticien à la startup d'IA Anthropic.

L'émergence de l'émergence

Les biologistes, les physiciens, les écologistes et d'autres scientifiques utilisent le terme "émergent" pour décrire l'auto-organisation, les comportements collectifs qui apparaissent lorsqu'un grand nombre d'éléments agissent comme un seul. Des combinaisons d'atomes sans vie donnent naissance à des cellules vivantes ; les molécules d'eau créent des vagues ; des murmurations d'étourneaux s'élancent dans le ciel selon des schémas changeants mais identifiables ; les cellules font bouger les muscles et battre les cœurs. Il est essentiel que les capacités émergentes se manifestent dans les systèmes qui comportent de nombreuses parties individuelles. Mais ce n'est que récemment que les chercheurs ont été en mesure de documenter ces capacités dans les LLM, car ces modèles ont atteint des tailles énormes.

Les modèles de langage existent depuis des décennies. Jusqu'à il y a environ cinq ans, les plus puissants étaient basés sur ce que l'on appelle un réseau neuronal récurrent. Ceux-ci prennent essentiellement une chaîne de texte et prédisent le mot suivant. Ce qui rend un modèle "récurrent", c'est qu'il apprend à partir de ses propres résultats : Ses prédictions sont réinjectées dans le réseau afin d'améliorer les performances futures.

En 2017, les chercheurs de Google Brain ont introduit un nouveau type d'architecture appelé "transformateur". Alors qu'un réseau récurrent analyse une phrase mot par mot, le transformateur traite tous les mots en même temps. Cela signifie que les transformateurs peuvent traiter de grandes quantités de texte en parallèle. 

Les transformateurs ont permis d'augmenter rapidement la complexité des modèles de langage en augmentant le nombre de paramètres dans le modèle, ainsi que d'autres facteurs. Les paramètres peuvent être considérés comme des connexions entre les mots, et les modèles s'améliorent en ajustant ces connexions au fur et à mesure qu'ils parcourent le texte pendant l'entraînement. Plus il y a de paramètres dans un modèle, plus il peut établir des connexions avec précision et plus il se rapproche d'une imitation satisfaisante du langage humain. Comme prévu, une analyse réalisée en 2020 par les chercheurs de l'OpenAI a montré que les modèles gagnent en précision et en capacité au fur et à mesure qu'ils s'étendent.

Mais les débuts des LLM ont également apporté quelque chose de vraiment inattendu. Beaucoup de choses. Avec l'avènement de modèles tels que le GPT-3, qui compte 175 milliards de paramètres, ou le PaLM de Google, qui peut être étendu à 540 milliards de paramètres, les utilisateurs ont commencé à décrire de plus en plus de comportements émergents. Un ingénieur de DeepMind a même rapporté avoir pu convaincre ChatGPT qu'il s'était lui-même un terminal Linux et l'avoir amené à exécuter un code mathématique simple pour calculer les 10 premiers nombres premiers. Fait remarquable, il a pu terminer la tâche plus rapidement que le même code exécuté sur une vraie machine Linux.

Comme dans le cas du film emoji, les chercheurs n'avaient aucune raison de penser qu'un modèle de langage conçu pour prédire du texte imiterait de manière convaincante un terminal d'ordinateur. Nombre de ces comportements émergents illustrent l'apprentissage "à zéro coup" ou "à quelques coups", qui décrit la capacité d'un LLM à résoudre des problèmes qu'il n'a jamais - ou rarement - vus auparavant. Selon M. Ganguli, il s'agit là d'un objectif de longue date dans la recherche sur l'intelligence artificielle. Le fait de montrer que le GPT-3 pouvait résoudre des problèmes sans aucune donnée d'entraînement explicite dans un contexte d'apprentissage à zéro coup m'a amené à abandonner ce que je faisais et à m'impliquer davantage", a-t-il déclaré.

Il n'était pas le seul. Une série de chercheurs, qui ont détecté les premiers indices montrant que les LLM pouvaient dépasser les contraintes de leurs données d'apprentissage, s'efforcent de mieux comprendre à quoi ressemble l'émergence et comment elle se produit. La première étape a consisté à documenter minutieusement l'émergence.

Au-delà de l'imitation

En 2020, M. Dyer et d'autres chercheurs de Google Research ont prédit que les LLM auraient des effets transformateurs, mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et variées afin de déterminer les limites extrêmes de ce qu'un LLM pourrait faire. Cet effort a été baptisé "Beyond the Imitation Game Benchmark" (BIG-bench), en référence au nom du "jeu d'imitation" d'Alan Turing, un test visant à déterminer si un ordinateur peut répondre à des questions d'une manière humaine convaincante. (Le groupe s'est particulièrement intéressé aux exemples où les LLM ont soudainement acquis de nouvelles capacités qui étaient totalement absentes auparavant.

"La façon dont nous comprenons ces transitions brutales est une grande question de la echerche", a déclaré M. Dyer.

Comme on pouvait s'y attendre, pour certaines tâches, les performances d'un modèle se sont améliorées de manière régulière et prévisible au fur et à mesure que la complexité augmentait. Pour d'autres tâches, l'augmentation du nombre de paramètres n'a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont constaté ce qu'ils ont appelé des "percées", c'est-à-dire des augmentations rapides et spectaculaires des performances à partir d'un certain seuil d'échelle. Ce seuil variant en fonction de la tâche et du modèle.

Par exemple, les modèles comportant relativement peu de paramètres - quelques millions seulement - n'ont pas réussi à résoudre des problèmes d'addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a grimpé en flèche dans certains modèles. Des sauts similaires ont été observés pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le décodage des lettres d'un mot, l'identification de contenu offensant dans des paragraphes d'hinglish (combinaison d'hindi et d'anglais) et la formulation d'équivalents en langue anglaise, traduit à partir de proverbes kiswahili.

Introduction

Mais les chercheurs se sont rapidement rendu compte que la complexité d'un modèle n'était pas le seul facteur déterminant. Des capacités inattendues pouvaient être obtenues à partir de modèles plus petits avec moins de paramètres - ou formés sur des ensembles de données plus petits - si les données étaient d'une qualité suffisamment élevée. En outre, la formulation d'une requête influe sur la précision de la réponse du modèle. Par exemple, lorsque Dyer et ses collègues ont posé la question de l'emoji de film en utilisant un format à choix multiples, l'amélioration de la précision a été moins soudaine qu'avec une augmentation graduelle de sa complexité. L'année dernière, dans un article présenté à NeurIPS, réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (capacité appelée raisonnement en chaîne) pouvait résoudre correctement un problème de mots mathématiques, alors que le même modèle sans cette invitation progressivement précisée n'y parvenait pas.

 Yi Tay, scientifique chez Google Brain qui a travaillé sur l'étude systématique de ces percées, souligne que des travaux récents suggèrent que l'incitation par de pareilles chaînes de pensées modifie les courbes d'échelle et, par conséquent, le point où l'émergence se produit. Dans leur article sur NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites via pareille chaines de pensée progressives pouvait susciter des comportements émergents qui n'avaient pas été identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d'expliquer son raisonnement, peuvent aider les chercheurs à commencer à étudier les raisons pour lesquelles l'émergence se produit.

Selon Ellie Pavlick, informaticienne à l'université Brown qui étudie les modèles computationnels du langage, les découvertes récentes de ce type suggèrent au moins deux possibilités pour expliquer l'émergence. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les grands modèles acquièrent réellement de nouvelles capacités de manière spontanée. "Il se peut très bien que le modèle apprenne quelque chose de fondamentalement nouveau et différent que lorsqu'il était de taille inférieure", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'il y ait un changement fondamental qui se produise lorsque les modèles sont mis à l'échelle.

L'autre possibilité, moins sensationnelle, est que ce qui semble être émergent pourrait être l'aboutissement d'un processus interne, basé sur les statistiques, qui fonctionne par le biais d'un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement être en train d'apprendre des heuristiques qui sont hors de portée pour ceux qui ont moins de paramètres ou des données de moindre qualité.

Mais, selon elle, pour déterminer laquelle de ces explications est la plus probable, il faut mieux comprendre le fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit.

Pouvoirs imprévisibles et pièges

Demander à ces modèles de s'expliquer pose un problème évident : Ils sont des menteurs notoires. Nous nous appuyons de plus en plus sur ces modèles pour effectuer des travaux de base", a déclaré M. Ganguli, "mais je ne me contente pas de leur faire confiance, je vérifie leur travail". Parmi les nombreux exemples amusants, Google a présenté en février son chatbot d'IA, Bard. Le billet de blog annonçant le nouvel outil montre Bard en train de commettre une erreur factuelle.

L'émergence mène à l'imprévisibilité, et l'imprévisibilité - qui semble augmenter avec l'échelle - rend difficile pour les chercheurs d'anticiper les conséquences d'une utilisation généralisée.

"Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés", a déclaré M. Ganguli. "Et pour étudier les phénomènes émergents, il faut avoir un cas en tête, et on ne sait pas, avant d'avoir étudié l'influence de l'échelle. quelles capacités ou limitations pourraient apparaître.

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont cherché à savoir si les modèles présentaient certains types de préjugés raciaux ou sociaux, à l'instar de ceux précédemment signalés dans les algorithmes non basés sur les LLM utilisés pour prédire quels anciens criminels sont susceptibles de commettre un nouveau délit. Cette étude a été inspirée par un paradoxe apparent directement lié à l'émergence : Lorsque les modèles améliorent leurs performances en passant à l'échelle supérieure, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des préjudices.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", explique M. Ganguli. Il se réfère à une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. "Les grands modèles deviennent brusquement plus biaisés. Si ce risque n'est pas pris en compte, il pourrait compromettre les sujets de ces modèles."

Mais il propose un contrepoint : Lorsque les chercheurs demandent simplement au modèle de ne pas se fier aux stéréotypes ou aux préjugés sociaux - littéralement en tapant ces instructions - le modèle devient moins biaisé dans ses prédictions et ses réponses. Ce qui suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a présenté un nouveau mode d'"autocorrection morale", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

Selon M. Ganguli, l'émergence révèle à la fois un potentiel surprenant et un risque imprévisible. Les applications de ces grands LLM prolifèrent déjà, de sorte qu'une meilleure compréhension de cette interaction permettra d'exploiter la diversité des capacités des modèles de langage.

"Nous étudions la manière dont les gens utilisent réellement ces systèmes", a déclaré M. Ganguli. Mais ces utilisateurs sont également en train de bricoler, en permanence. "Nous passons beaucoup de temps à discuter avec nos modèles, et c'est là que nous commençons à avoir une bonne intuition de la confiance ou du manque de confiance.

Auteur: Ornes Stephen

Info: https://www.quantamagazine.org/ - 16 mars 2023. Trad DeepL et MG

[ dialogue ] [ apprentissage automatique ] [ au-delà du jeu d'imitation ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel