Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 47
Temps de recherche: 0.0556s

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

horizon anthropique

Qu'est-ce que le paradoxe cérébral de Boltzmann ? Le cerveau est-il l'univers ultime ?

Avez-vous déjà contemplé la nature de votre existence et vous êtes-vous demandé si vous étiez vraiment une personne ayant vécu une vie, ou simplement un cerveau récemment formé avec des souvenirs artificiels, développant momentanément une réalité qui n'est pas réelle ? Cette question, connue sous le nom de paradoxe du cerveau de Boltzmann, peut sembler absurde, mais elle trouble les cosmologistes depuis des générations.

Le paradoxe tire son nom de Ludwig Boltzmann, un éminent physicien du XIXe siècle qui a apporté des contributions significatives au domaine de la thermodynamique. À son époque, les scientifiques étaient engagés dans des débats passionnés sur la question de savoir si l'univers a une durée infinie ou finie. Boltzmann a révolutionné notre compréhension de l'entropie, qui mesure le désordre au sein d'un système. Par exemple, un verre est considéré comme ordonné, alors qu'un verre brisé est dans un état de désordre. La deuxième loi de la thermodynamique affirme que les systèmes fermés tendent à devenir plus désordonnés avec le temps ; un verre brisé ne se reconstitue pas spontanément dans son état originel.

Boltzmann a introduit une nouvelle interprétation de l'entropie en appliquant un raisonnement statistique pour expliquer le comportement des systèmes. Il a mis en évidence que les systèmes évoluent vers un état plus désordonné parce qu'une telle transformation est la plus probable. Cependant, si la direction opposée n'est pas impossible, elle est incroyablement improbable. Par exemple, nous ne verrons jamais des œufs brouillés redevenir des œufs crus. Néanmoins, dans un univers infiniment vieux, où le temps s'étend sans limites, des événements hautement improbables, tels que la formation spontanée de structures complexes à partir de combinaisons aléatoires de particules, finiraient par se produire.

Qu'est-ce que cela signifie dans le contexte d'un univers hypothétique qui existe depuis un temps infini ? Imaginez une étendue apparemment banale de quasi-néant, où environ huit octillions* d'atomes convergent fortuitement pour créer le "Le Penseur" de Rodin, sauf qu'elle est cette fois entièrement constituée de pâtes alimentaires. Cependant, cette sculpture de pâtes se dissout rapidement en ses particules constitutives. Ailleurs dans cette vaste toile cosmique, les particules s'alignent spontanément pour former une structure ressemblant à un cerveau. Ce cerveau est rempli de faux souvenirs, simulant une vie entière jusqu'au moment présent où il perçoit une vidéo véhiculant ces mêmes mots. Pourtant, aussi rapidement qu'il est apparu, le cerveau se décompose et se dissipe. Enfin, en raison de fluctuations aléatoires, toutes les particules de l'univers se concentrent en un seul point, déclenchant l'émergence spontanée d'un univers entièrement nouveau.

De ces deux derniers scénarios, lequel est le plus probable ? Étonnamment, la formation du cerveau est nettement plus probable que la création spontanée d'un univers entier. Malgré sa complexité, le cerveau est minuscule par rapport à l'immensité d'un univers entier. Par conséquent, si l'on suit ce raisonnement, il apparaît très probable que tout ce que nous croyons exister n'est rien d'autre qu'une illusion fugace, destinée à disparaître rapidement.

Bien que Boltzmann lui-même n'ait pas approfondi ces conclusions, les cosmologistes qui se sont inspirés de ses travaux ont introduit le concept des cerveaux de Boltzmann. Il est intéressant de noter que ces cosmologistes, comme la majorité des individus, étaient raisonnablement certains de ne pas être eux-mêmes des cerveaux éphémères. D'où le paradoxe suivant : comment pouvaient-ils avoir raison dans leur hypothèse tout en postulant l'existence d'un univers éternel ?

Le paradoxe a trouvé sa résolution dans un concept communément accepté aujourd'hui : notre univers n'existe pas de manière infinie mais a eu un commencement connu sous le nom de Big Bang. On pourrait donc penser que le paradoxe a été résolu une fois pour toutes. Or, ce n'est peut-être pas le cas. Au cours du siècle dernier, les scientifiques ont découvert des preuves substantielles à l'appui de la théorie du Big Bang, mais la question de savoir ce qui l'a précédé et causé reste sans réponse. Que l'univers soit apparu dans un état extrêmement ordonné et improbable ? Notre univers pourrait-il faire partie d'un cycle sans fin de création et d'effondrement, ou sommes-nous simplement l'un des innombrables univers en expansion dans un vaste multivers ?

Dans ce contexte intrigant, le paradoxe de Boltzmann a suscité un regain d'intérêt chez les cosmologistes contemporains. Certains affirment que les modèles dominants de l'univers suggèrent encore que les cerveaux de Boltzmann ont plus de chances d'exister que les cerveaux humains, ce qui soulève des inquiétudes quant à la validité de ces modèles. Cependant, d'autres réfutent ces arguments en proposant de légères modifications des modèles cosmologiques qui élimineraient le problème ou en affirmant que les cerveaux de Boltzmann ne peuvent pas se manifester physiquement.

Dans le but d'explorer les probabilités impliquées, certains chercheurs ont même tenté de calculer la probabilité qu'un cerveau émerge spontanément à partir de fluctuations quantiques aléatoires et survive suffisamment longtemps pour générer une seule pensée. Le résultat de leurs calculs a donné un nombre étonnamment grand, avec un dénominateur dépassant 10 élevé à une puissance environ un septillion de fois plus grande que le nombre d'étoiles dans l'univers.

Malgré sa nature apparemment absurde, le paradoxe du cerveau de Boltzmann est utile. Il place la barre très haut pour les modèles cosmologiques. Si l'état actuel de l'univers semble excessivement improbable par rapport à des nombres d'une telle ampleur, cela indique que quelque chose ne va pas dans le modèle. Ce paradoxe nous pousse à remettre en question notre compréhension de la réalité et nous incite à rechercher une représentation plus complète et plus précise de l'univers.

Alors que nous continuons à explorer les mystères du cosmos, la nature énigmatique de notre existence reste une source de fascination et un catalyseur pour la poursuite de la recherche scientifique. Dans notre quête de réponses, nous pourrons peut-être découvrir des vérités profondes qui nous éclaireront sur la nature de notre réalité et sur la tapisserie complexe de l'univers.

Auteur: Sourav Pan

Info: *un octillion = 10 puissance 48)

[ humain miroir ] [ monde consensuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sortie extra-corporelle

Ce que chacun devrait savoir sur la paralysie du sommeil (P.D.S) et la sortie hors du corps (S.H.C).

Presque tous les jours, je reçois des mails de quelqu'un qui, le sachant ou pas, me parle de sa paralysie du sommeil (P.D.S). Habituellement, je donne une brève explication de ce qui se passe, mais j'ai décidé qu'il était temps de l'écrire dans un article dont plus de gens pourraient bénéficier. J'ai étudié et vécu plusieurs P.D.S et S.H.C, donc je parle d'expérience.

Qu'est-ce que la paralysie du sommeil ?

La paralysie du sommeil est une fonction corporelle normale et naturelle qui provoque la paralysie de notre corps physique pendant le sommeil. Son but est de nous empêcher de nous faire du mal lorsque nous rêvons. Elle est censée se produire à chaque fois que nous dormons et s'installe généralement bien avant que nous ne commencions à rêver. Lorsqu'elle ne fonctionne pas correctement, nous avons de graves problèmes comme le somnambulisme, qui fait que les gens se blessent. Normalement, nous ne sommes pas conscients lorsque la paralysie du sommeil s'installe, de sorte que la plupart des gens ne savent même pas qu'elle existe. Cependant, de temps en temps, quelqu'un devient conscient pendant cette période, et c'est alors qu'il devient de sa paralysie du sommeil, ou P.D.S. Pour autant que je sache, cela se produit plus souvent au réveil. En gros, votre esprit se réveille avant votre corps. Finalement, votre corps rattrape votre esprit et se réveille aussi.

Symptômes de la P.D.S

Lorsqu'un individu devient conscient et se rend compte de son état de paralysie du sommeil, il ne sait généralement pas ce qui lui arrive. Et, parce qu'il est conscient, il essaie de bouger, mais ne le peut pas. Lorsqu'ils découvre qu'ils ne peut pas bouger, il commence à s'agiter, à être angoissés, à avoir peur et peut même paniquer, coincé entre la réalité et le monde halluciné des rêves avec l'impression de ne pas pouvoir se rendre à l'un ou l'autre de ces endroits. Souvent, il lutte et se bat contre la paralysie, en essayant de se libérer, mais cela n'aide que rarement.

Pour aggraver les choses, les peurs peuvent facilement se manifester sous la forme d'hallucinations très réalistes dans l'État de P.D.S. C'est pourquoi les gens voient souvent des monstres, des démons, des sorcières ou autres créatures peu recommandables les attaquer. C'est si courant de ressentir tout ça que fut inventé le mot "hagging" (auto-harassement) pour le décrire. Souvent, on pense se réveiller "juste à temps avant que les monstres ne nous attrape", alors qu'en réalité, la poussée d'adrénaline provoquée par la peur fait sortir de la paralysie. Pour la plupart, ces créatures sont des hallucinations qui peuvent être ignorées, mais je sais bien que c'est plus facile à dire qu'à faire.

La plupart du temps, ceux en P.D.S qui souffrent luttent pour reprendre le contrôle de leur corps et finissent par gagner. Parfois, cependant, une personne peut sembler se réveiller, pour découvrir qu'elle dort vraiment encore et qu'elle rêve qu'elle s'est réveillée. Nous appelons ce phénomène "faux réveils". Parfois, une personne peut avoir plusieurs faux réveils d'affilée, ce qui la frustre de ne pas pouvoir se réveiller ou, pire encore, la terrifie de ne plus jamais se réveiller. Les personnes souffrant de P.D.S sont souvent réticentes à parler de leurs expériences car elles ont peur que les gens les croient folles. Beaucoup de gens ont gardé ce petit secret toute leur vie.

La P.D.S est-elle fréquente ?

En fait, elle est assez répandue et il n'y a pas lieu d'en avoir peur ou d'en avoir honte. Cela arrive à des milliers, voire des millions de personnes chaque jour, mais je n'ai pas de statistiques pour le prouver. Mais je reçois des mails sur les P.D.S presque tous les jours, donc vous n'êtes pas seul.

Que peut-on faire contre les monstres ?

En général, quand les gens apprennent ce qu'est la P.D.S, leurs craintes diminuent. Quand leurs craintes diminuent, ils ont tendance à voir moins de monstres. Par conséquent, le meilleur conseil est de ne pas paniquer, de rester calme, de réaliser que vous êtes en sécurité, et c'est une chose naturelle que fait votre corps physique. Ensuite, si vous le souhaitez, explorez cet état.

Comment puis-je sortir de l'état de P.D.S ?

En général, il suffit d'attendre qu'il se dissipe. On pense que la paralysie du sommeil est liée à la chimie du cerveau, et que vous en sortirez automatiquement lorsque vos substances chimiques se stabiliseront. En attendant, tout ce que vous pouvez faire est d'attendre qu'elle se termine, ou de l'utiliser comme tremplin pour l'état de S.H.C. Comme je l'ai déjà dit, des émotions extrêmes comme la panique ou la colère provoquent parfois un changement dans la chimie du cerveau, et cela peut vous faire sortir de l'état de P.D.S. Une fois que vous aurez appris à la maîtriser, j'espère que vous voudrez l'explorer plutôt que d'y mettre fin.

Quel est le lien entre P.D.S et S.H.C ?

D'après mon expérience, dans l'état P.D.S, vous êtes hors de votre corps physique et à l'intérieur de votre corps énergétique, mais généralement vous êtes collé au corps et incapable de bouger. Donc, d'un côté, vous êtes hors de votre corps, mais de l'autre, vous êtes incapable d'aller quelque part ou de faire quoi que ce soit ; une expérience vraiment frustrante. Lutter contre la paralysie est souvent futile, et si vous gagnez, vous retournerez à votre corps physique au lieu de le quitter, ce qui est frustrant si la S.H.C est votre objectif.

Quel est le secret pour transformer la P.D.S en S.H.C ?

Croyez-le ou non, il m'a fallu vingt ans d'essais avant d'apprendre le secret de la transformation de la P.D.S en S.H.C. Avant d'apprendre le secret, il était plus facile pour moi d'induire une expérience extracorporelle à partir d'un état de pleine conscience qu'à partir de l'état de P.D.S. Le secret réside principalement dans le fait de savoir ce qui se passe réellement, alors voilà : D'après mon expérience, dans l'état de P.D.S, votre conscience est associée à votre corps énergétique, et non à votre corps astral, et c'est là que se trouve le problème. Votre corps énergétique est étroitement associé à votre corps physique, et il est donc inutile de le fouiller et d'essayer de le déloger. Cela n'arrivera pas tant que vous ne serez pas mort, ou proche de la mort. Le secret, c'est que vous devez transférer votre conscience de votre corps énergétique à votre corps astral. Comment y parvenir ? D'abord, fermez les yeux et gardez-les fermés. Ensuite, essayez d'avancer avec votre conscience et imaginez que vous avancez. Même si vous ne ressentez aucun mouvement, votre conscience va avancer dans votre corps astral. Si vous avez de sérieux doutes quant à son fonctionnement et que vous ouvrez les yeux prématurément, votre conscience va se refermer comme une balle sur un élastique et revenir dans votre corps énergétique. Au lieu de cela, gardez les yeux fermés et ayez la foi que votre conscience avance. Continuez à pousser votre conscience aussi fort que vous le pouvez, comme si vous marchiez sous l'eau, jusqu'à ce que vous soyez à environ cinq mètres de votre corps. Bien sûr, comme vos yeux sont fermés, vous ne pouvez qu'estimer approximativement la distance, alors ne soyez pas obsédé par la distance, faites simplement une estimation. Une fois que vous êtes en sécurité à quinze pieds de votre corps, vous pouvez ouvrir les yeux, alors vous serez dans votre corps astral et libre d'errer.

Auteur: Peterson Bob Robert

Info: Le 5 août 2002

[ astral mode d'emploi ] [ hypnagogie ] [ détermination ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

Co-vid 2019

Dans les 2 premières partie de La secte covidienne, j'ai caractérisé la soi-disant "nouvelle normalité" comme un "mouvement idéologique totalitaire mondial". Depuis que j'ai publié ces essais, de plus en plus de gens en sont venus à la considérer pour ce qu'elle est, non pas comme une "folie" ou une "réaction excessive", mais, de fait, comme une nouvelle forme de totalitarisme,  mondialisée, pathologisée, dépolitisée, systématiquement mise en œuvre sous le couvert de la "protection de la santé publique".

Afin de s'opposer à cette nouvelle forme de totalitarisme, nous devons comprendre en quoi elle ressemble et diffère des systèmes totalitaires antérieurs. Les similitudes sont assez évidentes - suspension des droits constitutionnels, gouvernements qui gouvernent par décret, la propagande officielle, les rituels de loyauté publique, la mise hors la loi de l'opposition, la censure, la ségrégation sociale, les escadrons d'élite qui terrorisent le public, etc.

Alors que le totalitarisme du XXe siècle (c'est-à-dire la forme que la plupart des gens connaissent généralement) était plus ou moins national et ouvertement politique, le totalitarisme de la nouvelle normalité est supranational et son idéologie est beaucoup plus subtile. La nouvelle normalité n'est pas le nazisme ou le stalinisme. C'est le totalitarisme capitaliste mondial, et le capitalisme mondial n'a pas d'idéologie, techniquement, ou, plutôt, son idéologie est la "réalité". Lorsque vous êtes un hégémon idéologique mondial sans égal, comme l'est le capitalisme mondial depuis une trentaine d'années, votre idéologie devient automatiquement la "réalité", car il n'y a pas d'idéologies concurrentes. En fait, il n'y a pas d'idéologie du tout... il n'y a que la "réalité" et l'"irréalité", la "normalité" et les "déviations de la norme".

Oui, je sais, la réalité est la réalité ... c'est pourquoi je mets tous ces termes entre guillemets, alors, s'il vous plaît, épargnez-moi les longs emails prouvant de manière concluante la réalité de la réalité et essayez de comprendre comment cela fonctionne.

Il y a la réalité (quelle que soit la croyance que vous en avez), et il y a la "réalité", qui dicte le fonctionnement de nos sociétés. La "réalité" est construite (c'est-à-dire simulée), collectivement, selon l'idéologie du système qui contrôle la société. Dans le passé, la "réalité" était ouvertement idéologique, quelle que soit la "réalité" dans laquelle vous viviez, car il existait d'autres "réalités" concurrentes. Il n'y en a plus aujourd'hui. Il n'y a qu'une seule "réalité", parce que la planète entière - oui, y compris la Chine, la Russie, la Corée du Nord et d'autres pays - est contrôlée par un système hégémonique mondial.

Un système hégémonique mondial n'a pas besoin d'idéologie, parce qu'il n'a pas à entrer en compétition avec des idéologies rivales. Il efface donc l'idéologie et la remplace par la "réalité". La réalité (peu importe ce que vous croyez personnellement qu'elle est, ce qui est bien sûr ce qu'elle est réellement) n'est pas réellement effacée. Cela n'a simplement pas d'importance, car vous n'avez pas le droit de dicter la "réalité". Le capitalisme mondial a le droit de dicter la "réalité" ou, plus précisément, il simule la "réalité" et, ce faisant, il simule le contraire de la "réalité", ce qui est tout aussi important, sinon plus. 

Cette "réalité" fabriquée par le capitalisme mondial est une "réalité" dépolitisée et a-historique, qui forme une frontière idéologique invisible établissant les limites de ce qui est "réel". De cette façon, le capitalisme mondial (a) dissimule sa nature idéologique, et (b) rend automatiquement toute opposition idéologique illégitime, ou, plus exactement, inexistante. L'idéologie telle que nous la connaissions disparaît. Les arguments politiques, éthiques et moraux sont réduits à la question de ce qui est "réel" ou "factuel", que dictent les "experts" et les "vérificateurs" de GloboCap.

Par exemple, la "guerre mondiale contre le terrorisme", qui était la "réalité" officielle de 2001 jusqu'à son annulation à l'été 2016, lorsque la "guerre contre le populisme" fut officiellement lancée.  Nous avons désormais remplacé cette dernière par la "Nouvelle Normalité", depuis le printemps 2020. Chacune de ces nouvelles simulations de la "réalité" se déployant brutalement, maladroitement même, comme cette scène de 1984 où le Parti change d'ennemi officiel en plein milieu d'un discours de la Semaine de la haine.

Sérieusement, pensez à où nous en sommes actuellement, 18 mois après le début de notre nouvelle "réalité", puis revenez en arrière et examinez comment GloboCap a déployé de manière flagrante la cette nouvelle Normalité au printemps 2020… et la majorité des masses n'a même pas cillé. Ils sont passés de manière transparente à la nouvelle "réalité" dans laquelle un virus, plutôt que des "suprémacistes blancs", ou des "agents russes" ou des "terroristes islamiques", est devenu le nouvel ennemi officiel. Ils ont rangé les scripts  récités textuellement au cours des quatre années précédentes, et les scripts récités au cours des 15 années précédentes, et ont commencé à baragouiner frénétiquement le discours culte de Covid comme s'ils auditionnaient pour une parodie d'Orwell "over the top".

Ce qui nous amène au problème du culte covidien... comment les atteindre, ce que, ne vous y trompez pas, nous devons faire, d'une manière ou d'une autre, sinon le New Normal deviendra notre "réalité" permanente.

J'ai appelé cette nouvelle normalité "secte covidienne", non pas pour les insulter ou les railler gratuitement, mais parce que c'est ce qu'est le totalitarisme... une secte à grande échelle, à l'échelle de la société. Quiconque a essayé de leur parler peut confirmer l'exactitude de cette analogie. Vous pouvez leur montrer les faits jusqu'à devenir vert. Cela ne fera pas la moindre différence. Vous pensez avoir un débat sur les faits, mais ce n'est pas le cas. Vous menacez leur nouvelle "réalité". Vous pensez  vous efforcer de les amener à penser rationnellement. Vous ne le faites pas. Vous êtes un hérétique, un agent des forces démoniaques, un ennemi de tout ce qui est "réel" et "vrai".

Les scientologues vous qualifieraient de "personne suppressive". Les Nouveaux Normaux vous appellent un "théoricien de la conspiration", "anti-vaxxer" ou "négateur de virus". Les épithètes spécifiques n'ont pas vraiment d'importance. Ce ne sont que des étiquettes que les membres des sectes et les totalitaires utilisent pour diaboliser ceux qu'ils perçoivent comme des "ennemis"... toute personne qui conteste la "réalité" de la secte ou la "réalité" du système totalitaire.

Le fait est qu'il est impossible de faire sortir les gens d'une secte et de les faire sortir du totalitarisme. Habituellement, ce qu'on fait, dans le cas d'une secte, c'est de sortir la personne de la secte, de l'enlever et l'emmener dans un lieu sûr, et l'entourer d'un grand nombre de personnes qui ne font pas partie de la secte et vous la déprogrammez progressivement sur plusieurs jours. Vous faites cela parce que, tant qu'elle est dans la secte, vous ne pouvez pas lui parler. Elle ne peut pas vous entendre. Une secte est une "réalité" collective et autonome. Son pouvoir découle de l'organisme social composé des dirigeants et des autres membres de la secte. Vous ne pouvez pas "parler" de ce pouvoir. Vous devez physiquement en retirer la personne avant de pouvoir commencer à la raisonner.

Malheureusement, nous n'avons pas cette possibilité. La nouvelle normalité est un système totalitaire mondial. Il n'y a pas d'"extérieur" du système où se retirer. Nous ne pouvons pas kidnapper tout le monde et les emmener en Suède. Comme je l'ai remarqué dans la première partie de cette série, le paradigme secte/société a été inversé. La secte est devenue la société dominante, et ceux d'entre nous qui n'ont pas été convertis sont devenus une multitude d'îles isolées, non pas à l'extérieur, mais au sein de la secte.

Bref il faut maintenant faire en sorte que GloboCap (et ses sbires) devienne ouvertement totalitaire… car il ne le peut pas. S'il le pouvait, il l'aurait déjà fait. Le capitalisme mondial ne peut fonctionner ainsi. Devenir ouvertement totalitaire le fera imploser… non pas le capitalisme mondial lui-même, mais cette version totalitaire de celui-ci. En fait, cela commence déjà à se produire.

Il a besoin de la simulation de la "réalité", de la "démocratie" et de la "normalité" pour garder les masses dociles. Nous devons donc attaquer cette simulation. Nous devons le répéter sans cesse jusqu'à ce qu'il craque et que le monstre qui s'y cache apparaisse.

Voilà la faiblesse du système… le totalitarisme New Normal ne fonctionnera pas si les masses le perçoivent comme un totalitarisme, comme un programme politique/idéologique, plutôt que comme "la  réponse à une pandémie mortelle". Nous devons donc le rendre visible en tant que totalitarisme. A le voir tel qu'il est. Je ne veux pas dire que nous devons l'expliquer à ceux qui en sont les bras agissants. Ils sont hors de portée des explications. Je veux dire qu'il faut leur faire voir, ressentir, de manière tangible, inéluctable, jusqu'à ce qu'ils reconnaissent ce avec quoi ils collaborent.

Arrêtez de vous disputer avec eux à leurs conditions et attaquez plutôt directement leur "réalité". Quand ils commencent à bavarder sur le virus, les variants, les "vaccins" et autres discours cultes de Covid qui aspirent leur récit. Ne répondez pas comme s'ils étaient rationnels. Répondez comme s'ils parlaient de "Xenu", de "body thétans scientologues", de "Helter Skelter confus" ou de tout autre non-sens cultoïde, parce que c'est exactement ce que c'est. Il en va de même pour leurs règles et restrictions, les "masques", la "distanciation sociale", etc. Arrêtez de plaider que leurs arguments sont faux. Bien sûr qu'ils le sont, mais là n'est pas la question (et argumenter de cette façon vous aspire dans leur "réalité"). Opposez-vous à eux à cause de ce qu'ils sont, une collection de rituels de conformité bizarres exécutés pour cimenter l'allégeance au culte et créer une atmosphère générale de "pandémie mortelle".

Il existe de nombreuses façons de procéder, c'est-à-dire de générer des conflits internes. Je l'ai fait à ma façon, les autres le font à la leur. Si vous êtes l'un d'entre eux, merci. Si vous ne l'êtes pas, commencez. Faites-le partout où vous le pouvez. Faites en sorte que les Nouveaux Normaux se confrontent au monstre, le monstre qu'ils nourrissent… le monstre qu'ils sont devenus.

Auteur: Hopkins Christopher J

Info: The consent factory, 2 septembre 2021

[ globalisation ] [ dictature sanitaire ] [ nouvelle normalité ] [ subversion ]

 
Commentaires: 1
Ajouté à la BD par miguel

manipulation

Comment la plus grande technologie jamais développée s'est retournée contre nous.

La sélection naturelle est probablement le facteur qui a conduit l'elk irlandais à développer des bois surdimensionnés : ils étaient un élément bénéfique pour les mâles dans le jeu de la concurrence sexuelle. Cependant, le poids des bois était aussi un fardeau et il a été soutenu que c'était l'une des raisons, peut-être la principale, qui ont conduit à l'extinction de cette espèce, il y a environ 7 000 ans. Dans le cas des humains, on peut considérer le langage comme une caractéristique avantageuse de l'évolution, mais aussi comme quelque chose qui peut très bien révéler des conséquences négatives comme les bois des élans : le tsunami de mensonges auquel nous sommes constamment exposés.

Le langage est la véritable rupture de l'homme avec tout ce qui marche, rampe ou vole sur la terre. Aucune autre espèce (à l'exception des abeilles) n'a un outil qui peut être utilisé pour échanger des informations complexes entre les individus pour décrire, par exemple, où la nourriture peut être localisée et en quelles quantités. C'est le langage qui crée l'ultra-sociabilité de l'être humain. C'est le langage qui nous permet d'être ensemble, de planifier, de faire avancer les choses. Le langage peut être considéré comme une technologie de communication d'une puissance incroyable. Mais, comme pour toutes les technologies, elle a des conséquences inattendues.

Nous savons tous que le son que nous écrivons comme cerf est associé à un type spécifique d'animal. Avec ce symbole, vous pouvez créer des phrases telles que "J'ai vu un cerf près de la rivière, allons le chasser !" Mais, lorsque vous créez le symbole, à certains égards, vous créez le cerf - une créature fantomatique qui a quelques-unes des caractéristiques du cerf réel. Vous pouvez imaginer les cerfs, même s'il n'y a pas de véritable cerf autour de vous. Et ce symbole a une certaine puissance, peut-être que vous pourriez faire apparaître un cerf en prononçant son nom ou en dessinant son symbole sur le mur d'une grotte. C'est le principe que nous appelons magie sympathique, qui est peut-être la forme la plus ancienne et la plus fondamentale de la magie.

La création d'un cerf virtuel est une chose utile si la correspondance avec les vrais cerfs n'est pas perdue. 1. Le problème avec le langage est que ce n'est pas toujours le cas. Le cerf dont vous parlez peut ne pas exister, il peut être une illusion, une erreur ou, pire, une ruse pour piéger et tuer un de vos ennemis. Telle est l'origine du concept que nous appelons mensonge. Vous pouvez utiliser le langage non seulement pour collaborer avec vos voisins, mais aussi pour les tromper. Nous avons la preuve que nos ancêtres étaient confrontés à ce problème grâce aux premiers documents écrits que nous avons. Dans certaines anciennes tablettes sumériennes qui remontent au troisième millénaire avant notre ère 2, nous constatons que parmi les moi (les pouvoirs) que la Déesse Inanna avait volés au Dieu Enki, un de ces pouvoirs était de "prononcer des paroles de tromperie".

La question du mensonge est cruciale pour la survie humaine. Mentir rend la communication inutile puisque vous ne pouvez pas faire confiance aux personnes avec qui vous communiquez. Le cerf dont votre ami vous a dit qu'il était près de la rivière a disparu dans l'espace virtuel : vous ne pouvez pas dire s'il était réel ou non. La technologie prodigieuse du langage, développée pendant des centaines de milliers d'années, s'autodétruit comme conséquence involontaire du mensonge.

Toutes les technologies ont des conséquences inattendues, toutes se prêtent à certains types de solutions technologiques. Lutter contre les mensonges, cela nécessite d'évaluer les déclarations et de savoir qui les profère. La façon la plus simple de le faire est de baser l'évaluation sur la confiance. Nous connaissons tous l'histoire du garçon qui criait au loup, probablement aussi ancienne que l'homo sapiens. Dans ses différentes versions, il est dit que "Si vous mentez une fois, vous ne serez plus jamais cru". Et cela fonctionne; cela a bien marché pendant des centaines de milliers d'années et cela fonctionne encore. Pensez à votre cercle actuel de connaissances ; ces personnes que vous connaissez personnellement et qui vous connaissent depuis un certain temps. Vous leur faites confiance ; vous savez qu'ils ne vont pas vous mentir. C'est pour cette raison que vous les appelez amis, copains, potes, etc.

Mais cela ne fonctionne qu'aussi longtemps que vous maintenez vos relations au sein d'un petit groupe, et nous savons que la taille d'un cercle de relations étroites ne dépasse normalement pas plus d'environ 150 personnes (cela s'appelle le Nombre de Dumbar). Au sein de ce groupe, la réputation de chaque membre est connue par tout le monde et les menteurs sont facilement identifiés et frappés d'infamie (ou même expulsés). Le problème est venu quand les gens ont commencé à vivre dans les grandes villes. Ensuite, la plupart des gens ont dû interagir avec un plus grand nombre de personnes que ce nombre de Dumbar. Comment pouvons-nous dire si quelqu'un que vous n'avez jamais rencontré avant, est digne de confiance ou pas ? Dans cette situation, la seule défense contre les escrocs sont les indices indirects : la façon de se vêtir, la façon de parler, l'aspect physique ; mais aucun n'est aussi efficace que la confiance en quelqu'un que vous connaissez bien.

Mais ce ne fut rien en comparaison de ce qui est advenu avec l'âge des médias de masse. Vous pouvez lire des choses, entendre des choses, voir des choses dans les médias, mais cela ne vous donne vraiment aucune idée de l'endroit d'où ces communications sont venues. Vous ne pouvez pas non plus vérifier si la réalité virtuelle qui vous est renvoyée correspond au monde réel. Comme les médias ont élargi leur portée, les personnes qui les contrôlent ont découvert que le mensonge était facile et qu'ils n'avaient que très peu à perdre dans le mensonge. Côté réception, il n'y avait que des gens confus et incapables de vérifier les informations qu'ils recevaient. Les médias pouvaient facilement leur dire des mensonges qui restaient non découverts, au moins pendant un certain temps. Pensez à l'histoire des armes de destruction massive que l'Irak était censé avoir développées avant l'invasion de 2003. Dans ce cas, le mensonge est devenu évident après qu'aucune de ces armes n'est apparue en Irak après l'invasion, mais les menteurs avaient obtenu ce qu'ils voulaient et ils n'ont souffert d'aucune conséquence de leur action. C'était une époque où un adjoint de Donald Rumsfeld aurait dit : "Maintenant, nous pouvons créer notre propre réalité." Un triomphe de la magie sympathique, en effet.

Ensuite, l'Internet et les médias sociaux sont venus et ils ont démocratisé le mensonge. Maintenant tout le monde peut mentir à tout le monde, simplement en partageant un message. La vérité ne vient plus de la confiance dans les personnes qui la transmettent, mais du nombre de likes et de partages qu'un message a reçus. La vérité n'est peut-être pas aussi virale, mais elle semble être devenue exactement ce qu'en est la perception générale : si quelque chose est partagé par beaucoup de gens, alors cela doit être vrai. Donc, aujourd'hui, on nous ment en permanence, de manière cohérente, dans la joie et par tout le monde et à peu près sur tout. Des demi-vérités, de pures inventions, des distorsions de la réalité, des jeux de mots, des faux drapeaux, des statistiques faussées et plus encore, sont le lot des communications que nous croisons tous les jours. Le tsunami des mensonges qui nous tombent dessus est presque inimaginable et il a des conséquences, des conséquences désastreuses. Il nous rend incapables de faire confiance en quoi que se soit ou en quelqu'un. Nous perdons le contact avec la réalité, nous ne savons plus comment filtrer les messages innombrables que nous recevons. La confiance est un enjeu majeur dans la vie humaine ; ce n'est pas pour rien si le diable est nommé le père du mensonge (Jean 8:44). En effet, ce que l'anthropologue Roy Rappaport appelle les "mensonges diaboliques", sont les mensonges qui altèrent directement le tissu même de la réalité. Et si vous perdez le contact avec la réalité, vous êtes vous-même perdu. C'est peut-être ce qui se passe pour nous tous.

Certains d'entre nous trouvent qu'il est plus facile de simplement croire ce qui leur est dit par les gouvernements et les lobbies ; d'autres se placent dans une posture de méfiance généralisée de tout, tombant facilement victimes de mensonges opposés. Les mensonges diaboliques sont fractals, ils cachent encore plus de mensonges à l'intérieur, ils font partie de plus grands mensonges. Considérons un événement tel que les attaques du 9/11 à New York; il est maintenant caché derrière une telle couche de multiples mensonges de toutes sortes, que ce qui est arrivé ce jour-là est impossible à discerner, et peut-être destiné à rester tel quel pour toujours.

Donc, nous sommes revenus à la question du garçon qui criait au loup. Nous sommes le garçon, nous ne faisons plus confiance à personne, personne ne nous fait plus confiance, et le loup est là pour de vrai. Le loup prend la forme du réchauffement climatique, de l'épuisement des ressources, de l'effondrement des écosystèmes, et plus encore, mais la plupart d'entre nous sommes incapables de le reconnaître, même d'imaginer, qu'il puisse exister. Mais comment reprocher à ces gens qui ont été trompés tant de fois qu'ils ont décidé qu'ils ne croiraient plus du tout ce qui vient d'un canal même légèrement officiel ? C'est une catastrophe majeure et cela se produit en ce moment, devant nos yeux. Nous sommes devenus l'un de ces anciens cerfs détruits par le poids de ses cornes prodigieuses. Le langage nous joue un tour, pétaradant sur nous après nous avoir été si utile.

Nous croyons souvent que la technologie est toujours utile et que les nouvelles technologies nous sauveront des catastrophes qui nous affligent. Je commence à penser que ce dont nous avons besoin n'est pas davantage de technologie, mais moins. Et si la langue est une technologie, il me semble que nous en ayons trop d'elle, vraiment. Nous entendons trop de discours, trop de mots, trop de bruits. Peut-être avons-nous tous besoin d'un moment de silence. Peut-être que Lao Tzu a vu cela déjà depuis longtemps quand il a écrit dans le Tao Te King 3.

Trop de discours conduit inévitablement au silence.

Mieux vaut en venir rapidement au néant.

Auteur: Bardi Ugo

Info: 20 mars 2016, Source Cassandra Legacy

[ langage ] [ surmédiatisation ] [ infobésité ]

 

Commentaires: 0

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

oligarchie terrestre

Pourquoi les globalistes sont si obsédés par l'intelligence artificielle.
Il est presque impossible aujourd'hui de parcourir les nouvelles du Web ou les médias populaires sans être assailli par de vastes quantités de propagande sur l'intelligence artificielle (IA). C'est peut-être pour mettre fin à toutes les modes, car elle est censée englober presque tous les aspects de l'existence humaine, de l'économie et la sécurité à la philosophie et à l'art. Selon les affirmations courantes, l'IA peut faire presque tout et le faire mieux que n'importe quel être humain. Et, les choses que l'IA ne peut pas faire, elle sera capable de les faire un jour ou l'autre.

Chaque fois que l'establishment tente de saturer les médias avec un récit particulier, c'est habituellement pour manipuler la perception du public afin de produire une prophétie qui s'accomplit. En d'autres termes, ils espèrent façonner la réalité en racontant un mensonge particulier si souvent qu'au fil du temps il est accepté par les masses comme un fait. Ils le font avec l'idée que la mondialisation est inévitable, que la science du changement climatique est "indéniable" et que l'IA est une nécessité technologique.

Les mondialistes ont longtemps considéré l'IA comme une sorte de Saint-Graal dans la technologie de centralisation. Les Nations Unies ont adopté de nombreuses positions et même des sommets sur la question, dont le sommet "AI For Good" à Genève. L'ONU insinue que son intérêt premier dans l'IA est la réglementation ou l'observation de la façon dont elle est exploitée, mais l'ONU a aussi des objectifs clairs pour utiliser l'IA à son avantage. L'utilisation de l'IA comme moyen de surveiller les données de masse pour mieux instituer le " développement durable " est clairement inscrite à l'ordre du jour de l'ONU.

Le FMI est également au courant de la tendance de l'IA, en tenant des discussions mondiales sur l'utilisation de l'IA en économie ainsi que sur les effets des algorithmes sur l'analyse économique.

La principale source de développement de l'IA est depuis longtemps le DARPA. Le groupe de réflexion militaire et mondialiste injecte des milliards de dollars dans la technologie, ce qui fait de l'IA l'objectif sous-jacent de la plupart des travaux du DARPA. Elle n'est pas seulement à l'ordre du jour des mondialistes ; elle est essentiellement le fer de lance de la création et de la promotion de l'intelligence artificielle.

Cependant ce désir mondialiste pour la technologie n'est pas aussi simple que certains pourraient le supposer. Ils i a des raisons stratégiques, mais aussi religieuses pour placer l'IA sur un piédestal idéologique. Mais d'abord il faut s'attaquer à l'évidence.

Dans la plupart des livres blancs rédigés par des institutions mondialistes sur l'IA, l'accent est mis sur la collecte de données de masse et la surveillance. Les élites prennent soin de toujours affirmer que leurs intérêts sont axés sur le bien public. C'est pourquoi l'ONU et d'autres organismes soutiennent qu'ils devraient être les chefs de file en matière de surveillance de la collecte massive de données. C'est-à-dire qu'ils veulent nous faire croire qu'ils sont suffisamment objectifs et dignes de confiance pour gérer les règles de surveillance des données ou pour gérer les données elles-mêmes.

Pour la sécurité du public, les mondialistes veulent une gestion centralisée de toutes les collectes de données, ostensiblement pour nous sauver de ces mauvaises entreprises et de leur invasion de la confidentialité des données. Bien sûr, la plupart de ces entreprises sont également dirigées par des mondialistes qui remplissent les livres d'or d'événements comme le Forum économique mondial pour discuter des progrès et des avantages de l'IA. Le WEF s'est donné pour mandat de promouvoir largement l'IA et de convaincre le monde des affaires et le grand public des avantages de l'IA. Il faut prévenir les préjugés contre les IA....

Il s'agit donc d'un autre faux paradigme par lequel les institutions mondialistes s'opposent aux corporations pour ce qui est de l'utilisation de l'intelligence artificielle. Pourtant, les entreprises et les institutions mondialistes développent tous l''AI et un sentiment pro AI. Le public, avec sa méfiance innée à l'égard de la boussole morale des multinationales, est censé être convaincu pour soutenir les réformes réglementaires de l'ONU comme contrepoids. Mais en réalité, les entreprises n'ont pas l'intention de lutter contre le contrôle de l'ONU, elles finissent par s'en réjouir.

C'était le but depuis le début.

L'efficacité réelle de l'IA en tant que moyen d'aider l'humanité est discutable. L'intelligence artificielle concerne principalement les "algorithmes d'apprentissage", c'est-à-dire les machines programmées pour apprendre par l'expérience. Le problème est qu'un algorithme d'apprentissage n'est aussi efficace que les êtres humains qui le programment. Autrement dit, l'apprentissage n'est pas toujours un processus de cause à effet. Parfois, l'apprentissage est une révélation spontanée. L'apprentissage est créatif. Et, dans certains cas, l'apprentissage est inné.

Lorsqu'une machine est dressée contre un humain dans un système construit sur des règles très simples et concrètes, les machines ont tendance à prévaloir. Une partie d'échecs, par exemple, est conçue autour de règles strictes qui ne changent jamais. Un pion est toujours un pion et se déplace toujours comme un pion ; un chevalier se déplace toujours comme un chevalier. Tandis qu'il peut y avoir des moments de créativité dans les échecs (c'est pourquoi les humains sont encore capables à l'occasion de battre les ordinateurs au jeu), l'existence de règles rend l'IA plus intelligente qu'elle ne l'est.

Les systèmes humains et les systèmes naturels sont infiniment plus compliqués que les échecs, et les règles ont tendance à changer, parfois sans avertissement. Comme la physique quantique le découvre souvent, la seule chose prévisible quand on observe l'univers et la nature est que tout est imprévisible. Comment un algorithme ferait-il dans une partie d'échecs où un pion pourrait soudainement évoluer pour se déplacer comme un chevalier, sans aucun schéma prévisible spécifique ? Pas très bien, on dirait.
Et c'est là que nous entrons dans le cœur de la façon dont l'image de l'IA est gonflée en une sorte de dieu électronique à demi-crétin ; une fausse prophétie.

L'IA est insérée non seulement dans les échecs, mais dans tout. La surveillance de masse est impossible à gérer par les humains seuls ; la quantité de données est écrasante. Ainsi, l'un des objectifs fondamentaux de l'IA pour les mondialistes devient clair - l'IA est destinée à rationaliser la surveillance de masse et à l'automatiser. L'IA a pour but de parcourir les médias sociaux ou le courrier électronique à la recherche de "mots clés" pour identifier les mécréants et les opposants potentiels. Elle vise également à surveiller l'opinion du public à l'égard de questions ou de gouvernements particuliers. L'objectif est de mesurer et éventuellement "prédire" le comportement du public.

Cela devient plus difficile lorsqu'on commence à parler d'individus. Bien que les groupes soient plus faciles à observer et à cartographier dans leur comportement, les individus peuvent être abrupts, volatils et imprévisibles. La cartographie des habitudes personnelles par l'IA est également importante aujourd'hui. Elle est plus visible dans le monde de l'entreprise où le marketing est adapté aux habitudes et aux intérêts des consommateurs individuels. Cela dit, les gouvernements sont aussi très intéressés à suivre les habitudes individuelles au point de créer des profils psychologiques pour chaque personne sur la planète si possible.

Tout cela se résume à l'idée qu'un jour, l'IA sera capable d'identifier les criminels avant même qu'ils ne commettent un crime réel. En d'autres termes, l'intelligence artificielle est censée devenir un machin "qui voit tout" qui non seulement surveille notre comportement, mais aussi qui lit dans nos esprits comme une force d'identification pré-crime.

La question n'est pas de savoir si AI peut réellement nous dire qui est un futur criminel. L'IA est manifestement incapable de prédire avec précision le comportement d'une personne à un tel degré. La question est de savoir si l'OMS est en train d'établir les normes que l'IA recherche lorsqu'il s'agit d'identifier des "criminels" potentiels ? Qui fixe les règles du jeu d'échecs ? Si un algorithme est programmé par un globaliste, alors l'IA qualifiera les antimondialistes de criminels futurs ou actuels. L'AI ne pense pas vraiment. Elle n'exerce pas le pouvoir de choisir dans ses décisions. L'IA fait ce qu'elle est programmée pour faire.

L'obsession mondialiste pour l'IA, cependant, va bien au-delà de la centralisation et du contrôle des populations. Comme nous l'avons déjà mentionné, il y a un facteur religieux.

Dans mon récent article 'Luciferianism : A Secular Look At A Destructive Belief System', j'ai esquissé la philosophie fondamentale derrière le culte mondialiste. Le premier principe du luciférianisme est l'idée (ou l'illusion) que certaines personnes spéciales ont la capacité de devenir des "dieux". Mais, il y a certaines conséquences de cette croyance que je n'ai pas explorées dans cet article.

Premièrement, pour devenir un dieu, il faudrait avoir un pouvoir d'observation total. Ce qui veut dire qu'il faudrait être capable de tout voir et de tout savoir. Un tel but est insensé, car tout observer ne signifie pas nécessairement qu'une personne sait tout. L'observation totale exigerait une objectivité totale. La partialité aveugle les gens à la vérité devant leurs yeux tout le temps, et les mondialistes sont parmi les gens les plus partiaux et les plus élitistes de la planète.

L'observation totalement objective est impossible, du moins pour les humains et les algorithmes qu'ils programment. De la physique à la psychologie, l'observateur affecte toujours l'observé et vice versa. Ceci dit, je pense que les mondialistes ne se soucient pas vraiment de cette réalité. Il leur suffit de se faire passer pour des dieux par la surveillance de masse. Ils ne sont pas réellement intéressés à atteindre l'illumination ou l'objectivité divine.

Deuxièmement, pour devenir un dieu, dans un sens mythologique ou biblique, il faudrait créer une vie intelligente à partir de rien. Je crois que dans l'esprit des lucifériens, la création de l'IA est la création d'une forme de vie intelligente, plutôt qu'un logiciel. Bien sûr, les lucifériens ont une notion trouble de ce qui constitue une "vie intelligente".

Comme je l'ai examiné dans mon article qui décompose et démystifie l'idéologie luciférienne, l'existence d'archétypes psychologiques inhérents constitue la base de la capacité humaine pour choisir ou être créatif dans ses choix. L'existence d'une compréhension inhérente du bien et du mal établit le fondement de la conscience humaine et de la boussole morale - l'"âme" si vous voulez. Les lucifériens argumentent en dépit de nombreuses preuves que rien de tout cela n'existe réellement. Ils soutiennent que les humains sont des ardoises vierges - des machines qui sont programmées par leur environnement.

Pour comprendre cette idéologie ou ce culte fondé sur la théorie de l'ardoise blanche, il faut tenir compte du fait que les mondialistes présentent souvent les traits des sociopathes narcissiques. Les sociopathes narcissiques à part entière représentent moins de 1% de la population humaine totale ; ce sont des personnes qui n'ont aucune empathie inhérente ou qui n'ont pas les outils de personnalité normaux que nous associerions à l'humanité. Il ne sera pas exagéré de dire que ces personnes ressemblent plus à des robots qu'à des personnes.

J'ai également théorisé que le luciférianisme est une religion conçue par des sociopathes narcissiques pour des sociopathes narcissiques. C'est une sorte d'outil de liaison ou d'organisation pour rassembler les sociopathes en un groupe efficace pour un bénéfice mutuel - un club de parasites. Si cette théorie est vraie, alors elle représente quelque chose qui est rarement ou jamais traité dans l'observation psychologique ou anthropologique dominante ; l'existence d'une cabale de sociopathes narcissiques conspirant ensemble pour cacher leur identité et pour devenir des prédateurs plus efficaces.

En résumé, le luciférianisme est le système de croyances parfait pour les sociopathes narcissiques. Ils sont, d'une certaine façon, inhumains. Ce sont des ardoises vierges dépourvues d'humanité, et ils adoptent donc une religion qui traite cette notion comme "normale".

Il est donc logique qu'ils considèrent une chose aussi simple et vide que l'IA comme une vie intelligente. Tant qu'elle peut être programmée pour agir "de manière autonome" (ce qu'ils semblent considérer comme de la sensibilité), leur définition de la vie intelligente est exaucée. Il n'y a rien d'intelligent dans l'intelligence artificielle lorsqu'il s'agit d'actions morales ou créatives, mais les sociopathes narcissiques n'en ont de toute façon aucune idée.

Je laisse aux lecteurs le soin de réfléchir à cette question ; l'année dernière, un programme d'IA s'est vu confier la tâche de créer ses propres œuvres d'art. Les résultats ont fait l'objet d'une grande publicité et une partie de cette œuvre a été vendue pour plus de 400 000 $. Je vous invite à regarder cette oeuvre d'art si vous ne l'avez pas déjà vue.

D'après ce que j'ai vu, devant cet "art" les gens reculent d'horreur. Cela ressemble à une étrange parodie d'éléments humains sans âme. Intuitivement, nous comprenons que l'IA n'est pas la vie ; mais pour les mondialistes, c'est la définition même de la vie, probablement parce que l'absence d'âme dans la création reflète l'absence d'âme des créateurs. Tout comme les chrétiens croient que l'humanité a été faite à l'image de Dieu, les lucifériens, dans leur quête de la divinité, ont créé une "forme de vie" qui est peut-être, ironiquement, comme eux.

Auteur: Smith Brandon

Info: http://www.alt-market.com, 1 mars 2019

[ big brother ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel