Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2
Temps de recherche: 0.0336s

normalisation

Europe : les emplois fictifs et le contrôle social
Alors que l'économie en Europe périclite, le New York Times rapporte que les millions de chômeurs de la zone euro se consolent en participant à une curieuse économie parallèle peuplée de milliers d'entreprises fictives qu'on appelle des entreprises d'entraînement. Cet univers alternatif ne produit pas de biens ni de services concrets, mais il offre aux personnes des postes non rémunérés qui leur donnent un cadre, une structure et un sentiment d'intégration. Le fait de participer à ce marché du travail bidon apporte, certes, un certain soulagement à un niveau superficiel, mais quand on sait où regarder, on voit clairement qu'il s'agit de contrôle social.
Conçue après la Seconde Guerre mondiale pour offrir une formation professionnelle, cette simulation commerciale à grande échelle a actuellement pour objectif de résoudre le problème du chômage de longue durée dont souffrent plus de la moitié de ceux qui sont actuellement sans emploi dans l'UE. L'idée de base est d'empêcher les gens rejetés par le marché du travail de se sentir isolés et déprimés, en leur donnant un endroit où ils peuvent au moins faire comme s'ils avaient un emploi normal.
Le fait d'avoir une routine familière et des habitudes est réconfortant. Si vous ne parvenez pas à gratter quelques miettes pour survivre grâce à un contrat de travail temporaire sous-payé dans le monde réel, vous pouvez toujours sauver les apparences en travaillant pour un employeur qui fait semblant de vous payer pendant que votre estomac crie famine. L'article du Times décrit, entre autres, une scène digne de la double pensée d'Orwell, où une femme demande à ses collègues: "Quelle est notre stratégie pour améliorer la rentabilité ?"
On dirait Patricia Routledge s'écriant: C'est Bouquet, chère! B-U-C-K-E-T! 1
Bien que ses promoteurs soutiennent que ce vaste lieu de travail virtuel augmente le professionnalisme et la confiance en soi, le fait est que cette stratégie ne traite que les symptômes. La plupart des gens sans histoire se mettent à poser des questions difficiles quand la catastrophe les frappe et que le monde cesse de faire sens. En gardant les chômeurs occupés à s'entraîner essentiellement à enfiler des perles, on les empêche de réfléchir à des choses plus profondes et de remettre en question les principes de base de la société dans laquelle ils vivent.
Barbara Ehrenreich, l'auteur de Nickel and Dimed 2, qualifie la thérapie des faux emplois d'entraînement au déni :
"La nécessaire première étape, ainsi que le programme en douze étapes l'indique, est de surmonter le déni. La recherche d'emploi n'est pas un emploi ; la reconversion n'est pas la panacée. On peut être plus pauvre qu'on ne l'a jamais été et se sentir aussi plus libre - d'exprimer sa colère et son sentiment d'urgence, de rêver et de créer, de rencontrer d'autres personnes pour travailler avec elles à l'édification d'un monde meilleur".
Des célébrités comme Oprah Winfrey prêchent l'évangile à courte-vue du développement personnel, un récit qui prône le changement individuel, tout en ignorant presque entièrement les problèmes institutionnels plus larges. Les ploutocrates brament sentencieusement que ma richesse est ma vertu dans le sillage de l'effondrement de 2008 et de nouveaux transferts massifs de richesse. Ils ont le culot de stigmatiser les victimes de l'implosion économique qui les a mises au chômage et préconisent une bonne cure d'austérité pour les guérir. Peu importe que les milliardaires trichent en changeant la taille des buts dans les coulisses ou que les gens attentent à leur vie, comme le vieux grec, Dimitris Christoulas, qui a préféré se suicider plutôt que de mourir de faim.
Face à la menace d'un soulèvement politique, la classe dirigeante préfère que les chômeurs restent sagement sur le tapis roulant de l'emploi, le nez dans le guidon, bien dans les clous. Parce que c'est le signe que les travailleurs acquiescent tacitement au système politique, économique et social existant. Autrement, le vulgum pecus pourrait en profiter pour s'organiser et envisager des solutions de rechange. Pour la noblesse fortunée du 0,1%, cela pourrait vraiment être dangereux.

Auteur: Blunden Bill William Alva

Info: 7 juin 2015, Counterpunch

[ pouvoir ] [ domination ] [ maitrise ]

 

Commentaires: 0

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel