Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 18
Temps de recherche: 0.0572s

sonorités

Il y a quelque ironie dans le fait d'écrire un livre sur ce que nos ancêtres connaissaient intuitivement, qui devait être un élément fondamental de la trame de leur vie et n'exigeait, aucune explication. Les premiers hommes entretenaient sans doute une relation intime avec leurs paysages sonores; ils avaient probablement appris à "lire" la biophonie pour en tirer des informations essentielles. Leur musique devait être une conversion complexe, sur plusieurs niveaux, des sons environnants, ceux de l'ensemble de la vie animale et du monde inanimé.

Notre musique reflète toujours les influences de notre milieu social, de notre éducation, de notre culture et des rapports à notre environnement physique. Pourtant, lorsque les compositeurs des trois derniers siècles ont fait valoir que leurs œuvres étaient inspirées par la nature, elles ne reflétaient en réalité que leur version idéalisée de celle-ci. Elle consistait pour l'essentiel en voix isolées, susceptibles d'être intégrées à leurs compositions de manière prédéterminée, mais ce n'étaient que de faibles échos de la nature. Comment notre musique a-t-elle pu se couper autant du monde naturel? Y a-t-il aujourd'hui quelqu'un capable de faire une musique traduisant nos liens ancestraux avec lui? À quoi notre musique ressemblerait-elle si nous pouvions exploiter toute l'expérience, toutes les techniques en notre possession et savions nous remettre en prise avec le règne animal, ne serait-ce que brièvement?

Auteur: Krause Bernie

Info: Le grand orchestre animal : Célébrer la symphonie de la nature

[ homme-animal ] [ question ] [ résonances ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

humanisme

Car l’ "Humain" est d’emblée l’institution de son double structural : l’Inhumain. Il n’est même que cela, et les progrès de l’Humanité, de la Culture, ne sont que la chaîne des discriminations successives qui frappent les "Autres" d’inhumanité, donc de nullité. [...]

[...] la définition de l’humain s’est, au fil de la culture, inexorablement rétrécie : chaque progrès "objectif" de la civilisation vers l’universel a correspondu à une discrimination plus stricte, au point qu’on peut entrevoir le temps de l’universalité définitive de l’Homme qui coïncidera avec l’excommunication de tous les hommes – seule rayonnant dans le vide la pureté du concept. 

[...]

Michel Foucault a analysé l’extradition des fous à l’aube de la modernité occidentale, mais nous savons aussi ce qu’il en est de l’extradition des enfants, de leur renfermement progressif, au fil même de la Raison, dans leur statut idéalisé d’enfance, dans le ghetto de l’univers infantile, dans l’abjection de l’innocence. Mais aussi les vieillards sont devenus inhumains, rejetés à la périphérie de la normalité. Et tant d’autres "catégories", qui ne sont justement devenues des "catégories" que sous le signe des ségrégations successives qui marquent le développement de la culture. Les pauvres, les sous-développés, les Q.I. inférieurs, les pervers, les transsexuels, les intellectuels, les femmes – folklore de la terreur, folklore de l’excommunication sur la base d’une définition de plus en plus raciste de l’ "humain normal". Quintessence de la normalité : à la limite, toutes les "catégories" seront exclues, ségrégées, proscrites, dans une société enfin universelle, où le normal et l’universel seront enfin confondus sous le signe de l’humain.

Auteur: Baudrillard Jean

Info: Dans "L'échange symbolique et la mort", éditions Gallimard, 1976, pages 205 à 207

[ cruauté ] [ réification ] [ objectivation ] [ annihilation ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

psycho-sociologie

C'est ici que la culture entre en jeu, dans l'image de ce moi idéalisé qui peut prospérer dans le monde des prises de contrôle par emprunt. Cette personne idéalisée se dérobe à toute dépendance ; elle ne s'accroche pas à d'autres. Les réformateurs de l'État-providence craignent qu'il ait encouragé la dépendance institutionnalisée : précisément ce qu'espérait Bismarck. En lieu et place de la vie institutionnelle, les réformateurs veulent notoirement plus d'initiative individuelle et d'esprit d'entreprise : des coupons pour l'éducation, des comptes d'épargne individuels pour la vieillesse et les soins médicaux. Autrement dit, chacun devrait gérer sa couverture sociale comme un service commercial.

Il est trompeur d'assimiler la peur de la dépendance à l'individualisme pur et simple. Dans le monde des nouvelles affaires, ceux qui prospèrent ont besoin d'un réseau serré de contacts sociaux ; si des cités globales se forment, c'est, entre autres raisons, qu'elles offrent un territoire local pour le networking (travail en réseau) en face-à-face. Les gens qui ne sont rattachés aux organisations que par ordinateur, qu'ils travaillent chez eux ou se retrouvent seuls sur le terrain, ont tendance à se marginaliser, parce que leur manquent ces contacts informels que l'on appelle parfois des "refroidisseurs".

La peur de la dépendance désigne plutôt la crainte de ne plus être maître de soi et, sur un plan plus psychologique, la honte de se retrouver à la merci des autres. Un des grands paradoxe du modèle de la nouvelle économie est qu'en faisant voler en éclats la cage de fer elle n'a réussi qu'à réintroduire ces nouveaux traumas sociaux et émotionnels dans une nouvelle forme institutionnelle.

Auteur: Sennett Richard

Info: La culture du nouveau capitalisme, p 45

[ post-capitalisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

agora numérique

Il s’était égaré dans les méandres de Facebook, entre les souvenirs des un.e.s et les chats des autres. Il n’y croisait que des anciens, tous plus ou moins à son image, qui avaient lu Spirou ou Pilote dans leur jeunesse, fait tourner en boucle des vinyles de Pink Floyd et ri aux facéties de Pollux les coudes posés sur une table en formica. C’était un formidable gang d’atrabilaires excédés par cette époque convulsive, des abonnés au passé, réfractaires aux mœurs contemporaines et aux nouvelles technologies, qui surmontaient toutefois leur répulsion à l’égard des écrans pour mieux répandre leur amertume sur les réseaux sociaux. Sur les photos associées à leur profil, ils avaient plus ou moins la même gueule que lui, le même sourire rare, la même peau terne, le même air satisfait malgré tout. Il y avait longtemps que la jeunesse les avait fui, comme si, saisie par la peur de contracter des rides, elle avait voulu se réfugier dans les bras de Tik Tok, Instagram ou Snapchat. Leur mot d’ordre à tous était : " C’était mieux avant ", mais on ignorait de quel " avant " il s’agissait, un " avant " idéalisé et figé dans des chromos dont les couleurs s’étiolaient. La nostalgie n’est parfois qu’une forme d’amnésie, rompue à la censure et aux tours de passe-passe. La nostalgie vaut surtout pour tous ceux qui ont toujours été vieux, absolument pas modernes, doués pour l’inertie et l’anesthésie, rouillés dès la venue au monde.

Ils se croisaient là comme on se retrouve au bar, sans vergogne, les doigts fouillant dans le bocal de cacahuètes grillées, autant pour en extraire la saveur familière du sel que celle des antiennes réactionnaires. D’être en vie et de pouvoir maugréer contre le présent leur suffisaient. Sauf qu’en vie, ils étaient de moins en moins nombreux à l’être, le réseau prenant inéluctablement des allures d’obituaire. A la conscience aigüe d’être en sursis s’ajoutait ainsi la certitude d’appartenir à une nouvelle génération de " suivants ", si chers à Brel. Pourtant, ils étaient ses semblables et ce constat, irréfutable, le rendait malade. Il participait de son désenchantement, comme si toute son existence n’avait eu pour seule vocation que d’échouer contre ce mur de lamentations et de félins. Par désespoir autant que par ironie, il glissa sur le fil une photo de Béhémoth, son vieux matou sourd, puis ouvrit la fenêtre et laissa son corps lesté d’idées noires basculer dans le vide. Ses ami.e.s virtuel.les, trop occupé.e.s à filtrer leurs selfies, n’en eurent pas même connaissance.

Auteur: Chiuch Lionel

Info:

[ passéistes ] [ suicide anonyme ]

 

Commentaires: 0

Ajouté à la BD par miguel

dépendance

Trop de stimulis et un cerveau humain incapable d'y répondre : comment le porno devient une véritable addiction
À la fin de l’année 2017, le premier salon de pornographie en réalité virtuelle au Japon a été submergé par le nombre de visiteurs qui se pressaient à l’entrée, dans un pays où un homme sur deux de moins de 30 ans n’a jamais eu de rapport sexuel réel. Les foules de visiteurs s’agglutinant dans les rues dans l’espoir de pénétrer dans le salon ont révélé tout l’attrait que revêt le sexe virtuel hyper-réaliste pour les hommes en prise directe avec la technologie numérique. Il ne fait guère de doute que ces interfaces virtuelles seront le prochain mode de consommation de sexe à l’échelle planétaire.

En voyant les reportages consacrés à ce type d’événements, on se trouve brutalement confronté avec les images saisissantes d’un jeune cadre célibataire japonais en jean et baskets en train de copuler avec un fragment d’effigie de femme en plastique reliée à des capteurs retransmettant ses mouvements à une interface informatique, laquelle projette une représentation idéalisée de sa partenaire dans son casque 3D. On a le sentiment frappant d’une transposition de l’expérience d’Olds et Milner à l’être humain. Avec la consommation de masse du sexe, nous nous retrouvons ainsi dans la même situation qu’un mangeur du paléolithique qui ferait face, brusquement, à l’abondance de nourriture dégorgeant de nos supermarchés et des fast-foods de nos grandes métropoles. Le problème n’est plus la quantité. Le problème est de s’arrêter. Mais les structures profondes de notre cerveau qui fonctionnent à grand renfort de dopamine ne possèdent pas de fonction stop. Le citoyen du troisième millénaire ne découvre le problème que lorsqu’il commence à souffrir de troubles sexuels, de dysphorie ou d’addiction sexuelle, dus à la consommation excessive de sexe virtuel, puisque les troubles de l’érection ont doublé au cours de la dernière décennie, de façon parallèle à l’essor de la pornographie sur Internet.

En 2016 a été publiée la première étude d’imagerie cérébrale sur l’addiction à la pornographie sur Internet. Ce qu’elle montrait était édifiant : non seulement le visionnage des vidéos activait le striatum ventral (où se trouve notamment le fameux noyau accumbens), mais le niveau d’activité de ce striatum permettait de prédire si une personne donnée allait être modérément ou gravement touchée par les symptômes d’addiction à la pornographie sur le Web, comme le caractère envahissant du comportement, l’impossibilité de maîtriser son envie de surfer sur les sites pornographiques, le besoin d’augmenter les doses (phénomène de tolérance), les symptômes de manque en cas d’impossibilité d’y accéder, la perte de sensibilité aux stimulations sexuelles, les dysfonctions érectiles et les conséquences adverses sur le plan relationnel, que ce soit sur le couple ou les relations sociales en général.

Savoir pourquoi notre striatum est incapable de se modérer est une question fondamentale dont vont dépendre certains des grands enjeux de nos sociétés et de notre planète. Car si environ 35 % du trafic Internet est consacré à des visionnages de vidéos pornographiques, cela signifie rien de moins que l’impact de l’appétit sexuel de nos striatums sur la planète Terre est de 150 millions de tonnes de dioxyde de carbone émises dans l’atmosphère chaque année, soit entre un cinquième et un tiers des émissions de gaz à effet de serre dues au trafic aérien. Selon certains analystes comme Anders Andrae, de l’université de Göteborg en Suède, les technologies de la communication pourraient représenter plus de la moitié de la consommation globale d’électricité à l’échelle de la planète en 2030. Sans le savoir, nous sommes comme les rats de James Olds et Peter Milner dans une cage munie d’un levier que nous pouvons actionner sans fin, sans réfléchir au fait que ce geste quotidien prépare une montée des océans qui engloutira des millions d’habitations dans les années à venir.

Auteur: Bohler Sébastien

Info: Internet, critique et extraits du livre de S Bohler, "Le bug humain, Pourquoi notre cerveau nous pousse à détruire la planète et comment l’en empêcher" aux éditions Robert Laffont. https://www.atlantico.fr

[ virtualisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

histoire

En 1900 de l’ère chrétienne, il y avait en Europe deux sortes d’États : les monarchies de droit divin et les démocraties. Les premières, moribondes, ne faisaient que se survivre. Quant aux démocraties, elles étaient déjà discréditées. D’abord, parce qu’elles n’étaient en fait que des oligarchies financières ; ensuite, parce que la caste des politiciens censée représenter "le peuple" s’était parfaitement déshonorée par sa malhonnêteté et sa cupidité. La Première Guerre mondiale ne fit que précipiter le déclin des deux régimes.

Ce fut à la faveur de cette guerre qu’eut lieu, en 1917, la Grande Régression Bureaucratique Russe. A cette régression est attaché le nom de Lénine.

En fait, Lénine était ce que, dans toutes les langues du monde, on appelle un traître. Fils de bourgeois, comme tous les théoriciens marxistes, il avait, dès le début de la guerre, prêché la désertion, la fraternisation avec l’envahisseur, et soutenu que le seul ennemi véritable des Russes était le gouvernement russe.

Or ce gouvernement tomba, en février 1917, et fut remplacé par un gouvernement bourgeois libéral. Si ce dernier s’était maintenu, la Russie serait sans doute devenue rapidement un pays moderne, relativement prospère.

Il n’en fut pas ainsi parce que la bourgeoisie était trop faible et le peuple trop arriéré. L’armée était désorganisée. Dans les campagnes, les paysans massacraient, par familles entières, les grands propriétaires fonciers, pour leur prendre la terre. Dans les grandes villes, la réalité du pouvoir appartenait aux Soviets, ramassis de déserteurs et d’ouvriers absentéistes. Ce fut la dictature des imbéciles.

L’astuce de Lénine fut de miser à fond sur toutes les forces de dispersion. Il encouragea les paysans dans leurs génocides, et les Soviets dans leur anarchisme primaire. Il flatta grossièrement les masses, affaiblit tant qu’il put le gouvernement bourgeois par une critique systématique, destructive et stérile, en un mot il fit tout pour devenir populaire.

Le moment venu, il réunit le Congrès des Soviets. Pendant que les pauvres dupes de délégués du peuple discutaient sans fin sur des questions de théorie, Lénine lançait à l’assaut du pouvoir sa petite équipe de révolutionnaires professionnels.

Après ce coup d’État qui faisait de lui le souverain absolu de la Russie nouvelle, il lui fallait lutter contre les forces mêmes qui l’y avaient porté. C’est ce qu’il fit.

Pour obtenir la paix avec les Allemands, Lénine leur abandonne l’Ukraine. Sacrifice inutile, car la paix ne vient pas. Les exactions des paysans ont déjà provoqué le début de la guerre civile, laquelle se complique d’interventions étrangères. Ce n’est plus l’Empire qui est menacé, ce n’est plus la terre russe : c’est le petit noyau des bureaucrates marxistes. Cette fois, Lénine fera la guerre...

Mais pour faire la guerre, il faut refaire l’armée : pour refaire l’armée, il faut revenir au bon vieux militarisme, - et pour cela il faut anéantir les Soviets.

Sous les ordres de Lénine, Trotsky se charge de cette réaction. En deux ans, grâce à lui, l’armée russe reprend l’habitude du garde-à-vous, du demi-tour à droite et de l’obéissance passive. Les Soviets sont dissous, et aussitôt remplacés par les commissaires politiques, fonctionnaires dévoués au Parti, payés par le Parti, qui doivent tout au Parti, c’est-à-dire au petit groupe d’oligarques dont Lénine est le chef. [...]

Dès 1920, la clique de Lénine a gagné la guerre civile, et le pouvoir prolétarien a disparu à jamais. L’année suivante, les marins de Cronstadt se soulèveront, une fois encore, aux cris de "Vive les Soviets ; à bas le communisme !" Mais cette insurrection sera vite réprimée. Le socialisme est mort, bien mort. Ce nom ne servira plus qu’à désigner le stade suprême de l’impérialisme, c’est-à-dire la concentration de tous les capitaux aux mains de l’État-trust, de l’État-monopole, et le règne idéalisé de la bureaucratie.

Auteur: Gripari Pierre

Info: Dans "La vie, la mort et la résurrection de Socrate-Marie-Gripotard", éditions de la Table Ronde, 1968, pages 46 à 48

[ chronologie ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0