Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 345
Temps de recherche: 0.0488s

écriture

Le maître du roman policier Jussi Adler-Olsen confronte le Danemark à un des épisodes les plus sordides de son histoire moderne dans Dossier 64. Entretien avec un écrivain qui place le polar au service du devoir de mémoire.
Étaient-ils bien connus au Danemark, les sordides événements de la petite île de Sprogø, demande-t-on d’emblée à Jussi Adler-Olsen? "Well, disons qu’ils le sont maintenant", répond-il sans totalement parvenir à voiler la pointe de fierté qui teinte sa voix. Comprendre : les enquêtes du trio formé de Mørck, Assad et Rose, équipe spécialisée dans les cold cases (les cas non résolus), sont à ce point populaires qu’elles ont le pouvoir de transformer n’importe quel chapitre obscur ou oublié de l’histoire en sujet d’actualité. "Je suis heureux que plusieurs journalistes aient donné la parole à ces femmes depuis la parution du roman."
De 1922 à 1961, ce sont des milliers de femmes qui auront été isolées de force sur cette île alors accessible seulement par bateau, "un vrai Alcatraz", dit Adler-Olsen. Filles-mères, adolescentes à la santé mentale fragile, drop-outs en tous genres; ces jeunes marginales seront pour la plupart stérilisées, avec la bénédiction de l’État, afin de stopper la dissémination des "mauvais gènes" dont elles sont porteuses. De l’eugénisme pur déguisé en maintien de la paix sociale. Représentante fictionnelle de ces victimes dans le quatrième tome des enquêtes du département V, Nette verra son passé la happer de plein fouet, comme un boomerang rappliquant depuis une autre vie, malgré les nombreux efforts qu’elle avait déployés depuis la fin de son internement pour reléguer aux oubliettes ce sombre épisode de son existence.
"Quand j’étais jeune, la majorité des Danois ne savaient pas ce qui se passait sur cette île, se rappelle l’écrivain. Mon père, psychiatre, avait travaillé dans une des institutions chargées d’évaluer les femmes envoyées là-bas. J’avais 7 ou 8 ans quand il m’a parlé de cette île que nous voyions au loin quand nous passions en ferry-boat. Mon père discutait de tout très ouvertement, c’était tout un personnage, et il m’avait dit : “Les femmes qui sont enfermées sur cette île n’ont commis aucun crime, elles y sont seulement parce qu’elles ont peut-être couché à gauche, à droite.” Ça le rendait très honteux que certains de ses collègues aient usé de leurs pouvoirs pour mettre à l’écart des gens qu’ils jugeaient indésirables."
On aura compris que, pour Adler-Olsen, le polar peut et doit servir plus que le simple et pur objectif du divertissement. Intrigue haletante et devoir de mémoire ne sont pas mutuellement exclusifs, semble-t-il répéter tout au long de ce Dossier 64, dont on tourne fébrilement les pages comme il se doit, bien qu’en prenant peu à peu la mesure de cette horreur, jusque-là occultée par l’histoire officielle. Lire le souffle court, les fesses sur le bout de son siège, n’équivaut pas forcément à lire idiot.
Déterrer ce chapitre sombre du Danemark permet aussi à l’auteur de fustiger en douce la montée de l’extrême droite, qui tente de légitimer sa haine de l’étranger dans un discours sécuritaire. Parler du passé pour souligner ce que le présent a de dégoûtant, si vous préférez. "Je ne dirais pas que le Parti populaire danois [qui prône des frontières plus étanches à l’immigration] est un parti d’extrême droite, mais il tente tranquillement de changer notre définition de ce qui est acceptable dans le débat public et de ce qui ne l’est pas, note-t-il. Ce ne sont pas des fascistes à proprement parler, ils ne font pas que du mauvais, mais on peut voir les Chemises noires se profiler entre les lignes de leurs idées."
Hommage au père d’Adler-Olsen, Dossier 64 se lit donc aussi comme une mise en garde adressée à ses compatriotes danois. "Certaines de ces femmes vivent toujours et n’ont jamais été compensées par l’État, déplore-t-il. Je ne répéterai jamais assez que ce genre d’abominations ne doit jamais, jamais se reproduire. Mon livre est peut-être une sorte de mince compensation."
L’autre Mørck
"Je pense que le thème commun à toutes les histoires que je raconte, c’est l’abus de pouvoir."
Il n’y a qu’un pas à franchir entre cette analyse et le passé de Jussi Adler-Olsen, qui a vu, des ses yeux vu, la dureté de nombreuses institutions de santé mentale, dans lesquelles il a vécu avec sa famille et son psychiatre de père. "C’était des endroits merveilleux où grandir, entourés de lacs et de forêt", lance-t-il comme pour briser le cliché d’une enfance sinistre peuplée de personnages inquiétants. "Il y avait beaucoup de garçons de mon âge, on jouait au football ensemble, on organisait des carnavals. Mon père me disait au sujet des patients : “Tu dois réaliser qu’ils ont déjà été comme toi et moi, à une certaine époque.” J’ai appris très tôt à voir derrière la façade des gens et à me méfier de l’abus de pouvoir, ce qui me sert aujourd’hui quand j’écris des livres. Mon père était gentil, mais ils étaient nombreux les médecins sans empathie qui traitaient les patients comme de la merde."
Et Jussi Adler-Olsen, jamais à court d’anecdotes, de remonter jusqu’à l’origine du nom de son antihéros, le plus bourru des enquêteurs attachants, Carl Mørck. "J’avais 5 ou 6 ans et cet homme, qui était devenu complètement fou après avoir tué sa femme, est devenu mon meilleur ami. Il était très gentil… si on exclut le fait qu’il avait tué sa femme. Mon père disait, pour dédramatiser la situation : “Ils se battaient sa femme et lui comme chien et chat. Il était le chien et il a gagné.” La médication l’avait rendu raisonnable à nouveau. Je me promenais partout avec lui dans l’institution. Il s’appelait Mørck."
Quant aux critiques qui reprochent à Adler-Olsen d’avoir dépeint à trop gros traits son personnage du docteur Curt Wad, leader d’extrême droite, il réplique : "Hitler, W. Bush, Mussolini, Berlusconi se comportaient tous comme des caricatures, vous savez".
Roman sur le passé qui revient hanter le présent comme un cadavre qui remonterait à la surface d’une mer étale, Dossier 64 rappelle que le spectre de l’horreur guette toujours, même quand le soleil brille. "En temps normal, le Danemark, comme le Canada j’imagine, est un des plus merveilleux endroits où vivre. Et c’est précisément pour cette raison qu’il ne faut pas oublier, qu’il faut prendre soin de notre climat social. Tout ça est très fragile."

Auteur: Tardif Dominic

Info: Jussi Adler-Olsen : Le polar et la mémoire, https://revue.leslibraires.ca, 07/04/2014

[ jeunesse ]

 

Commentaires: 0

déresponsabilisation industrielle

Un documentaire consacré aux désastres de Tchernobyl et de Fukushima a été présenté par Arte le 26 avril dernier, lançant une pernicieuse invitation à "vivre avec" la contamination radioactive, "défi" que prétendent, en ces jours sombres, relever les missionnaires de l’accommodation à la vie en zones contaminées par la radioactivité.



L’"Initiative de Dialogue pour la réhabilitation des conditions de vie après l’accident de Fukushima", présentée dans ce film, a été pilotée par de supposés, et néanmoins dangereux experts à l’œuvre à Tchernobyl hier, à Fukushima aujourd’hui, et en France demain.



[...] Un des principaux objectifs − atteint − de ces programmes, a été d’évincer du terrain de Tchernobyl les initiatives de protection sanitaire développées par des médecins et des physiciens après l’accident de la centrale, et de ne pas ralentir, en conséquence, la détérioration continue de la santé des populations, faute d’apporter une véritable prophylaxie.



Les faits de traîtrise de Gilles Hériard-Dubreuil à l’encontre des spécialistes de santé du Belarus ne semblent toutefois pas avoir dissuadé la députée européenne Europe Écologie-Les Verts Michèle Rivasi et l’avocate Corinne Lepage, "antinucléaires" déclarées, de collaborer avec ce dernier, de le nommer "secrétaire" et "expert qualifié" de leur association européenne Nuclear Transparency Watch, qu’elles ont créée et qu’elles président depuis 2013, appelant à rien moins qu’"une implication systématique des citoyens et de la société civile dans la préparation et la réponse aux situations d’urgence nucléaire en Europe", situations dont on aura suffisamment compris qu’elles ne tarderont plus à "survenir".



[...] 



Voici leurs cinq recettes, qui, pour être bien concoctées, n’en sont pas moins empoisonnées de cette mort qui enverra les gens moisir à plat.



1. Inciter chacun à rester vivre dans les zones contaminées, tout en "optimisant" son exposition à la radioactivité à proportion du coût économique et social de sa protection. Ainsi, maximisent-ils le nombre de personnes contraintes de suivre un protocole de contrôle et de mesure permettant de survivre dans la contamination à moindre coût. À défaut de les soigner.



2. Considérer la réalité radioactive comme un problème psychologique. Il s’agit de transformer une réalité scientifique et sociale – la contamination radioactive et ses dégâts –, en phénomène faisant l’objet d’un "ressenti" individuel, lui-même tributaire de l’état mental, ou psychologique, de chacun.



Le rapport à la radioactivité ne relèverait ainsi que d’une gestion personnalisée de l’angoisse. À dire d’experts, ce ne serait alors plus la situation de contamination qui serait irrationnelle, mais la perception qu’on en aurait.



3. Recourir à un jargon d’"authenticité", pontifiant et illusoirement concret dans lequel les appels à l’autonomie, à la dignité, à la communauté et à l’humain ne font qu’emprunter à la théologie de pâles reflets de transcendance, afin de mieux assujettir l’individu au fonctionnement, ici du tout radioactif, ailleurs du tout sécurisé.



Or, conforter les gens dans le délire selon lequel ils sont des sujets autonomes dans la "gestion de leur contamination", alors qu’ils savent bien qu’il leur est seulement impossible de ne pas se plier aux rapports techno-sociaux dont ils sont prisonniers, c’est vouer à l’échec toute possibilité d’échappée.



On conditionne les populations à la cogestion du désastre, en les encourageant à stimuler, et a minima à simuler, les réflexes et les comportements induits par les modifications du monde environnant. Cette recherche de l’adaptation parfaite passe par l’intériorisation de toutes les formes de pressions que la contamination radioactive fait naître.



4. Promouvoir la résilience, nouvel horizon de l’homme adaptable, censé ne compter que sur lui-même et ses insondables capacités de "rebond". Au nom d’un relativisme pragmatique, d’un primat de "la vie quotidienne", ces médiateurs du désastre insufflent la défiance, voire la décrédibilisation, des connaissances scientifiques les moins contestables, distillent le doute et propagent l’ignorance sur les effets sanitaires de l’exposition durable aux dites "faibles doses" de rayonnement ionisant, tout en déplorant "la montée de la défiance des populations vis-à-vis des différentes sortes d’autorités."



Résilience aidant, c’est à nous qu’ils assignent ensuite la tâche de recoller les morceaux de ce qu’ils contribuent à détruire. Ils préconisent de remplacer les normes de protection par de simples recommandations destinées à faciliter l’action des individus. "Les gens passent ainsi de la résignation à la créativité", s’enthousiasme Jacques Lochard.



Ainsi, chacun n’aurait plus qu’à mobiliser ses propres réserves de résistance à l’irrésistible et devenir "partie prenante" de sa propre irradiation. On reconnaît là le choix de l’État japonais : maintenir les populations sur place et diminuer d’autant, à court terme du moins, le coût d’un accident nucléaire.



5. Banaliser la radioactivité, cet obstacle que l’on apprend à contourner au quotidien dans la recherche de "solutions" immédiates, ponctuelles et individuelles. La radioactivité ne poserait alors problème que dans la seule mesure où les pratiques de vie des habitants les amèneraient à la "croiser" sur le chemin de l’école, du travail, ou de la promenade.



Au Japon, se mène désormais une chasse quotidienne aux hotspots de contamination radioactive, réduits à des incidents facilement résolus en grattant le sol et en stockant la terre dans des sacs poubelle, ou en installant des rideaux de plomb aux fenêtres des chambres d’enfants afin d’"éviter la contamination venant de la forêt."



[...] 



Ces aménageurs de la vie mutilée, relayés par Arte et tant d’autres représentants d’instances étatiques ou associatives, telles que Nuclear Transparency Watch de Mmes Rivasi et Lepage, et M. Hériard-Dubreuil, défendent haut et fort l’irrationalité selon laquelle il existerait un entre-deux de la contamination, où l’exposition au rayonnement ne serait dangereuse qu’en principe, mais s’avèrerait inoffensive dans la réalité. Véritable irrationalité, cette extrême violence du "vivre avec" est une insulte aux survivants.



Il s’agirait donc d’endiguer l’horreur de la contamination en la coulant dans les formes pseudo-rationnelles d’un "tous ensemble, nous vaincrons la radioactivité" ? C’est à quoi se vouent ces prêcheurs de soumission en expliquant, sans foi ni loi, qu’on peut échapper au danger en s’y confrontant, qu’on peut gratter la terre, mais en croisant les doigts.



[...] Proclamant qu’il faut "gérer" sa peur, ils prétendent réduire à néant toute possibilité de mise en cause de la déraison nucléaire, enjoignant à chacun d’en tirer au contraire parti, plutôt que de se hasarder à en rechercher les responsables.



Il fallait dire ce qu’est l’objectif de ces rédempteurs du "vivre avec", qui n’en paieront pas le prix, eux qui ont choisi d’emplir les hôpitaux de malades plutôt que de rendre inhabitées des terres inhabitables.

Auteur: Internet

Info: 3 août 2016, https://sciences-critiques.fr/tchernobyl-fukushima-les-amenageurs-de-la-vie-mutilee/

[ sacrifice différé ] [ minimisation des conséquences ] [ propagande cynique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

léviathan

Le calamar géant qui a fait trembler les mers

Il a fallu plusieurs siècles aux savants pour donner crédit aux récits des marins attaqués par un terrifiant monstre marin. Le calamar géant devint un personnage littéraire à part entière au travers d’œuvres telles que Les Travailleurs de la mer de Victor Hugo ou Vingt Mille Lieues sous les mers de Jules Verne.

Les chroniques et les sagas nordiques du Moyen-Âge décrivent un terrifiant monstre marin qui faisait la taille d’une île et se déplaçait dans les mers séparant la Norvège de l’Islande. Au XIIIe siècle, la saga islandaise Örvar-Oddr parle du "monstre le plus grand de la mer", capable d’avaler "des hommes, des bateaux et même des baleines". 

Cette intrigante apparition revient dans des textes ultérieurs, comme la chronique du Suédois Olaus Magnus, qui décrit au XVIe siècle de colossales créatures, capables de couler un bateau. Ce type de récits continue de circuler au XVIIIe siècle, époque à laquelle ce monstre commence à être connu sous le nom de kraken (littéralement “arbre déraciné”), un terme norvégien désignant une réalité pour le moins fantasque. Dans son Histoire naturelle de la Norvège (1752), Erik Ludvigsen Pontoppidan, évêque de Bergen, décrit en effet le kraken comme "une bête d’un mille et demi de long qui, si elle s’accroche au plus grand navire de guerre, le fait couler jusqu’au fond" et précise qu’il "vit dans les fonds marins, dont il ne remonte qu’une fois réchauffé par les feux de l’enfer".

Pourtant, ces descriptions ne sortaient pas totalement de l’imagination de leurs auteurs. Erik Ludvigsen Pontoppidan nota par exemple que "les décharges de l’animal troublaient l’eau" ; il pourrait donc s’agir d’un calamar géant. L’histoire du kraken est liée aux péripéties vécues dans des mers inconnues par des marins qui les relataient à leur retour. Si les marins nordiques s’étaient limités à l’Atlantique Nord, l’entrée dans la modernité a toutefois étendu le champ d’observation à l’ensemble du Pacifique.

Certains marins ont parlé d’un "diable rouge", un calamar qui attrapait et dévorait des naufragés ; d’autres ont évoqué des animaux marins insatiables, mesurant de 12 à 13 m de longueur. La succession de témoignages d’officiers de marine racontant avoir été confrontés à ces créatures déconcertait les scientifiques. Si le célèbre naturaliste suédois Carl von Linné, le père de la taxonomie moderne, inclut le kraken dans son Systema naturae (1735), la plupart des scientifiques n’étaient pas prêts à assumer l’existence du terrible monstre nordique. Le sort injuste que subit le Français Pierre Denys de Montfort illustre cette fermeture d’esprit. Dans son Histoire naturelle générale et particulière des mollusques, le naturaliste consigna en 1801 l’existence des animaux "[les plus grands] de la Nature quant à notre planète" : le "poulpe colossal"et le "poulpe kraken". Il se fondait sur des récits nordiques et des témoignages de marins contemporains, qu’il mit en relation avec un animal similaire cité par le naturaliste romain Pline l’Ancien. Il inclut dans son oeuvre une illustration représentant l’attaque d’un navire par un poulpe géant au large de l’Angola, qui devint l’image emblématique du kraken, mais suscita le rejet unanime de la communauté scientifique et le discrédita à vie.

Or, les témoignages sur l’existence de cet animal légendaire continuaient à se succéder. Le capitaine de baleinier Frank Bullen raconta ainsi qu’il avait sans l’ombre d’un doute assisté au combat d’un "énorme cachalot" avec un "gigantesque calamar". Selon sa description, les yeux de l’animal étaient situés à la base de ses tentacules, corroborant l’idée qu’il s’agissait plutôt d’un calamar (pieuvre et poulpe possédant des bras, mais pas de tentacules).

L’épisode qui marqua un tournant dans l’histoire des calamars géants se produisit en 1861, lorsque le navire français Alecton se trouva confronté à un céphalopode de 6 m de long au nord-est de Ténériffe, dans l’Atlantique. Son commandant, le capitaine de frégate Frédéric Bouyer, relata cette rencontre dans un rapport qu’il soumit à l’Académie des sciences : l’animal "semblait vouloir éviter le navire", mais le capitaine se disposa à le chasser en lui lançant des harpons et en lui tirant des coups de fusil. Il ordonna même de le "garrotter […] et de l’amener le long du bord", mais la créature finit par s’enfoncer dans les profondeurs. Frédéric Bouyer conserva ainsi un morceau du calamar, qu’il fit parvenir au prestigieux biologiste Pierre Flourens. 

Le calamar géant devint un personnage littéraire à part entière au travers d’œuvres telles que Les Travailleurs de la mer de Victor Hugo ou Vingt Mille Lieues sous les mers de Jules Verne. Toujours avide de nouvelles découvertes scientifiques, Jules Verne décrivit dans son roman l’épisode de l’Alecton et toutes les références mythiques et historiques à l’animal ; il y inclut aussi l’attaque d’un calamar contre le Nautilus lui-même. Les scientifiques analysèrent pour leur part les témoignages de marins et les restes de calamars récupérés en mer ou échoués, et conclurent qu’il s’agissait d’une espèce particulière, qu’ils baptisèrent Architeuthis dux.

Le mystère continue de planer autour de cet animal. On ne sait presque rien de son cycle de vie ni de ses habitudes, ni même s’il s’agit d’une seule espèce de calamar. Seules une équipe de scientifiques japonais et une chaîne nord-américaine ont pu le filmer de manière brève respectivement en 2006 et 2012. On sait malgré tout que les mâles mesurent environ 10 m de long et les femelles 14. Son oeil, le plus grand du règne animal, peut mesurer jusqu’à 30 cm de diamètre. 

L’habitat de cet animal se situe dans des profondeurs extrêmes, surtout dans l’océan Pacifique, mais aussi dans l’Atlantique. Il trouve par exemple refuge dans le canyon d’Avilés, à 5 000 m de profondeur au large des Asturies. Habitués à en rencontrer lorsqu’ils partent en mer, les pêcheurs locaux n’ont guère accordé d’importance à la controverse autour de son existence. Cet animal leur est si familier qu’ils lui ont même donné un nom : le peludín ("petit velu") ; un musée, qui lui est consacré, a par ailleurs ouvert ses portes en 1997 à Luarca, sur la côte des Asturies. 

Qu’on l’appelle peludín ou Architeuthis dux, on sait désormais avec certitude que cet animal existe, même s’il n’est pas aussi sauvage que la créature sortie de l’imagination nordique et des bestiaires de la Renaissance. Il est désormais si réel que seuls notre abandon de l’exploration sous- marine et l’absence de progrès de la science entravent encore son étude et la connaissance que nous en avons. D’ici là, le mystère qui l’entoure continuera d’alimenter des légions de cryptozoologues résolus à ressusciter le kraken, mais aussi les créatures les plus romantiques de nos vieilles légendes marines.

Auteur: Armendariz Xabier

Info: sur https://www.nationalgeographic.fr/, 6 juillet 2021

[ mythologie ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

être humain

Qu’est-ce qui sépare vraiment l’humain de l’animal ?

L’humain fait partie du groupe des primates. Dans cet article de The Conversation, on plonge toutefois dans les méandres de la classification du vivant.

En ces temps de crise de la biodiversité et de questionnements sur le vivant, la vieille question de la dualité homme-animal est, semble-t-il, toujours d’actualité. Même si le " vraiment " de la question laisse entendre qu’au fond la séparation n’est pas si profonde.

Sur le plan de la biologie, de la zoologie même, devrait-on préciser, le paradoxe a été levé depuis longtemps. L’homme est un animal. Il ne peut donc se séparer de lui-même.

La question n’est donc plus de nature scientifique, mais philosophique et sociologique. Il reste que pour la plupart d’entre nous la réponse scientifique importe peu tant les termes sont connotés. Affirmer que l’homme est un animal a peu de poids. L’affirmation serait-elle admise que la question deviendrait : qu’est-ce qui distingue l’humain des autres animaux ?

Une classification de l’humain parmi les primates

Depuis des siècles, les caractéristiques biologiques de l’humanité ont toutes été intégrées dans le panorama des traits des êtres vivants en général et des animaux en particulier. Et pourtant, l’homme s’est quasiment toujours singularisé par rapport au reste du monde vivant. Toute une tradition de réflexion philosophique et spirituelle s’oppose à la vision unitaire de la science biologique.

C’est là le grand problème que Linné au 1VIIIe siècle a cru résoudre définitivement. Dans son Systema Naturae dont la 10e édition datant de 1758 est considérée comme le point de départ de la nomenclature zoologique moderne, l’homme, genre Homo, est classé, parmi les animaux, dans l’ordre des Primates – les " premiers ", noblesse oblige –, mais en compagnie de trois autres genres : Simia (les singes), Lemur (les lémuriens incluant, pour Linné, le galéopithèque, un petit mammifère arboricole planeur d’Indonésie) et Vespertilio (les chauves-souris).

Ce choix est significatif et fait de Linné un pionnier qui, d’une certaine manière, dépassa les concepts de la majorité de ses successeurs du 1IXe siècle. De fait, en 1910, une fois la biologie devenue évolutionniste, l’anatomiste William K. Gregory nomma Archonta un groupe réunissant les primates (singes, lémuriens, homme), les chauves-souris (ordre des chiroptères), le galéopithèque (ordre des dermoptères) à quoi s’ajoutent des mammifères insectivores inconnus de Linné, les toupayes (mammifères arboricoles d’Asie).

L’homme était non seulement un membre des Primates, mais aussi un membre des Mammalia (tous ces termes sont dus à Carl Von Linné). On peut remonter la hiérarchie classificatoire et inclure l’homme dans les amniotes, dans les vertébrés, dans les animaux. Les animaux, c’est-à-dire dans les classifications le règne des Animalia, aujourd’hui appelé Metazoa (mot qui signifie la totalité des animaux) – les deux termes sont synonymes.

Le terme de Metazoa à la sonorité incontestablement scientifique ne heurte aucune oreille. Dire que l’homme est un métazoaire ne choque personne. Dire qu’il est un métazoaire parce qu’il est pluricellulaire et possède une protéine qui structure le lien entre les cellules – le collagène – est affaire de spécialistes et empêche invariablement toute percée philosophique. Aucune sensibilité là-dedans. Un animal, c’est autre chose, n’est-ce pas ?

D’autres ont voulu placer l’humain hors du règne animal

Linné à sa manière a été un révolutionnaire. Ses successeurs se sont attachés à défaire le regroupement des Primates. Le naturaliste français Armand de Quatrefages classa en 1861 l’homme seul dans le " règne humain ", caractérisé par " l’âme humaine " reprenant une suggestion émise plus de quarante ans auparavant par l’agronome lamarckien Charles-Hélion de Barbançois : classer l’homme dans un règne à part, le " règne moral ".

Quatrefages s’attacha autant à réfléchir à l’unité de l’espèce humaine qu’à analyser la singularité de ses composantes. Pour Quatrefages, en savant positiviste, c’est-à-dire qui s’en tient aux faits, la notion de Règne (la plus haute des catégories de la classification) s’impose à l’esprit humain : les caractères qui définissent l’homme sont évidents et ne sont liés à aucune hypothèse ou théorie.

L’âme humaine, différente de l’âme animale serait un pur fait d’observation. Auparavant, l’anatomiste allemand Johann Friedrich Blumenbach et l’anatomiste français Georges Cuvier opposèrent l’homme seul (ordre des Bimana) aux autres primates (ordre des Quadrumana). Le naturaliste allemand J. C. Illiger avait classé l’homme seul (seul à être debout) dans les Erecta, tandis que l’anatomiste britannique Richard Owen, adversaire résolu du darwinisme, en fit le seul représentant des Archencephala, introduction notable du cerveau comme spécificité humaine.

On peut remarquer toutefois qu’à l’exception de Quatrefages, tous les autres auteurs cités subordonnent l’espèce humaine au règne animal et à la classe des mammifères. On saisit bien la difficulté de ces anatomistes distingués qui, bien conscients des caractères morphologiques et physiologiques qui tout en intégrant parfaitement l’homme dans les mammifères, étaient tentés irrépressiblement, aussi en tant que croyants, de l’opposer au reste de la création.

" L’homme sage " — Homo sapiens

L’anatomiste, celui qui décide, c’est bien l’homme, Homo sapiens (" l’homme sage " que Linné n’a pas nommé comme tel par hasard). On aura donc compris que ces affirmations taxinomiques ont pour objet de placer l’Homo sapiens à part, en fonction de traits qui lui sont propres, du psychisme à la bipédie, et non d’identifier une séquence de caractères partagés par l’homme et différents animaux.

Que l’homme soit opposé au reste du règne animal ou bien à son plus proche parent animal revient au même. Un évolutionniste tel que Julian Huxley prit en 1957 l’exemple de la classification de l’homme pour illustrer sa conception du " grade évolutif ". L’activité intellectuelle de l’homme est telle qu’elle lui suffit pour concevoir une niche écologique sans précédent. Le cerveau humain situerait l’homme, seul, au niveau de la plus haute des catégories, le règne : le règne des Psychozoa.

On le sait, le plus proche parent vivant de l’homme (Homo) est le chimpanzé (Pan). Dans les années 1960, les premières classifications incluant les deux genres dans la famille des Hominidae firent scandale. Le tableau de famille était dégradé, gâché, détruit.

7 millions d’années d’évolution

La biologie moléculaire nous dit que l’homme et les chimpanzés sont presque identiques génétiquement parlant. Mais, c’est en pure perte : on reconnaît aisément un homme d’un chimpanzé. On devrait dire : on reconnaît aisément les deux animaux. La baleine bleue et la musaraigne aussi sont des animaux, et même des mammifères, certes bien distincts. Leurs différences sont infiniment plus grandes que celles qui séparent l’homme et le chimpanzé, mais elles ne sont pas importantes à nos yeux d’hommes sages. Philosophiquement parlant, ce ne sont pas elles qui nous concernent. L’anthropocentrisme est patent. En fait, après des centaines de millions d’années d’évolution animale, la lignée humaine et celle des chimpanzés se sont séparées il y a 7 millions d’années environ.

L’homme est pétri de caractères animaux depuis le liquide amniotique dans lequel baigne l’embryon rappelant les origines aquatiques des animaux jusqu’à l’éminence mentonnière qui fait saillie à l’avant de la mâchoire inférieure (la grande invention ostéologique des humains !) en passant par tous les traits de vertébrés, de tétrapodes, de mammifères et de primates. L’homme n’est qu’un animal comme les autres et différent de tous les autres comme le sont toutes les espèces animales les unes des autres.

Peut-on se contenter d’une telle affirmation ? Les mots du quotidien sont lourds de sens et de contresens. Le verbe persiste, tenace. Malgré l’idéologie et la perte des repères scientifiques, on n’aura pas la mauvaise grâce de s’en plaindre puisque le verbe, après tout, est l’une des caractéristiques d’Homo sapiens, au moins dans la nature actuelle. 

 

Auteur: Tassy Pascal

Info: https://www.numerama.com/, 31 12 2023

[ distinguo ] [ définition ] [ animal particulier ]

 
Commentaires: 1
Ajouté à la BD par miguel

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

pédagogie

Les parents envoient leurs enfants à l'école avec les meilleurs intentions, pensant que c'est ce dont ils ont besoin pour devenir des adultes productifs et épanouis. Beaucoup doutent du bon fonctionnement des écoles, mais la sagesse conventionnelle veut que ces problèmes peuvent être résolus avec plus d'argent, de meilleurs enseignants, des programmes plus difficiles, et/ou des examen plus rigoureux.
Mais si le problème était l'école en elle-même ? La triste réalité est que l'une de nos institutions préférées est, par sa nature même, ne répond pas aux besoins de nos enfants et de notre société.
L'école est un lieu où les enfants doivent obligatoirement aller, et où leur liberté est fortement restreinte - bien plus restreinte que le toléreraient la plupart des adultes pour leurs lieux de travail. Ces dernières décennies, nous avons forcés nos enfants à rester de plus en plus de temps dans ce genre de cadre, et des preuves solides (résumées dans mon dernier livre) indiquent que c'est souvent la cause de graves dommages psychologiques. Par ailleurs, plus les scientifiques étudient le mode d'apprentissage naturel des enfants, plus nous comprenons que les enfants apprennent profondément et véritablement, et avec plus d'enthousiasme, dans des conditions presque opposées à celles de l'école.
La scolarité obligatoire fait partie intégrante de notre culture depuis plusieurs générations. La plupart des gens auraient du mal à imaginer aujourd'hui comment les enfants apprendraient ce dont ils ont besoin pour réussir dans notre culture sans l'école. Le président Obama et le secrétaire à l'éducation Arne Duncan aiment tellement l'école qu'ils souhaiteraient même allonger les jours et les années scolaires. La plupart des gens pensent que la conception de base des écoles, telle qu'on la connaît aujourd'hui, est validée par des preuves scientifiques qui montreraient que c'est ainsi que les enfants apprennent le mieux. Mais en réalité, rien n'est plus éloigné de la vérité.
Les écoles telles que nous les connaissons aujourd'hui sont le produit de l'histoire, et non pas d'une recherche sur l'apprentissage. La conception actuelle de nos écoles découle de la Réforme protestante, lorsque des écoles ont été créées pour apprendre aux enfants à lire la Bible, à croire l'Ecriture et les figures d'autorité sans les remettre en question. Les premiers fondateurs des écoles l'indiquaient clairement dans leurs écrits. L'idée que les écoles puissent permettre le développement de la pensée critique, de la créativité, de l'initiative personnelle ou de la capacité à apprendre par soi-même - le genre de compétences les plus importantes dans notre économie actuelle - ne leur effleurait même pas l'esprit. Pour eux, encourager les enfants à agir par eux-mêmes était un péché qu'il fallait casser ou réprimer.
Ce n'est pas parce que les écoles ont été reprises par l'Etat, sont devenues obligatoires et à but laïque, que la structure de base et les méthodes d'enseignement ont changé. Les tentatives ultérieures de réformes ont échoué, et même si elles ont joué sur des points mineurs de la structure, elles n'ont pas modifié la conception de base. La méthode hiérarchique, par l'évaluation, qui suppose que l'apprentissage est motivé par un système de récompense et de punitions plutôt que par la curiosité et un vrai désir d'apprendre, sert surtout à l'endoctrinement et l'obéissance et pas à grand-chose d'autre. Il n'est pas étonnant que de nombreux grands entrepreneurs et innovateurs dans le monde ont quitté l'école à un jeune âge (comme Thomas Edison), ou disaient détecter l'école et apprendre de leur côté, et pas grâce à elle (comme Albert Einstein).
Il n'est pas étonnant qu'aujourd'hui même les " meilleurs élèves " (et peut-être surtout eux) disent souvent être " lessivés " par le processus de scolarisation. Un des meilleurs étudiants diplômés, a expliqué à un journaliste pourquoi il remettait à plus tard l'université : " j'étais rongé par le fait de bien réussir et je ne dormais pas beaucoup ces dernières deux années. J'avais cinq ou six heures de devoirs tous les soirs. La dernière chose que je voulais était que ça continue. "
La plupart de élèves - qu'ils aient de bons résultats, des résultats moyens ou qu'ils soient en échec scolaire - ont perdu leur goût de l'apprentissage au moment où ils entrent au collège ou au lycée. Dans une récente étude, Mihaly Czikszentmihalyl et Jeremy Hunter ont placé sur plus de 800 élèves de la sixième jusqu'à la terminale, dans 33 écoles différentes du pays, une montre-bracelet spéciale qui émettait un signal spécial à des moments aléatoires de la journée. A chaque fois que le signal retentissait, ils devaient remplir un questionnaire indiquant où ils étaient, ce qu'ils faisaient et s'ils étaient heureux ou malheureux. Ils étaient de loin le moins heureux quand ils étaient à l'école et ils étaient le plus heureux quand ils étaient hors de l'école, à jouer ou discuter avec des amis. A l'école, ils éprouvaient de l'ennui, de l'anxiété ou les deux. D'autres chercheurs ont montré qu'à chaque nouvelle année, les élèves adoptent des attitudes de plus en plus négatives envers les matières enseignées, en particulier pour les mathématiques et les sciences.
La société en général tend à ignorer ces conclusions. Nous ne sommes pas surpris de voir que l'apprentissage soit désagréable. Nous pensons que c'est une pilule à avaler qui finira par payer sur le long terme. Certaines personnes pensent même que le fait même que l'école soit désagréable est une bonne chose car elle permet aux enfants d'apprendre à tolérer les situations désagréables, car la vie après l'école est désagréable. Peut-être que ce triste point de vue découle de l'école. Bien sûr, il y a des hauts et des bas dans la vie, à l'âge adulte comme dans l'enfance. Mais il y a bien des façons d'apprendre à tolérer les désagréments sans devoir rajouter une scolarité désagréable. La recherche a montré que les personnes de tous âges apprennent mieux quand elles sont motivées, approfondissant des questions qui les concernent réellement, et des objectifs qui sont leurs propres dans la vie. Dans de telles conditions, apprendre est en général amusant.
J'ai passé une grande partie de ma carrière de chercheur à étudier comment les enfants apprennent. Les enfants viennent au monde avec la capacité magnifique de diriger leur propre éducation. La nature leur a donnés de puissants instincts éducatifs, comme la curiosité, le ludisme, la sociabilité, l'attention à ce qu'il se passe autour d'eux, le désir de grandir et de faire ce que les enfants plus âgés et adultes peuvent faire.
La preuve que tout cela s'applique aux petits enfants se trouve sous les yeux de tous ceux qui ont regardé un enfant grandir de la naissance jusqu'à l'âge scolaire. Par leurs propres efforts, les enfants apprennent à marcher, courir, sauter et grimper. Ils apprennent leur langue maternelle à partir de rien, et partant de là, apprennent à affirmer leur volonté, débattent, amusent, ennuient, se font des amis, charment et posent des questions. En interrogeant et en explorant, ils acquièrent énormément de connaissances sur leur environnement matériel et social, et par leur jeu, des compétences pratiques qui favorisent leur développement physique, intellectuel, social et émotionnel. Ils font tout cela avant que quiconque, de quelque manière systématique que ce soit, essaye de leur enseigner quelque chose.
Cette progression et capacité d'apprendre étonnante ne s'arrête pas toute seule quand l'enfant a 5 ou 6 ans. C'est nous qui y mettons un terme avec ce système coercitif qu'est l'école. La plus importante et mémorable leçon de notre système scolaire est que l'apprentissage sous la forme d'un travail doit être évité autant que possible.
Mes recherches portaient sur l'apprentissage chez les enfants qui sont " d'âge scolaire " mais qui ne sont pas envoyés à l'école, ou qui ne sont pas dans une école tel qu'on l'entend habituellement. J'ai examiné comment les enfants apprennent dans les cultures qui n'ont pas d'écoles, surtout les cultures de chasseurs-cueilleurs, les genres de cultures dans lesquelles notre espèce a évolué. J'ai également étudié l'apprentissage dans notre culture, quand on laisse aux enfants le soin de leur propre éducation et qu'on leur donne la possibilité et les moyens de s'instruire eux-mêmes. Dans ces conditions, la curiosité naturelle des enfants et leur goût de l'apprentissage persiste tout au long de l'enfance et de l'adolescence, jusqu'à l'âge adulte.

Auteur: Gray Peter

Info: Internet

[ fermeture ] [ normalisation ] [ pouvoir ] [ judéo christianisme ]

 

Commentaires: 0

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

pouvoir sémantique

La bataille pour le contrôle de votre esprit

Dans son roman dystopique classique 1984, George Orwell a écrit : "Si vous voulez une image du futur, imaginez une botte piétinant un visage humain - pour toujours." Cette image frappante a servi de symbole puissant pour le totalitarisme au 20e siècle. Mais comme l'a récemment observé Caylan Ford, avec l'émergence des passeports de santé numériques dans l'État de sécurité biomédicale, le nouveau symbole de la répression totalitaire n'est "pas une botte, mais un algorithme : sans émotion, imperméable à tout appel, façonnant silencieusement la biomasse.

Ces nouveaux mécanismes de surveillance et de contrôle numériques ne seront pas moins oppressifs parce que plus virtuels que physiques. Les applications de traçage des contacts, par exemple, ont proliféré avec au moins 120 applications diverses utilisées dans 71 États différents, et 60 autres mesures numériques de traçage des contacts ont été utilisées dans 38 pays. Rien ne prouve actuellement que les applications de recherche des contacts ou autres méthodes de surveillance numérique ont contribué à ralentir la propagation du covid ; mais comme pour beaucoup de nos politiques de lutte contre les pandémies, cela ne semble pas avoir dissuadé leur utilisation.

D'autres technologies de pointe ont été déployées dans le cadre de ce qu'un écrivain a appelé, avec un clin d'œil à Orwell, "réflexe de la piétaille", pour décrire la propension des gouvernements à abuser des pouvoirs d'urgence. Vingt-deux pays ont utilisé des drones de surveillance pour repérer les contrevenants aux règles du covid, d'autres ont déployé des technologies de reconnaissance faciale, vingt-huit pays ont eu recours à la censure d'Internet et treize pays ont eu recours à la coupure d'Internet pour gérer les populations pendant le covid. Au total, trente-deux pays ont eu recours à l'armée ou à des engins militaires pour faire respecter les règles, ce qui a entraîné des pertes humaines. En Angola, par exemple, la police a tiré et tué plusieurs citoyens alors qu'elle imposait un confinement.

Orwell a exploré le pouvoir que le langage a de façonner notre pensée, et notamment la capacité d'un langage négligé ou dégradé à la déformer. Il a exprimé ces préoccupations non seulement dans ses romans Animal Farm et 1984, mais aussi dans son essai classique, "Politics and the English Language", où il affirme que "si la pensée corrompt le langage, le langage peut aussi corrompre la pensée".

Le régime totalitaire décrit dans 1984 exige des citoyens qu'ils communiquent en Newspeak, une langue soigneusement contrôlée, à la grammaire simplifiée et au vocabulaire restreint, conçue pour limiter la capacité de l'individu à penser ou à exprimer des concepts subversifs tels que l'identité personnelle, l'expression personnelle et le libre arbitre. Avec cette abâtardissement du langage, des pensées complètes sont réduites à des termes simples ne véhiculant qu'un sens simpliste.  

Cette novlangue (newspeak)  élimine la possibilité de nuance, rendant impossible la considération et la communication des nuances de sens. Le Parti a également l'intention, avec les mots courts du Newspeak, de rendre le discours physiquement automatique et donc de rendre le discours largement inconscient, ce qui diminue encore la possibilité d'une pensée véritablement critique. Dans le  roman, le personnage Syme évoque son travail de rédaction de la dernière édition du dictionnaire du Newspeak :

"D'ici 2050 - probablement plus tôt - toute connaissance réelle de l'Oldspeak [anglais standard] aura disparu. Toute la littérature du passé aura été détruite. Chaucer, Shakespeare, Milton, Byron - n'existeront plus que dans des versions en novlangue, pas seulement transformées en quelque chose de différent, mais en réalité contradictoires avec ce qu'ils étaient. Même la littérature du Parti changera. Même les slogans changeront. Comment peut-on avoir un slogan comme "La liberté, c'est de l'esclavage" alors que le concept de liberté a été aboli ? Tout le climat de la pensée en sera différent. En fait, il n'y aura pas de pensée, telle que nous l'entendons aujourd'hui. L'orthodoxie signifie ne pas penser - ne pas avoir besoin de penser. L'orthodoxie, c'est l'inconscience."

Plusieurs termes dénigrants ont été déployés de manière répétée pendant la pandémie, des phrases dont la seule fonction était d'empêcher toute possibilité de pensée critique. Il s'agit, entre autres, des mots "négationniste du virus", "anti-vax" et "théoricien de la conspiration". Certains commentateurs vont sans doute déformer ce livre, et en particulier ce chapitre, en utilisant ces termes et d'autres similaires - des raccourcis tout faits qui évitent aux critiques la peine de lire le livre ou d'examiner de manière critique mes preuves ou mes arguments. Un bref commentaire sur chacun de ces termes peut être utile pour illustrer leur fonctionnement.

Le premier terme, "négationniste du covidien", nécessite peu d'attention. Ceux qui lancent cette accusation à toute personne critiquant notre réponse à la pandémie assimilent imprudemment le covid à l'Holocauste, ce qui suggère que l'antisémitisme continue d'infecter le discours à droite comme à gauche. Nous n'avons pas besoin de nous attarder sur cette phrase.

L'épithète " anti-vax ", déployé pour caractériser toute personne qui soulève des questions sur la campagne de vaccination de masse ou sur la sécurité et l'efficacité des vaccins covidés, fonctionne de la même manière comme un frein à la conversation plutôt que comme une étiquette descriptive précise. Lorsque les gens me demandent si je suis anti-vax parce que je conteste le mandat de vaccination, je ne peux que répondre que la question a autant de sens pour moi que la question "Dr. Kheriaty, êtes-vous 'pro-médication' ou 'anti-médication' ?". La réponse est évidemment contingente et nuancée : quel médicament, pour quel patient ou population de patients, dans quelles circonstances et pour quelles indications ? Il n'existe clairement pas de médicament, ni de vaccin d'ailleurs, qui soit toujours bon pour tout le monde, en toute circonstance et tout le temps.

En ce qui concerne le terme "conspirationniste", Agamben note que son utilisation sans discernement "témoigne d'une surprenante ignorance historique". Car quiconque est familier avec l'histoire sait que les récits des historiens retracent et reconstruisent les actions d'individus, de groupes et de factions travaillant dans un but commun pour atteindre leurs objectifs en utilisant tous les moyens disponibles. Il cite trois exemples parmi les milliers que compte l'histoire.

En 415 avant J.-C., Alcibiade déploya son influence et son argent pour convaincre les Athéniens de se lancer dans une expédition en Sicile, entreprise qui se révéla désastreuse et marqua la fin de la suprématie athénienne. En représailles, les ennemis d'Alcibiade engagent de faux témoins et conspirent contre lui pour le condamner à mort. 

En 1799, Napoléon Bonaparte viole son serment de fidélité à la Constitution de la République, renverse le directoire par un coup d'État, s'arroge les pleins pouvoirs et met fin à la Révolution. Quelques jours auparavant, il avait rencontré ses co-conspirateurs pour affiner leur stratégie contre l'opposition anticipée du Conseil des Cinq-Cents.

Plus près de nous, il mentionne la marche sur Rome de 25 000 fascistes italiens en octobre 1922. On sait que Mussolini prépara la marche avec trois collaborateurs, qu'il prit contact avec le Premier ministre et des personnalités puissantes du monde des affaires (certains affirment même que Mussolini rencontra secrètement le roi pour explorer d'éventuelles allégeances). Les fascistes avaient d’ailleurs répété leur occupation de Rome par une occupation militaire d'Ancône deux mois auparavant. 

D'innombrables autres exemples, du meurtre de Jules César à la révolution bolchévique, viendront à l'esprit de tout étudiant en histoire. Dans tous ces cas, des individus se réunissent en groupes ou en partis pour élaborer des stratégies et des tactiques, anticiper les obstacles, puis agir résolument pour atteindre leurs objectifs. Agamben reconnaît que cela ne signifie pas qu'il soit toujours nécessaire de recourir aux "conspirations" pour expliquer les événements historiques. "Mais quiconque qualifierait de "théoricien de la conspiration" un historien qui tenterait de reconstituer en détail les complots qui ont déclenché de tels événements ferait très certainement preuve de sa propre ignorance, voire de son idiotie."

Quiconque mentionnant "The Great Reset" en 2019 était accusé d'adhérer à une théorie du complot - du moins jusqu'à ce que le fondateur et président exécutif du Forum économique mondial, Klaus Schwab, publie en 2020 un livre exposant l'agenda du WEF avec le titre utile, Covid-19 : The Great Reset. Après de nouvelles révélations sur l'hypothèse de la fuite dans un laboratoire, le financement par les États-Unis de la recherche sur le principe du gain de fonction à l'Institut de virologie de Wuhan, les questions de sécurité des vaccins volontairement supprimés, et la censure coordonnée des médias et les campagnes de diffamation du gouvernement contre les voix dissidentes, il semble que la seule différence entre une théorie du complot et une nouvelle crédible aura été d'environ six mois.

Auteur: Kheriaty Aaron

Info: The Brownstone Institute, mai 2022

[ propagande numérique ] [ complotisme ]

 

Commentaires: 0

Ajouté à la BD par miguel