Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 28
Temps de recherche: 0.049s

normalisation

Europe : les emplois fictifs et le contrôle social
Alors que l'économie en Europe périclite, le New York Times rapporte que les millions de chômeurs de la zone euro se consolent en participant à une curieuse économie parallèle peuplée de milliers d'entreprises fictives qu'on appelle des entreprises d'entraînement. Cet univers alternatif ne produit pas de biens ni de services concrets, mais il offre aux personnes des postes non rémunérés qui leur donnent un cadre, une structure et un sentiment d'intégration. Le fait de participer à ce marché du travail bidon apporte, certes, un certain soulagement à un niveau superficiel, mais quand on sait où regarder, on voit clairement qu'il s'agit de contrôle social.
Conçue après la Seconde Guerre mondiale pour offrir une formation professionnelle, cette simulation commerciale à grande échelle a actuellement pour objectif de résoudre le problème du chômage de longue durée dont souffrent plus de la moitié de ceux qui sont actuellement sans emploi dans l'UE. L'idée de base est d'empêcher les gens rejetés par le marché du travail de se sentir isolés et déprimés, en leur donnant un endroit où ils peuvent au moins faire comme s'ils avaient un emploi normal.
Le fait d'avoir une routine familière et des habitudes est réconfortant. Si vous ne parvenez pas à gratter quelques miettes pour survivre grâce à un contrat de travail temporaire sous-payé dans le monde réel, vous pouvez toujours sauver les apparences en travaillant pour un employeur qui fait semblant de vous payer pendant que votre estomac crie famine. L'article du Times décrit, entre autres, une scène digne de la double pensée d'Orwell, où une femme demande à ses collègues: "Quelle est notre stratégie pour améliorer la rentabilité ?"
On dirait Patricia Routledge s'écriant: C'est Bouquet, chère! B-U-C-K-E-T! 1
Bien que ses promoteurs soutiennent que ce vaste lieu de travail virtuel augmente le professionnalisme et la confiance en soi, le fait est que cette stratégie ne traite que les symptômes. La plupart des gens sans histoire se mettent à poser des questions difficiles quand la catastrophe les frappe et que le monde cesse de faire sens. En gardant les chômeurs occupés à s'entraîner essentiellement à enfiler des perles, on les empêche de réfléchir à des choses plus profondes et de remettre en question les principes de base de la société dans laquelle ils vivent.
Barbara Ehrenreich, l'auteur de Nickel and Dimed 2, qualifie la thérapie des faux emplois d'entraînement au déni :
"La nécessaire première étape, ainsi que le programme en douze étapes l'indique, est de surmonter le déni. La recherche d'emploi n'est pas un emploi ; la reconversion n'est pas la panacée. On peut être plus pauvre qu'on ne l'a jamais été et se sentir aussi plus libre - d'exprimer sa colère et son sentiment d'urgence, de rêver et de créer, de rencontrer d'autres personnes pour travailler avec elles à l'édification d'un monde meilleur".
Des célébrités comme Oprah Winfrey prêchent l'évangile à courte-vue du développement personnel, un récit qui prône le changement individuel, tout en ignorant presque entièrement les problèmes institutionnels plus larges. Les ploutocrates brament sentencieusement que ma richesse est ma vertu dans le sillage de l'effondrement de 2008 et de nouveaux transferts massifs de richesse. Ils ont le culot de stigmatiser les victimes de l'implosion économique qui les a mises au chômage et préconisent une bonne cure d'austérité pour les guérir. Peu importe que les milliardaires trichent en changeant la taille des buts dans les coulisses ou que les gens attentent à leur vie, comme le vieux grec, Dimitris Christoulas, qui a préféré se suicider plutôt que de mourir de faim.
Face à la menace d'un soulèvement politique, la classe dirigeante préfère que les chômeurs restent sagement sur le tapis roulant de l'emploi, le nez dans le guidon, bien dans les clous. Parce que c'est le signe que les travailleurs acquiescent tacitement au système politique, économique et social existant. Autrement, le vulgum pecus pourrait en profiter pour s'organiser et envisager des solutions de rechange. Pour la noblesse fortunée du 0,1%, cela pourrait vraiment être dangereux.

Auteur: Blunden Bill William Alva

Info: 7 juin 2015, Counterpunch

[ pouvoir ] [ domination ] [ maitrise ]

 

Commentaires: 0

réseaux sociaux

Le shadow banning et son rôle dans la censure moderne

Les médias sociaux nous observent et contrôlent ce que nous voyons.

Ce n'est pas un secret, les algorithmes dominent nos vies sociales en ligne - ce n'est pas comme si nous ne prenions pas nos propres décisions lorsqu'il s'agit de savoir à qui nous parlons ou quels médias nous consommons, mais ce serait faire preuve d'une vraie ignorance qu'ignorer comment les systèmes ont été programmés pour catégoriser, collecter et suggérer des données simplement en fonction de nos goûts et de nos suivis. Cela nous expose à des contenus, des personnes et des idées que nous n'aurions pas trouvés par nous-mêmes, mais cela soulève la question du degré de contrôle que ces systèmes exercent sur ce que nous voyons. Voilà qui nous amène au shadow banning. 

Le shadow banning est la décision d'une plateforme de médias sociaux d'empêcher partiellement ou totalement l'interaction avec le contenu d'une personne - empêcher de nouvelles personnes de rechercher votre contenu, s'assurer que vous n'apparaissez pas sous les hashtags ou même limiter la fréquence à laquelle vous êtes suggéré comme personne à suivre... ne sont que quelques exemples de la façon dont cela peut être réalisé. Les plateformes telles qu'Instagram et Tiktok reconnaissent rarement les allégations de cette nature, mais soulignent plutôt leur droit de supprimer les publications qui ne sont pas conformes à leurs directives communautaires et le fait qu'en acceptant d'utiliser la plateforme, vous consentez à leur pouvoir de le faire. 

D'une manière générale, le fait que vos vidéos soient supprimées ou que moins de personnes puissent y accéder n'est pas le plus grand préjudice du monde, mais il faut noter que les personnes qui font l'objet d'un bannissement caché présentent un profil significatif. Si je me réfère aux directives de la communauté Tiktok, il est dit que sont mises au rebut les vidéos créées dans le but de nuire à autrui. Mais dans ces directives, ils s'efforcent de répéter que sont autorisés "les contenus éducatifs, historiques, satiriques, artistiques et autres qui peuvent être clairement identifiés comme des contre-discours ou qui visent à sensibiliser aux dommages causés par des individus et/ou des organisations dangereuses". Cette citation et leur déclaration de soutien au mouvement Black Lives Matter surprendront surtout tous les de créatifs noirs qui ont vu leur taux de fréquentation chuter et leurs vidéos être retirées de leur profil. 

Instagram s'est montré tout aussi complice dans cette affaire - il y a eu un retour de bâton significatif de la part des travailleurs du sexe, des éducateurs sexuels et souvent des espaces inclusifs, queer et sexuellement positifs sur cette application. Dans son article publié dans le Guardian, Chante Joseph a exposé la zone grise qui n'est pas aussi clairement définie que la politique de non-nudité d'Instagram, où les administrateurs peuvent signaler un contenu comme étant "sexuellement suggestif" ; beaucoup de gens affirment que c'est nécessaire afin de s'assurer que les enfants ne sont pas exposés à des contenus inappropriés - plutôt que de responsabiliser les parents ou que les plateformes de médias sociaux tentent au moins d'introduire une forme de restriction d'âge, la charge est donc placée sur les créateurs. Mais considérons, par exemple, les créateurs LGBTQIA+ ; leurs comptes fournissent des informations auxquelles des jeunes qui n'ont peut-être même pas fait leur coming out pourraient avoir accès afin de pouvoir traiter et comprendre leurs sentiments dans un espace sain qui ne leur était pas accessible il y a seulement dix ans. En substance, ces directives sur ce qu'une personne est autorisée à partager sont définies par une norme morale arbitraire où les discussions sur le sexe, en particulier celles qui se situent en dehors du domaine de l'hétéronormatif, sont quelque chose dont il faut se protéger, même s'il y a très peu d'espaces qui les autorisent dans la vie réelle.

Instagram, Twitter, TikTok, Facebook ont tous la réputation d'être superficiels et de reposer sur l'auto-gratification des gens qui veulent exister et être vus (ce qui n'est même pas une mauvaise chose en soi), mais à côté de cela, ils peuvent être utilisés pour partager des idées, des pensées politiques et des savoirs. Ainsi, lorsque des créateurs noirs qui tentent d'informer les masses sont empêchés de partager des informations ou lorsque des messages de travailleurs du sexe sur la misogynie sont inaccessibles parce que leur page est considérée comme trop "sexuellement suggestive" (terme indéfini et donc difficile à traiter), le silence est assourdissant. Le shadowbanning est une menace pour nous tous car il maintient l'illusion du contrôle. Or, cette idée est synonyme de censure et d'obstruction à l'information. De plus, cette obstruction est dictée par ce que les plateformes considèrent comme approprié, de sorte que le pouvoir que nous supposions avoir dans nos voix peut constamment être réduit au silence.

Auteur: Oluwakemi Agunbiade

Info: https://cherwell.org/, 3 septembre 2020

[ pouvoir numérique ]

 

Commentaires: 0

Ajouté à la BD par miguel

pesanteur

Nouvelles preuves : les ondes sonores transporteraient réellement de la masse

En général, lorsque nous pensons aux ondes sonores, nous imaginons des vibrations invisibles se déplaçant en apesanteur dans les airs, et sans masse. Mais cela pourrait bien être sur le point de changer. Des physiciens viennent de fournir une preuve supplémentaire que les"particules" sonores peuvent réellement transporter des petites quantités de masse. Ces preuves impliquent donc également que les ondes sonores peuvent produire leurs propres champs gravitationnels, ou un équivalent se comportant comme tel.

Mais avant d’approfondir le sujet, reprenons tout d’abord la base. Par exemple, si vous frappez un ballon avec votre pied, vous y transmettez de l’énergie. Einstein ajouterait que vous avez également contribué un peu à la masse du ballon, en l’accélérant. Mais si ce ballon est une particule minuscule et que le coup de pied est une onde sonore, vous pouvez imaginer la même chose. Pourtant, depuis des décennies, les physiciens se disputent pour savoir si l’élan d’une vague de particules représente une masse nette, ou pas.

L’année dernière, le physicien Alberto Nicolis de l’Université Columbia à New York a travaillé avec un collègue de l’Université de Pennsylvanie à Philadelphie pour étudier la manière dont différentes ondes se désintègrent et se dispersent dans un fluide à l’hélium extrêmement froid. Non seulement l’équipe de chercheurs a montré que les sons peuvent en réalité générer une valeur non nulle concernant la masse, mais cette dernière pourrait également"flotter" de manière étrange, le long des champs gravitationnels, dans un sens anti-gravitationnel.

Bien que les chercheurs aient affirmé cette possibilité, leur étude était tout de même limitée à un ensemble spécifique de conditions. De ce fait, Nicolis a utilisé un ensemble de techniques différentes pour montrer que les sons ont une masse dans les fluides et les solides ordinaires, et qu’ils peuvent même créer leur propre champ gravitationnel faible.

Leur nouvelle conclusion contredit les affirmations selon lesquelles les phonons sont sans masse. À présent, selon cette nouvelle recherche, nous savons que ces derniers ne répondent pas simplement à un champ de gravitation, mais qu’ils sont également une source de champ gravitationnel.

Dans un sens newtonien, telle est la définition même de la masse. Alors pourquoi y a-t-il tant de confusion sur cette question ? En fait, le problème réside dans la manière dont les ondes se déplacent dans un milieu donné. Tout comme une onde lumineuse est appelée un photon, une onde vibratoire (du son) peut être considérée comme une unité appelée"phonon".

Imaginez-vous immobile lors d’un concert, et que vous profitez du spectacle. La masse de votre corps est la même que lorsque vous vous êtes levés le matin. Puis vient une musique plus entraînante et votre voisin vous pousse, accélérant de ce fait votre corps. Selon la loi d’Einstein, qui dit que l’énergie est égale à la masse multipliée par la vitesse de la lumière au carré : le peu d’énergie que vous gagnez avec la poussée, est également de la masse.

Donc, en entrant en collision avec une autre personne, l’énergie y est transférée avec un peu de masse, de manière imperceptible. (Dans cet exemple imagé, les corps se heurtant à d’autres corps, représentent les phonons). Dans ces conditions simples, le mouvement de va-et-vient parfait des corps et le transfert direct de la quantité de mouvement peuvent être décrits comme une forme de dispersion linéaire. Tandis que les niveaux d’énergie peuvent fluctuer pendant ledit va-et-vient, votre corps se réinitialise pour ne pas donner de masse au cycle de phonons complet.

Mais la réalité n’est pas toujours aussi simple… Les ondes lumineuses se déplaçant dans le vide et les phonons dans un matériau théoriquement parfait pourraient bien être linéaires, mais les solides et les fluides se bousculant obéissent à diverses autres lois en fonction de certains champs et influences. Et ces conditions sont bien complexes : ainsi, à l’aide d’approximations connues sous le nom de théorie des champs effectifs, Angelo Esposito et Rafael Krichevsk, de l’Université Columbia et collègues de Nicoli, ont pu comprendre comment le phonon se déplace à travers de tels supports et comment calculer leur réponse à un champ gravitationnel.

Ces derniers ont pu démontrer que, même dans des conditions dites désordonnées du"monde réel", les ondes sonores pouvaient effectivement transporter une certaine masse. Bien entendu, cette masse n’est pas vraiment conséquente et reste minime, comme on peut s’y attendre. Nous parlons plutôt d’une quantité d’énergie contenue dans le phonon, mais divisée par le carré de la vitesse de la lumière. C’est donc une masse… minuscule.

Avec cette étude, il est également important de garder à l’esprit que les mathématiques sur lesquelles repose l’allégation n’ont pas encore été mises à l’épreuve. À présent, les scientifiques devront mesurer les changements gravitationnels d’atomes refroidis à une température proche du zéro absolu, ce qui pourrait être possible si nous explorons de tels condensats dans l’espace.

Mais grâce à ces découvertes, les chercheurs suggèrent qu’il serait également, et notamment, plus simple de "peser" un séisme. En effet, le son généré par un grand tremblement de terre pourrait représenter une masse conséquente.

Dans tous les cas, nous attendons les résultats des prochaines recherches dans ce domaine avec grande impatience !

Auteur: Internet

Info: Stéphanie Schmidt 7 mars 2019, https://trustmyscience.com

[ fréquences ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier évolutif

L’explosion cambrienne déclenchée par plusieurs transgressions marines ?

Il y a 542 millions d'années apparaissaient, durant une période de quelques dizaines de millions d'années seulement, les grandes lignées d'animaux multicellulaires, comme les vertébrés et les arthropodes. Les lignées végétales et bactériennes se sont elles aussi diversifiées. 

Quel fut le déclencheur de cet événement planétaire ? 

La libération massive d'ions dans les océans, due à une érosion devenue intense, affirme une équipe américaine. Les organismes marins auraient utilisé ces polluants pour fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.

Les premières formes de vie seraient apparues sur Terre il y a 3,5 milliards d'années. Curieusement, ces êtres restèrent en grande majorité unicellulaires (vivant parfois en colonies) jusqu'à l'explosion cambrienne survenue il y a seulement 542 millions d'années. Cet événement vit alors naître de nombreux organismes pluricellulaires et des structures biominérales (par exemple des coquillages) en seulement quelques millions d'années, preuve d'une accélération soudaine de l'évolution (comme en témoignent par exemple les schistes de Burgess). Mais quel fut le facteur déclenchant ? Cette question taraude de nombreux scientifiques depuis longtemps car peu d'hypothèses convaincantes ont été apportées.

Il existe pour la même époque une autre grande curiosité, mais cette fois d'ordre géologique, clairement observable dans le Grand Canyon. L'analyse des couches stratigraphiques de cette région révèle l'histoire de la Terre sur près de 2 milliards d'années, ou presque, car il reste plusieurs discordances chronologiques. Ainsi, il n'y a pas de trace de roches datant de l'époque de l'explosion cambrienne. Des sédiments âgés de 525 millions d'années reposent directement sur des roches métamorphiques de 1.740 millions d'années et des couches sédimentaires inclinées âgées de 1.200 à 740 millions d'années. Des roches sédimentaires "jeunes" provenant de mers peu profondes recouvrent donc de "vieilles" roches sans aucune continuité logique. Mais une question se pose : a-t-on vraiment perdu des informations sur l'évolution de la Terre pendant 215 millions d'années à cause de cette inconformité géologique ?

Il semble bien que non. Selon Shanan Peters de l'université de Wisconsin-Madison, cette absence de données géologiques permettrait d'expliquer le mécanisme déclencheur de l'explosion cambrienne. Les résultats obtenus par l'équipe de ce chercheur sont présentés dans la revue Nature. L'inconformité résulterait d'une succession d'événements géologiques ayant causé la libération massive d'ions dans les océans. Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation. Cette dernière changea alors radicalement le cours de l’évolution, tant les avantages qu'elle apporte sont nombreux.

(Illustration - Le Grand Canyon s'étend sur 450 km de long et possède une profondeur moyenne de 1.300 mètres. Les strates visibles permettent littéralement de lire l'histoire géologique du continent nord-américain - L’explosion cambrienne serait liée à un trop plein d'ions)

Ces explications font suite à l'analyse des propriétés géochimiques de plus de 20.000 échantillons de roches prélevés en Amérique du Nord.

Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d'anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l'air et à l'eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d'ions calcium, potassium, fer et silice. La chimie de l'eau fut alors profondément modifiée.

Un dernier retour des mers il y a 525 millions d'années provoqua le dépôt de sédiments plus jeunes. De nombreuses traces géologiques confirment ces événements - couches de glauconite et d'autres roches particulièrement riches en potassium, fer et silice.

(ici un schéma montre la brutale accélération de l'évolution au Cambrien avec apparition de beaucoup de genres d'espèces vivantes - diversité.

Des minerais pour évacuer le trop plein d’ions

Chaque organisme vivant maintient un équilibre ionique avec le milieu. L'arrivée massive d'ions dans l'environnement marin a dû profondément perturber cette balance. Plusieurs espèces se seraient mises à stocker leurs excédents en ions calcium, potassium, fer et silice sous forme de minerais afin de rétablir l'équilibre. Cette stratégie a deux avantages : les effets des particules chargées sont limités et elles ne sont pas rejetées dans le milieu où elles pourraient à nouveau jouer un rôle néfaste.  

Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l'explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur "squelette" siliceux.

Les avantages évolutifs procurés par ces minéraux sont conséquents puisqu'ils sont utilisés pour la conception de coquilles et d'épines (rôle de protection), de squelettes (rôle de soutien) et de griffes ou dents (rôle dans la prédation). Leur apparition permet de mieux comprendre le changement soudain du cours de l'évolution. 

Ce que certains qualifiaient de "trou" dans les enregistrements de l'histoire de la Terre se révèle en réalité être une source d'information d'une valeur inestimable. La "grande inconformité" (en anglais Great Unconformity) révèle ainsi un mécanisme probable du déclenchement de l'explosion radiative du Cambrien.

Auteur: Internet

Info: Quentin Mauguit, Futura-sciences.com, 24/04/2012

[ animal-minéral ] [ paléontologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres

Comment pourrions-nous comprendre l'électricité si notre approche consistait à nous placer au sommet d'une colline en attendant d'être frappés par la foudre ?

Il me semble que nous avons cette même attitude vis-à-vis des Ovnis. Nous avons très peu d'éléments pour évaluer ce que représente vraiment ce phénomène.

Une première possibilité, qui me semble dépassée, serait qu'il s'agisse d'un phénomène naturel, comme des forces piézoélectriques ayant la capacité d'interagir avec le subtil dispositif électro-chimique du système nerveux humain, afin de créer une sorte d'hallucination, une transfiguration, ou un ravissement. Plus concrètement, ça se ramène à trois questions : Est-ce que nous y sommes pour quelque chose ? Sommes-nous visités, ou bien y a-t-il un autre occupant dans la maison dont nous ne serions pas conscients ? J'ai eu des expériences de contact, j'ai observé un Ovni de très près, il m'est arrivé de rencontrer des entités d'autres dimensions, mais ça ne m'a pas déterminé à adopter une position tranchée. Malgré l'attention extrême que je portais à cette observation, il ne me semble pas possible de conclure parce qu'il y a toujours des éléments qui contredisent les autres hypothèses.

Jacques Vallée n'est pas revenu là-dessus tout à l'heure mais je me souviens que dans son ouvrage, le "Collège invisible", il avait insisté sur l'absurdité qui fait partie des expériences de contact, où le récit du contacté contient le plus souvent des détails qui nous sembleront parfaitement ridicules. C'est comme si des éléments d'invalidation devaient toujours être incorporés dans les récits les plus sincères afin d'entretenir le doute. De ce fait, le monde scientifique n'estime pas utile d'étudier plus avant le phénomène qui leur semble relever surtout de la pathologie

Je relisais récemment Carl Jung et son "Flying Saucers, A Modern Myth of Things Seen in the Skies" publié en 1954, et je pense que personne à ce jour n'a surpassé son approche.

[Extrait condensé : "Le problème de l'existence physique éventuelle des objets volants me parait tellement important que je crois de mon devoir de lancer un cri d'alarme, comme je le fis à l'époque où se préparaient des événements qui devaient frapper l'Europe au plus profond d'elle-même".]

Terence McKenna poursuit : "J'ai tendance à penser que nous ne pouvons correctement aborder le problème des Ovnis, ou d'autres domaines aussi subtils, à cause des restrictions de notre langage. Il serait vain de tenter de rallier un consensus sur le sujet. Nous sommes déjà incapables de nous accorder sur ce qui caractérise un soufflé réussi. Donc je pense que nous passons totalement à côté en tentant de proposer une explication définitive". 

Si le phénomène Ovni est une manifestation du superviseur de l'inconscient collectif, nous devrions alors nous demander pourquoi, et comment procède-t-il ?

Terence McKenna rend hommage à Jacques Vallée et à son "système de contrôle spirituel" :

A part Jung, le seul à mon avis qui ait correctement abordé la question est Jacques Vallée, quand il a écrit : "Il est moins utile de s'interroger sur la nature du phénomène que de s'intéresser aux effets qu'il produit; on voit alors clairement que les Ovnis laminent notre foi en la science. Ils sont un antidote au paradigme scientifique qui s'est développé depuis 400 ans et nous a conduit au bord de la catastrophe mondiale...."

Il pense qu'il existe dans la structure de la psyché humaine une sorte de super-ego, un contrôleur supérieur dans la conscience collective, qui est capable d'agir en suscitant des phénomènes qui tendent à rectifier des dérives pathologiques ou mortelles dans la conduite de nos sociétés. Les corrections nécessaires ne peuvent intervenir au niveau personnel ni institutionnel; c'est alors le niveau supérieur de la conscience collective de l'espèce, comme un dispositif de contrôle, qui fait obstacle aux idéologies destructrices qui se sont mises en place et produit des manifestations capables de les éradiquer.

Pour moi, l'objectif des manifestations Ovnis est de contrer les effets du rationalisme dominant qui entraîne actuellement autant de souffrances, en injectant des éléments capables de le déstabiliser.

Il existe une autre possibilité où le gouverneur supérieur n'aurait pas directement pour rôle de renverser le matérialisme ambiant : il se peut que nous partagions depuis toujours cette planète avec une autre espèce intelligente, qui nous avait longtemps laissés évoluer librement, jusqu'au point où nous commencions à représenter une nuisance. Dans ce cas, les conséquences sont les mêmes que sont les mêmes que celles évoquées précédemment.

Pour Terence McKenna, une divulgation de la vérité entraînerait un immense chaos dans nos sociétés :

"J'ai abordé cet aspect avec une des entités et elle m'a répondu : 'Nous avons préféré que vous pensiez à une invasion aliène, parce que les populations seraient paniquées si nous leur laissions découvrir ce qui se passe vraiment!' 

"Je dois aussi mentionner la possibilité que ces engins volants ne soient pas des vaisseaux mais des capsules temporelles. Dans ce cas nous serions probablement fascinés de contempler nos très lointains descendants, venus nous porter le message d'un évènement majeur."

Le passage suivant est extrait d'une conférence titrée "Alien love", qui situe le niveau de ses expériences personnelles : "Ces myriades d'êtres que je rencontrais dans ces séances se métamorphosaient en d'étranges machines, semblables à d'énormes sphères ciselées comme des joyaux, qui leur permettaient de créer des objets en les chantant."

Les aliens se trouvent en ce cas dans un endroit inattendu... le champ de la conscience, toujours aussi méconnu.

McKenna ajoute : "Je suis toujours stupéfait que nous nous posions la question depuis 45 ans, sans que personne n'ai encore émis ce genre de proposition : si nous pensons être visités par des formes de vie organiques et intelligentes venues d'une autre dimension ou d'une région de notre galaxie, nous devrions alors examiner très attentivement notre environnement pour y rechercher des traces de leur présence. Pourrait-on trouver des formes de vie, parmi les millions que nous connaissons, qui ne seraient pas originaires de cette planète ? Il serait possible de lancer une étude comparative de l'ADN. Certains d'entre vous savent déjà ce que j'en pense : les plantes et les champignons qui renferment des substances psychoactives ont les meilleures chances de figurer parmi les envahisseurs extraterrestres dans l'environnement de cette planète."

En résumé : "Sans le recours aux substances psychédéliques, je pense qu'on ne pourra pas aborder sérieusement la question des Ovnis; ce serait comme tenter de comprendre la nature de l'univers en se privant d'un bon télescope."


Auteur: McKenna Terence

Info: Sur les états amplifiés de conscience et le rôle des "forces spirituelles", présentation de Graham Hancock lors du symposium Angels, Aliens and Archetypes auquel participait aussi Jacques Vallée en 1987

[ science-fiction ] [ DMT ] [ spéculations ] [ astral ]

 

Commentaires: 0

sexualité

La culotte peut-elle être chaude et la tête froide ?

Est-il possible qu'une femme soit physiquement excitée sans s'en apercevoir ? A la vue de films érotiques qui les font abondamment mouiller, la majorité des femmes prétendent que ces films les laissent "de glace". Mépris du corps ? Déni du désir ?

Si on demande aux femmes quels scénarios les excitent, elles ont tendance à minorer. Faudrait pas avoir l'air trop "salope". Officiellement, donc, les femmes - pour leur majorité - n'aiment pas l'idée de se retrouver au lit avec trois hommes, ni de se faire payer par un bel inconnu pour le rejoindre dans une chambre d'hôtel, ni les plans hardcore, ni la sodomie, etc.

Fatiguée d'entendre toujours le même discours, la chercheuse américaine Meredith Chivers invente un appareil à mesurer l'excitation et découvre que les femmes sont excitées... même lorsqu'elles affirment le contraire. Ces femmes mentent-elles ? "Non", répond Meredith Chivers, qui part du principe que ses cobayes sont de bonne foi lorsqu'elles passent le test. Dans ce cas, comment expliquer un tel aveuglement ? S'agit-il d'un refus inconscient de ses propres émois, conditionné par l'éducation ? Ou d'une plus grande "capacité" de faire la part des choses entre les manifestations physiologiques et l'excitation mentale ? Plusieurs hypothèses sont possibles.

EXCITÉE SANS LE SAVOIR

La première hypothèse repose sur l'idée d'une disparité fonctionnelle entre le pénis et le vagin. En d'autres termes : il est cliniquement possible que la femme soit excitée sans le savoir. Dans Le Secret des femmes*, Elisa Brune et Yves Ferroul l'expliquent ainsi : "Un clitoris peut être gorgé de sang et gonflé en érection sans que sa propriétaire en soit le moins du monde au courant. Situation impossible pour un pénis dont l'aspect crie son état sur tous les toits. Raison, sans doute, pour laquelle excitation mentale et excitation physiologique sont plus étroitement liées chez l'homme que chez la femme. Raison aussi pour laquelle la probabilité de masturbation spontanée est plus grande chez les garçons que chez les filles. Une érection visible, d'un côté, va induire un comportement de curiosité et de renforcement de l'excitation, alors qu'une érection invisible, de l'autre côté, va laisser le champ ouvert à une multitude de ressentis différents : excitation, ou gêne, ou malaise, ou incompréhension, ou saute d'humeur, ou inconscience pure et simple. Est-ce pour cela que 54 % des hommes disent penser au sexe au moins une fois par jour, contre seulement 19 % des femmes ?" "On peut donc être excitée, poursuivent-elles, sans le savoir, et ce même lorsqu'on baigne dans une ambiance sexuelle. Lorsqu'on soumet des hommes et des femmes à des stimuli pornographiques, les réponses physiologiques sont équivalentes en rapidité et en intensité (mesurée par l'augmentation du débit sanguin dans les organes génitaux qui lui-même induit la lubrification chez la femme). À cette différence près que les femmes déclarent souvent ne ressentir aucune excitation (là où les hommes sont parfaitement conscients de ce qui se passe)." Pour Elisa Brune et Yves Ferroul, il est physiologiquement possible pour une femme de rester sourde aux appels lancés depuis sa culotte. Mais cette surdité est-elle une bonne chose ? Culturellement, les femmes sont éduquées à nier leurs désirs. Si elles se bouchent les oreilles, refusant d'entendre ce que le corps leur dit, faut-il se contenter de dire "C'est comme ça ?". Ou faut-il inciter les filles à se fier plus à leurs sensations physiques qu'à la morale répressive ambiante?

DÉSOLANTE PSYCHOLOGIE ÉVOLUTIONNISTE

La question est difficile car il se peut fort que les sécrétions vaginales n'aient POUR DE VRAI rien à voir avec l'excitation mentale. "On a déjà constaté des vagins lubrifiés lors de viols, ce qui ne veut pas dire pour autant qu'il y avait consentement ou plaisir, raconte Elisa Brune. La paroi vaginale répond du tac au tac lorsqu'on a besoin d'elle, quel que soit le scénario." Le problème avec cette hypothèse-là, c'est qu'elle est récupérée par des adeptes de la psychologie évolutionniste et détournée à leur profit : ils affirment que la "vasocongestion réflexe" du vagin (le fait que les femmes se mettent à mouiller dès qu'elles sont confrontées à des corps nus ou des situations sexuelles) "pourrait être le résultat d'une adaptation évolutive rendant la femelle apte au coït plus rapidement, c'est à-dire indistinctement à la moindre alerte, ce qui la protègerait des blessures en cas de sollicitation brutale." Idée rancie, sous-tendue par une idéologie scientiste qui ramène systématiquement le désir à sa seule dimension biologique.

Il est toujours désolant de constater que les résultats de recherche qui devraient nous amener à poser de vraies questions sur ce que nous sommes (ou ce que nous voulons) sont mises au profit d'un discours -rabâché ad nauseam- réduisant la sexualité à n'être qu'un instinct primal, puis qu'un programme génétique, hérité du Pléistocène. C'est le même discours que celui qui consiste à dire : la pornographie est une drogue, puisqu'elle réduit notre self-contrôle ; les hommes sont naturellement des violeurs polygames attirés par le rapport taille-hanche de 0,7 ; les femmes sont naturellement des harpies frigides, possessives et monogames... Il est désolant de constater que ce discours, désespérant car rempli de mépris envers la complexité humaine, reste la réponse à tout lorsque nous sommes confrontés à des données étranges. Pourquoi les femmes s'excitent-elles sur les bonobos qui copulent et pas les hommes ?

OUVRIR DE NOUVELLES PISTES

Dans un article datant du 21 mars 2014, le chercheur Martin Baker (1) avance : "Lorsque Meredith a fait cette curieuse découverte, elle avait bien conscience que ça ne collait pas avec la doxa. La doxa veut que les mâles humains soient excités par le fait de multiplier leurs partenaires et que les femelles humaines, au contraire, ne soient excitées que par la tendresse et l'amour. Le problème que soulève la contradiction entre ce qui les excite physiquement et ce qu'elles prétendent devrait pourtant nous encourager à ouvrir de nouvelles pistes de réflexion sur la sexualité."

Après quoi, Martin Baker propose son analyse : "Nos corps réagissent à certaines images et, ce faisant, nos corps nous encouragent à définir ce qu'est le sexe et la sexualité suivant des critères physiologiques... Nous sommes des créatures remplies de désir pour le sexe, mais également remplies d'attirance pour le désir lui-même. Quand nous grandissons, nous devenons conscient de la possibilité du sexe. Nous apprenons à identifier les réponses physiologiques de nos corps aux possibilités sexuelles. Nous apprenons également à nous définir en fonction de ces réponses : il y a des choses qui nous excitent et d'autres pas. Cela fonde notre identité (sexuelle, mais pas que). Nous apprenons à comprendre qui nous sommes en comparant ce qui nous excite avec ce qui excite les autres et à voir le monde comme un champ ouvert d'interdits ou de possibilités. Ainsi se construit notre univers fantasmatique, à la croisée du corps, du moi et des normes culturelles. Les trois sont nécessaires et il serait intéressant de réfléchir sur la sexualité entendue comme le résultat d'une interaction entre ces trois univers.

Auteur: Giard Agnès

Info: 25 janv. 2015

[ femmes-par-hommes ] [ sciences ] [ femmes-par-femme ]

 

Commentaires: 0

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychosomatique

Le jumeau maléfique de l'effet placebo fait des ravages, selon l'essayiste états-unien Stewart Justman, pourfendeur du diagnostic qui rend malade Comme les héros des feuilletons télévisés, l’effet placebo a un jumeau maléfique: il s’appelle "nocebo". Le placebo, rappelons-le, est ce phénomène troublant qui veut qu’un bonbon lambda avalé en croyant prendre un médicament authentique peut apporter les mêmes bienfaits que le vrai remède, grâce à la suggestion. Le nocebo fonctionne sur le même mécanisme, mais avec l’effet inverse: il fait du mal. Dites-moi que j’ai ingurgité une denrée avariée, mes boyaux se tordront. Magique? Pas vraiment: le cerveau ayant pour tâche de gérer les fonctions du corps, il n’est pas étonnant que l’information qu’il absorbe infléchisse le processus. Dans The Nocebo Effect*, Stewart Justman, essayiste états-unien partageant son œuvre entre l’histoire de la littérature et la médecine (avec des passerelles fréquentes entre les deux), évoque les ravages du nocebo dans des territoires médicaux aussi différents que l’anorexie, le syndrome de fatigue chronique, la dépression, le trouble dissociatif de l’identité, l’hyperactivité, les cancers du sein et de la prostate. Parfois, le mal est un effet direct de l’imagination, aiguillée par la propagande pharmaceutique ou par les campagnes de prévention: "Une fois mises sur le marché, des idées sur telle ou telle maladie sont en mesure de susciter la maladie elle-même", constate Justman: un diagnostic peut déployer son potentiel nocif en "semant des suggestions dans l’esprit du patient". Est-ce fréquent? La question est apparemment très peu étudiée, en partie car il est éthiquement difficile de mener des expériences consistant à créer des problèmes chez les sujets. Des indications sur le "jumeau maléfique" se nichent toutefois dans les études sur l’effet placebo. Dans une étude troublante, publiée dans l’International Journal of Clinical Practice en 1998, l’Anglais A. F. Cooper découvrait par exemple, avec un groupe de patients souffrant de polyarthrite rhumatoïde, que ceux à qui l’on administrait une brève leçon de choses sur la maladie se portaient moins bien que ceux qu’on se bornait à soigner, sans rien leur dire. Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé Dans d’autres cas, c’est le dépistage à grande échelle qui fait des dégâts, débouchant sur des traitements qui se révèlent plus nuisibles – voire plus meurtriers – que le mal qu’ils sont censés soigner. Les mises en garde viennent du champ médical lui-même, qui s’inquiète des effets pervers de la traque systématique aux cancers du sein et de la prostate: on y revient plus loin. Qu’il agisse directement sur l’individu via la suggestion ou qu’il déploie ses conséquences à travers une prise en charge médico-sociale, l’effet nocebo résulte d’un phénomène de "surdiagnostic": Overdiagnosis and Its Costs ("Le surdiagnostic et ses coûts") est le sous-titre du livre de Stewart Justman. Morphine et neurasthénie Comment ça marche? Le rapport de cause à effet semble s’afficher parfois de manière évidente. "Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé", comme si "les personnes atteintes façonnaient inconsciemment leurs symptômes selon le modèle fourni par les médias". Il en va d’une manière semblable pour la neurasthénie, syndrome à la mode au cours de la Belle Epoque, "qui s’épanouit auprès des couches aisées, jusqu’à sa disparition au début du vingtième siècle". Identifié par le neurologue états-unien George Beard en 1869, le trouble était défini comme "une maladie englobante, dont le symptôme clé était une fatigue mentale et musculaire", mais dont les manifestations possibles remplissaient une liste de 70 entrées. "L’existence brève et spectaculaire de la neurasthénie témoigne de la manière dont une appellation a le pouvoir d’organiser et de mobiliser des symptômes", relève Justman. Certains maux paraissent ainsi atteindre les corps par une contagion socio-culturelle. Placebo et nocebo montrent que l’acte médical, loin d’être une simple interaction physique, est en réalité une "procédure sociale" à part entière: "Des expériences montrent que même un médicament aussi puissant que la morphine produit un effet plus important lorsqu’il est administré ouvertement, dans le cadre d’un rituel médical, que lorsqu’on le donne aux patients à leur insu." Exemple saisissant de la production d’un syndrome via le cérémoniel thérapeutique: le trouble dit "de la personnalité multiple", qui n’émerge le plus souvent qu’au moment où le soignant demande au patient de nommer ses alters egos. Sommeil et désarroi Faut-il parler de maladies imaginaires, de troubles socialement manufaturés à partir de néant? Dans le cas des symptômes de dépression, Justman suggère plutôt qu’il s’agit souvent d’états inhérents à la normalité de l’existence, qui se retrouvent médicalisés, c’est-à-dire transformés en pathologies. C’est "le désarroi commun et passager, produit par la vie elle-même, qui se résoudrait spontanément si on ne faisait rien"; ce sont "des constantes de la condition humaine", ou en tout cas "des difficultés qui se rattachent à la nature même de la civilisation". Le DSM-5, dernière édition du catalogue états-unien (et international) des troubles psychiques et de leurs symptômes, "intègre, à contrecœur, l’argument selon lequel ce qu’on appelle dépression peut être en fait une réponse justifiée à la vie elle-même". On pourrait, bien sûr, retourner la question: faut-il accepter le désarroi ordinaire en tant que composante inévitable de la normalité, ou peut-on aspirer à s’en débarrasser? Comme les sociologues Allan V. Horwitz et Jerome C. Wakefield Stewart, auteurs de Tristesse ou dépression? Comment la psychiatrie a médicalisé nos tristesses (2007), Justman défend l’existence de la mélancolie dans l’expérience humaine. D’autres cultivent le rêve utopiste de l’éradication de tout chagrin. Le problème, c’est que la médicalisation du malheur ordinaire aurait plutôt tendance à accroître la portée de ce dernier. "Ironiquement, un des effets du surdiagnostic de la dépression est que les antidépresseurs en vogue perturbent le sommeil", note Justman. Or, "un des facteurs de guérison les plus importants dans nos vies réside dans notre capacité de sombrer chaque soir dans l’endormissement réparateur"… La conscience est surestimée Y a-t-il donc un équilibre, un "bon" seuil de médicalisation à ne pas dépasser? La question est particulièrement lancinante dans le cas des cancers du sein et de la prostate. Dans les deux cas, le dépistage massif conduit à détecter et à traiter une quantité de cancers "dormants" ou "indolents" qui seraient inoffensifs et avec lesquels on vivrait sans problème. Le sein: selon une étude publiée en 2013 dans le British Medical Journal par le chirurgien Michael Baum, pour chaque décès évité par la mammographie on peut s’attendre à un chiffre de un à trois décès supplémentaires liés aux soins donnés aux femmes dépistées pour des cancers inoffensifs. La prostate: selon une étude européenne de 2009-2012, le dépistage réduit la mortalité engendrée par ce cancer, mais on compte 33 hommes rendus impuissants ou incontinents par une intervention non nécessaire pour chaque homme sauvé… Que faire? Eliminer les dépistages, plus nuisibles que bénéfiques comme le suggèrent plusieurs chercheurs? Brûler le DSM, véritable machine à surdiagnostiquer (et dénoncé en tant que tel par Robert Spitzer et Allen Frances, deux responsables successifs de la task force qui en coordonne la rédaction)? Arrêter net les campagnes d’information, sources majeures d’effets nocebo? Dans son élan, Justman jette peut-être quelques bébés avec l’eau du bain (notamment dans le domaine du traumatisme psychique). On retiendra néanmoins son éloge paradoxal de l’inconscience: nous vivons sous l’emprise d’un "culte de la conscientisation", mais "la conscience est surestimée". Notre cerveau fait son travail de gestion de la vie dans le silence des processus inconscients, où il n’est sans doute pas anodin de trop le déranger. Il travaille à notre insu, par habitude. Il est vrai que l’habitude a mauvaise presse. Et pourtant – la philosophie confucéenne et taoïste en avait l’intuition, les neurosciences le savent aujourd’hui –, "l’habitude est hautement opérationnelle, même dans des faits d’excellence".

Auteur: Ulmi Nic

Info: in le temps online du 15.9.2015 sous Effet nocebo: le patient qui en savait trop, *The Nocebo Effect. Overdiagnosis and Its Cost, par Stewart Justman, Palgrave Macmillan, 272 p

[ grégaire ] [ influençabilité ] [ corps-esprit ]

 

Commentaires: 0

fric

Faut-il réduire la taille des établissements bancaires ? Une stricte séparation entre banque de dépôt et banque d'investissement est-elle nécessaire ? Qu'en est-il des relations entre les pouvoirs publics et les banques ?
La Lettre des Académies, une publication commune de l'Académie royale de Belgique, l'Académie royale de Médecine de Belgique, l'Académie royale de langue et littérature françaises de Belgique, The Royal Academies for Science and the Arts of Belgium et l'Union Académique internationale, me pose la question mise en titre. Ma réponse sera publiée dans le N° 31.
Une réponse a été offerte indirectement à ces questions d'actualité, le 6 mars 2013, par Eric Holder, l'Attorney General des États-Unis, l'équivalent de notre Ministre de la justice.
Le cadre de sa déclaration était une audition du Comité judiciaire du Sénat américain. Les questions posées visaient à comprendre pourquoi aucun dirigeant d'établissement bancaire n'avait été poursuivi à la suite des événements qui avaient conduit à l'effondrement du système financier international en septembre 2008, le fait étant patent que l'origine de ce séisme se trouve au sein-même du système bancaire américain, et plus particulièrement dans l'émission de titres adossés à des prêts immobiliers résidentiels de qualité médiocre, les fameux prêts "subprime".
Répondant au Sénateur Chuck Grassley (républicain de l'Iowa), qui l'interrogeait sur l'apathie du ministère de la Justice dans la recherche de coupables, Eric Holder déclaraot ceci :
"Je crains que la taille de certains de ces établissements ne soit devenue si grande qu'il est devenu difficile de les poursuivre en justice, parce que des indications nous parviennent qui si nous les poursuivions - si nous procédions à des inculpations - cela aurait un impact négatif sur l'économie nationale, voire même sur l'économie mondiale, et il me semble que ceci est la conséquence du fait que certains de ces établissements sont devenus trop importants [...] Ceci a une influence inhibitoire sur, ou impacte, notre capacité à prendre les mesures qui seraient selon moi les plus adéquates..."
Holder ne dit pas explicitement qu'il existe entre le secteur bancaire et le ministère de la Justice un rapport de force et qu'au sein de celui-ci, le ministère de la Justice est en position défavorable, mais c'est bien ainsi que ses propos furent interprétés par les sénateurs qui l'interrogeaient. C'est également la manière dont sa réponse fut rapportée par la presse unanime.
* * *
Lorsqu'il était devenu manifeste à l'automne 2008 que certaines banques étaient à ce point stratégiques que leur chute, comme celle de Lehman Brothers qui venait d'intervenir, entraînerait celle du secteur financier tout entier, l'expression "Too Big to Fail" se répandit : trop grosse pour faire défaut. Elle s'emploie toujours, en concurrence avec l'expression officielle de "banque systémique", en référence au risque systémique : la mise en péril du système financier dans son ensemble.
En février 2013, dans une tribune libre du Financial Times, Neil Barofsky, qui avait été l'Inspecteur-général du Troubled Asset Relief Programme (TARP), le programme de sauvetage du système financier américain, employa une nouvelle expression calquée sur la première : "Too Big to Jail", trop grosse pour être mise en prison.
S'il était donc apparu en 2008 que certains établissements bancaires étaient à ce point cruciaux que leur faillite se répercuterait sur l'ensemble du système financier, il était devenu évident en 2013, et c'est ce que les propos du ministre de la Justice américain confirmaient, que le rapport de force entre ces mêmes banques et le gouvernement était tel qu'elles disposaient du pouvoir de maintenir le statu quo. Les banques systémiques disposaient désormais du pouvoir de faire obstacle à ce qu'on les empêche de mettre en péril l'ensemble du système financier, et ce pouvoir, elles l'exerçaient.
Trois approches étaient envisageables vis-à-vis des banques systémiques :
1) les démanteler, jusqu'à ce que la taille des unités recomposées soit telle que leur défaut n'entraîne plus d'effet domino ;
2) décourager ou interdire celles de leurs activités qui génèrent du risque systémique, à savoir les paris sur les variations de prix (ce qu'on désigne habituellement du terme trop vague de "spéculation").
3) accroître les réserves par rapport à leur niveau d'avant-crise, en espérant que le calcul soit cette fois fait correctement.
À chaud, à l'automne 2008, les deux premières options uniquement étaient sérieusement prises en considération, la troisième était écartée du fait de sa touchante naïveté. Seule cette dernière pourtant serait adoptée en juillet 2011 avec les normes Bâle III, qui devraient être mises en vigueur entre 2016 et 2019, du moins si les efforts des lobbies qui cherchent aujourd'hui à les bloquer devaient échouer.
Dans une approche en termes de réserves, rien n'est fait - il faut le souligner - pour endiguer le risque systémique : on s'efforce seulement d'évaluer les pertes éventuelles. Bâle III ne distingue pas non plus les risques inévitables, dus aux impondérables d'un avenir incertain, et les risques encourus délibérément par les banques quand elles font des paris sur les variations de prix.
* * *
Dans trois cas récents, les efforts du secteur bancaire pour faire obstacle à ce qu'on l'empêche de mettre à l'avenir l'ensemble du système financier en péril, furent couronnés de succès.
Un tribunal à Washington invalidait le 29 septembre 2012 des mesures prises par la CFTC (Commodity Futures Trading Commission), le régulateur américain du marché des produits dérivés, règles qui auraient plafonné le volume des positions qu'un intervenant peut prendre sur le marché à terme des matières premières, afin qu'il ne puisse à lui seul le déséquilibrer. Le secteur s'était opposé à de telles mesures, noyant la commission sous un flot d'avis défavorables, s'assurant ensuite - grâce au parti républicain - que le budget de l'organe de contrôle prévu ne soit pas voté, assignant enfin la CFTC devant les tribunaux. Cette dernière stratégie s'avérerait payante.
On avait appris quelques jours auparavant, le 24 septembre 2012, que l'IOSCO (International Organisation of Securities Commissions), organisme fédérant les régulateurs nationaux sur le marché des matières premières, et à qui le G20 avait confié le soin de réguler le marché du pétrole, jetait l'éponge. Lors de la réunion qui venait de se tenir, les contreparties : l'Agence Internationale de l'énergie, l'OPEP (Organisation des pays exportateurs de pétrole) et les compagnies Total et Shell, avaient constitué un front du refus. Les compagnies pétrolières avaient affirmé qu'en cas de réglementation du secteur, elles cesseraient de communiquer à leurs organismes de supervision les données relatives aux prix pratiqués.
Le mois précédent, le 22 août 2012, alors que la SEC (Securities and Exchange Commission), le régulateur des marchés boursiers américains, avait mis au point un ensemble de mesures en vue d'empêcher que ne se reproduise un effondrement du marché des capitaux à court terme (money market), tel celui qui l'avait dévasté en septembre 2008, elle n'était pas parvenue à réunir une majorité en son sein, l'un des membres du comité - très lié au secteur - ayant refusé son aval.
Je concluais ainsi ma chronique dans le quotidien Le Monde, où je rapportais ces trois illustrations (°) :
"La finance dispose donc des moyens de neutraliser toute tentative de réduire la nocivité de ses pratiques. Elle s'est immunisée contre les efforts engagés par la communauté pour se protéger contre un nouvel effondrement, efforts motivés bien entendu par le souci de se prémunir contre les conséquences économiques et sociales d'une telle catastrophe. Toute mesure préventive d'un nouveau désastre étant systématiquement désamorcée, celui-ci devient inéluctable".
J'avais donné pour titre à ma chronique elle-même, une citation d'Arnold J. Toynbee : "Les civilisations ne meurent pas assassinées, elles se suicident".
Tous les efforts menés en vue d'une nouvelle régulation de la finance recourent à la même stratégie : le monde financier est consulté par les autorités, se tient ensuite une négociation visant à ce que se dégage un compromis entre les exigences des uns et des autres. La condition essentielle pour qu'une telle stratégie réussisse est que l'industrie financière s'identifie à l'intérêt général, qu'elle reconnaisse et promeuve la nécessité de garantir un cadre qui maintienne la pérennité des institutions financières sans affecter pour autant la bonne santé de l'économie. Cette condition-là n'est hélas pas remplie.
John Maynard Keynes écrivait en 1926 dans un essai consacré à "La fin du laisser-faire" : "Suggérer à la City de Londres une action sociale en vue du bien public est du même ordre d'idée que discuter L'origine des espèces avec un évêque il y a soixante ans". La remarque n'a rien perdu de son actualité, et notre tolérance, à nous citoyens, face à ce scandale, toujours aussi grande, suggérant que nous nous sommes faits une raison devant un rapport de force entre le secteur bancaire et nous qui semble destiné à nous demeurer éternellement défavorable.

Auteur: Jorion Paul

Info: 13 AOÛT 2013

[ société ] [ pouvoir ] [ profit ]

 

Commentaires: 0

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0