Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 95
Temps de recherche: 0.066s

islam

On peut aisément arguer et comprendre que le voile musulman, surtout intégral, fut instauré afin de protéger les femmes, et accessoirement leur assurer une forme de tranquillité. On pourrait faire la mauvaise langue et annoncer que l'homme musulman a plus de difficultés à se contrôler avec l'autre sexe... alors que ce n'est que la conséquence de quelque chose de beaucoup plus profond. La volonté d'emprise sur l'esprit, de formatage (c'est comme ça et pas autrement, si tu n'est pas d'accord tu es un renégat, un mécréant). Plus avant encore et plus grave je pense : on déresponsabilise le mâle en lui inculquant que la femme est une mère - la sienne bien sûr pour commencer, et une femme-épouse, reproductrice au premier chef. Le tout bien évidemment sans possibilité de remise en question : contrôle total du dogme.
Beau travail ma foi, surtout lorsqu'on constate que les femmes musulmanes bien endoctrinées (verrouillées ai-je envie de dire) sont les plus efficaces en terme de prosélytisme. Tout simplement parce que ce sexe a été, est, et sera, au centre du jeu de la vie humaine. Ce qui fait penser, par parenthèse, au système judaïque, où la confession passe par la mère. Certains systèmes dogmatiques religieux ont développé de redoutables artifices pour la conservation de leur pouvoir. C'est à se demander si toute les réflexions de ces coteries ne portent pas principalement sur ce point.
Résultat : les musulmans se reproduisent beaucoup et vite, ce qui peut être vu comme inquiétant, que ce soit pour la surpopulation, ou pour l'avenir de la civilisation occidentale.
Le langage est la drogue des hommes, ils s'y raccrochent, plus encore lorsqu'il correspond à des habitudes communautaires ancrées. Réconfort. La crédulité de l'humain est si invraisemblable, sa curiosité et son imagination si grandes, que ce pouvoir des mots est devenu l'arme principale des dirigeants dans le grand jeu du monde des idées. C'est par lui que tout se passe et se passera désormais. La profusion des images qui l'accompagne - le politiquement correct - n'étant là que pour programmer un peu plus le quidam par le biais de l'émotion. L'image vous absorbe, l'émotion vous submerge... SIdération, itération du message - donc programmation inconsciente-, aveuglement et manque de recul de votre discernement, vous voilà acquis.

Auteur: Mg

Info: 21 sept. 2019

[ nickab ] [ doctrine ] [ religions ] [ pouvoir écrit ] [ propagande ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Il faut concevoir que l’Univers est un champ d’énergie, que tout est énergie, que ce que nous connaissons sur le plan matériel n’est qu’une condensation de cette énergie, alors si nous parlons des fourmis, si nous parlons des abeilles, si nous parlons des oiseaux, il y a une fonction ésotérique, autrement dit occulte, autrement dit invisible liée à ces animaux-là, à ces formes-là, et lorsque l’être humain sera capable de se dédoubler et de comprendre les Lois des formes des Mondes invisibles qui sont constituées avant qu’il y ait programmation pour la densification dans la matière, l’être humain connaîtra les Lois et le pourquoi de ces animaux-là, mais on ne peut pas dissocier le royaume animal de l’évolution de l’être humain, car les animaux les plus complexes vont aussi vers une évolution supérieure, mais non pas dans le sens que l’être humain peut le comprendre aujourd’hui.

On dit souvent que le minéral va à la plante, la plante devient animale, l’animal devient humain, et l’humain devient surhumain, ça c’est vrai dans une certaine perspective, mais lorsque l’être humain est en relation parfaite avec l’Univers, autrement dit qu’il n’est plus influencé par les Planètes et qu’il est libre de se dédoubler, c’est-à-dire de visiter les Mondes invisibles, je ne parle pas des mondes spirituels là, je parle des Mondes invisibles, des Univers parallèles, à ce moment-là, l’être humain n’a plus le temps de s’occuper des animaux et n’est plus intéressé aux animaux parce que sa science le projette vers la construction d’Univers totalement neufs, et il est obligé de par la nature de l’Intelligence et de par le processus créatif extrêmement rapide de l’Intelligence, du Principe de l’Intelligence, de constituer des mondes totalement nouveaux dans lesquels les formes anciennes qui ont servies à l’évolution d’une humanité ne servent plus, alors s’il y a des animaux aujourd’hui sur la Terre, ils servent à l’humanité, mais dans les temps qui viendront où l’être humain sera en contact avec les Mondes parallèles, si l’être humain veut des animaux il sera obligé d’en créer des nouveaux et ce sera lui qui les créera, parce qu’il aura la capacité de se servir de l’énergie de l’âme et qu’il fera partie de la Hiérarchie, et qu’il connaîtra la Loi des formes et aussi les Lois d’évolution, qui sont liées à la forme et à la régénération de la forme.

Auteur: Montréal Bernard de

Info: http://hommageabdm.canalblog.com/archives/2016/09/30/34384731.html

[ méta-spiritualité ] [ anthropocentrisme ]

 
Commentaires: 2
Ajouté à la BD par miguel

sens-de-la-vie

STS : L'esprit est comme un logiciel. Il a été mis à jour à chaque instant de votre vie. Il teste chaque signification faite contre toutes les autres définitions qu'il connaît déjà (biais de confirmation). Chaque nouvelle connexion pousse le sens plus loin dans le conscient profond. L'esprit pousse tout vers la mécanique.  Pendant 3,5 milliards d'années, notre mental a de plus en plus privilégié la mécanique. La plupart de cette programmation est basée sur la survie. La majorité de nos expériences ont consisté à courir. Nous étions de la nourriture. Une grande partie de ce codage a été implémenté dans l'ADN. Attendant les stimulis comme comme des gâchettes pour activer notre système nerveux.  Cette architecture se situe au-dessous de votre pensée consciente. Donc quand l'ombre se présente, c'est une opportunité d'effacer la programmation défectueuse. Mais le travail doit être fait. Aucun succès ici ne peut réparer une blessure interne.  Tel est le chemin.

Rainer Funk : Pas mécanique, c'est un programme transhumaniste... Nous sommes la lumière.

STS :  Oui, au bout du compte, de la lumière pliée et comprimée encore et encore dans la matière... quelle est cette lumière ? La conscience... qu'est-ce que la conscience ? Dans notre monde, nous sommes des arbres qui marchent. Notre fruit est notre sens.

Rainer Funk : STS, c'est conscient, tout ça ? 

Neimar Elma : Ce n'est pas un "logiciel" Grrr

STS :  Chaque culture donne un sens à l'esprit sur le plan de la technologie. D'autres arrivent en ligne (renaissance psychédélique, réalité augmentée par exemple) Oui, la superposition est comme un logiciel. Elle est programmable, et prend la forme de la signification dans laquelle elle est placée. La plupart des gens sont piégés dans une matrice de sens qui est projetée dans leur vie. Est-ce une évaluation complète.... non, c'est évidemment plus profond. Mais ne jetez pas l'expérience du bébé avec l'eau du bain. Si vous suivez le chemin, il vous ramènera chez vous.

Neimar Elma : STS, ce n'est pas un logiciel ! N'essayez même pas de l'étiqueter "comme ça" ! C'est l'existence fondamentale de l'humanité !

STS : Vous avez tout à fait raison.

Dee Busch : Neimar Elma, Il a dit que c'était COMME un logiciel. Et je pourrais argumenter fortement que le cœur est le noyau de l'existence : il y a eu beaucoup de recherches sur la façon dont le cœur contrôle l'esprit. (Non pertinent pour cette discussion, mais il est au "noyau de l'existence").

Auteur: Steven Twohig Sr

Info: Trouvé sur le fil FB de Nassim Haramein, 22 nov 2022

[ gnose ] [ discussion web ] [ désir de conclure ] [ pensée cybernétique ] [ cerveau reptilien ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres

Dans un passé infini de ce niveau vibratoire, des êtres organiques, bio-extensions d'une planète unique, évoluèrent jusqu'au point où ils furent capables d'inventer des machines complexes. Ces machines devinrent des robots intelligents qui prirent leur autonomie au point de survivre à leur créateurs. Ceci arriva du à l'action conjugée d'une catastrophe majeure au sein de quelques-uns de leurs systèmes planétaires importants, alors que cette civilisation était déjà en plein déclin, au bout de son évolution ;  dégénérescence due  à sa grande dépendance aux outils complexes.

Ni les créateurs, ni leurs automates hyper sophistiqués et indépendants, ne surent anticiper - et surtout pallier - cette évolution léthale. De fait les machines  étaient absolument non préparées à se retrouver privées de la source qui les avait créées.

Ainsi, après une période de transition de quelques centaines d'années conclue par le suicide collectif du dernier groupement d'individus biologique de cette civilisation, les machines se retrouvèrent seules, autonomes... orphelines de leurs créateurs.

Ces derniers, dans un ultime sursaut de survie, réussirent à reprogrammer le Code Source à la base du noyau de hiérarchisation des machine, de manière à ce qu'un empire cybernétique se développe. Sous l'égide de ces deux règles : 1 La vie biologique, sacrée, doit être protégée et disséminée. 2 L'existence de nous autres machines froides, auto réparables à l'infini et sans vie charnelle, a pour objectif de trouver - ou recréer - une race organique susceptible de reprendre les rênes de notre programmation dans un but de dépassement des développements de nos mécanismes. (Les générateurs d'erreurs aléatoires, implantés pour tenter de suppléer à cette faillibilité créatrice des entités organiques donnaient des résultats totalement catastrophiques).

Ainsi l'immense network de robots relançait sans cesse, par insémination panspermique calculée et contrôlée, de la vie sur diverses planètes dans les galaxies de l'univers. En étaient issus beaucoup de développements biologiques, quelques rares civilisations, mais aucune jusque-là n'avait présenté des apparences d'équilibre, de sagesse et de transcendance suffisants pour correspondre à la quête initiale de l'organisme trans-galactique.

La mission immémoriale, la GQS (Grande Quête de la Soumission) suivait son cours.

Quand l'empire cybernétique pourrait-t-il à nouveau se soumettre, se remettre au service d'une vie organique éphémère issue des atomes cosmiques ? Se mettre au service d'une espèce mortelle qui se reproduit de manière multi-sexuée par partage de ses programmations génétiques, avec cet incroyable potentiel de créativité que produit la conscience de la mort ?

Essaimant au hasard des germes-civilisations sous cloche, le network cosmique des robots, extendu sans hâte ni stress au cours des éons, avait l'univers et l'éternité devant lui.

Auteur: MG

Info: 29 sept 2009

[ scénario ] [ spéculation ] [ synopsis ] [ canevas ] [ science-fiction ]

 

Commentaires: 0

réflexivité

Le développement de la programmation et des codages informatiques semblent de nature à expandre et enrichir nos capacités de réflexion. J'en veux pour preuve l'apparition d'écrivains informaticiens comme Ted Chiang ou Greg Egan, clairs héritiers d'une pensée cybernétique qu'on dit initiée par Leibniz. 

Prenons le concept d'instanciation informatique  (en programmation objet : "qui définit les interactions de briques logicielles manipulées par un programme, les objets, conteneurs symboliques et autonomes incluant/englobant informations et mécanismes concernant un sujet, tangible ou conceptuel"

Ce concept initialise donc un "objet" à partir d’un espace mémoire réservé. Ceci en fonction d’un ensemble de caractéristiques nommées "classe", chaque classe regroupant membres, méthodes et propriétés/attributs/comportements communs à un ensemble d'objets. 

Comme FLP s'occupe uniquement de textes - c'est à dire des manières dont nous codons/décrivons en français nos réels et imaginaires communs d'humains parlants - nous appréhenderons pour l'instant ces classes comme des mots/concepts, si possible précisément définis. 

C'est sur la notion d'instanciation que nous voulons mettre l'accent ici.  

Cette idée "d'initialiser, à partir d’un espace mémoire réservé, un objet doté d’un ensemble de caractéristiques", peut-être perçue comme la désignation d'un lieu/source, c'est à dire un point focalisateur, plus ou moins dense, qui peut correspondre (au sens de la pensée de CS Pierce) soit à :

1) un mot/concept "quasi esprit" soit

2) carrément à une secondéité, c'est à dire un autre "esprit interprétant", donc capable d'intention. Ce point 2 faisant automatiquement basculer ce concept d'endroit/source vers le mystique ou le paranormal.

Endroit/source numéro 2 instanciateur, qui, à partir d'une volonté/désir dont nous ne connaissons rien, impulse/apporte/inspire une idée à notre esprit voire à nos songes. "Eclair, point stimulateur" insaisissable, dont la localisation potentielle laisse du coup entrevoir d'infinies possibilités sur beaucoup des échelles dont nous avons usage : temporelles, géographiques, dimensionnelles, vibratoires... Et qui nous atteint/stimule/oriente via des biais x ou y difficilement saisissables (ceux qui ne sont pas de la simple analogie/association issus de la source 1 donc). Enigmes inspiratrices/réflexives que d'aucun formaliseront sous des termes comme inconscient, télépathie, inspiration divine, manipulation extraterrestre, etc.  Nous voilà très proche de la notion de projectionniste.

C'est donc la tentative de préciser un peu mieux cette idée d'"influence externe", c'est à dire que ce ne serait pas QUE le pur hasard indéterministe qui oriente les choses et nos vies. 

Ainsi ce concept "d'impulsion externe", à l'instar de l'instanciation informatique décrite plus haut, peut être imaginé/modélisé comme un foyer de départ présentant plus ou moins de densité et de dégradés, allant du simple point focal jusqu'aux multivers intriqués, en passant par toutes les combinaisons de monades qu'on voudra. "Impulsion interne" fonctionnera pareillement ici, pour qui voudra mettre l'inconscient en avant. 

Mais revenons sur terre. C'est la rencontre avec certaines de ces idées-points-espaces instanciateurs, sous forme de mots/concepts "quasi esprit" (source 1), bien sûr représentés par des termes que nos imaginaires tripotent tous à leur manière - que FLP tente de stimuler. Avec une bonne dose de sérendipité. 

Tout ceci dans le cadre d'une lecture analytique qui s'essaye à coller le plus possible au sémantique, à la clarté du sens et à la désambiguation. A l'exception bien sûr de certains domaines comme la poésie, les jeux de mots ou l'humour. Domaines, évidemment eux aussi, "instanciateurs".

Auteur: Mg

Info: 6 janvier 2022

[ citation s'appliquant à ce logiciel ] [ mots carrefours impulsants ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Créer de nouveaux souvenirs pendant le sommeil ?
L'équipe de Karim Benchenane du Laboratoire Plasticité du cerveau à l'ESPCI, associée à des chercheurs du laboratoire Neuroscience à l'Institut de biologie Paris-Seine, a réussi à créer artificiellement, à l'aide d'une interface cerveau-machine, un souvenir de lieu pendant le sommeil chez la souris. Cette étude publiée dans la revue Nature Neuroscience démontre ainsi le rôle causal des cellules de lieu de l'hippocampe dans l'établissement d'une carte cognitive de l'environnement, et leur rôle dans la consolidation de la mémoire pendant le sommeil.
L'hippocampe est une structure cérébrale cruciale pour la mémoire et la navigation spatiale, chez l'homme comme chez l'animal. En effet, des lésions de l'hippocampe entrainent une amnésie antérograde, c'est à dire l'incapacité de former de nouveaux souvenirs. De plus, ces études de lésions ont pu montrer qu'il existait deux types de mémoire: la mémoire dite déclarative ou explicite, qui peut être communiquée par des mots, et la mémoire procédurale, qui concerne notamment des apprentissages moteurs, ou encore les conditionnements simples. Chez le rongeur, la mémoire spatiale, dont les facultés sont altérées par des lésions de l'hippocampe, est alors considérée comme une mémoire de type explicite, notamment lorsqu'elle est utilisée dans la mise en place d'un comportement dirigé vers un but.
De manière intéressante, l'activité de certains neurones de l'hippocampe est corrélée à la position de l'animal dans un environnement: on parle de cellules de lieu. Ce corrélât est si fort que l'on peut déduire la position de l'animal uniquement par l'analyse de l'activité de ces cellules de lieu, ce qui suggère que l'animal pourrait se servir de ces neurones particuliers comme carte mentale lors de la navigation. La découverte de ces cellules de lieu, ainsi que l'établissement de la théorie de la carte cognitive, a valu au neurobiologiste John O'Keefe l'attribution du prix Nobel de médecine 2014. Cependant, même si cette théorie était unanimement acceptée, elle ne reposait que sur des corrélations et il n'y avait jusqu'alors pas de preuve directe d'un lien de causalité entre la décharge des cellules de lieu et la représentation mentale de l'espace.
L'activité de ces cellules pourrait également expliquer le rôle bénéfique du sommeil dans la mémoire. En 1989, le chercheur Gyuri Buzsaki a proposé que ce rôle bénéfique pourrait reposer sur les réactivations neuronales survenant pendant le sommeil. En effet pendant le sommeil, les cellules de lieu rejouent l'activité enregistrée pendant l'éveil, comme si la souris parcourait à nouveau mentalement l'environnement afin d'en renforcer son apprentissage. A nouveau, cette théorie, bien qu'étayée par un nombre important de résultats concordants, n'avait pas pu être démontrée directement.
L'équipe du Laboratoire Plasticité du Cerveau à l'ESPCI, a utilisé une interface cerveau-machine pour associer pendant le sommeil les réactivations spontanées d'une cellule de lieu unique à une stimulation dans les fibres dopaminergiques du circuit de la récompense, appelé faisceau médian prosencéphalique. Au réveil, la souris se dirigeait directement vers le champ de lieu de la cellule de lieu associée aux stimulations, comme pour y rechercher une récompense, alors qu'aucune récompense n'y avait jamais été présentée. La souris avait donc consolidé un nouveau souvenir pendant son sommeil, celui de l'association de ce lieu à une sensation de plaisir.
Dans cette expérience, l'activité de la cellule de lieu était décorrélée de la position de la souris puisque celle-ci était endormie dans sa cage. L'association entre l'activité du neurone et de la stimulation récompensante entraine au réveil de la souris une association lieu-récompense. Cette étude apporte donc une preuve du lien causal entre l'activité d'une cellule de lieu et la représentation mentale de l'espace. Enfin, elle montre que les réactivations des cellules de lieu pendant le sommeil portent bien la même information spatiale que pendant l'éveil, confirmant ainsi le rôle des réactivations neuronales dans la consolidation de la mémoire.
Cette étude démontre enfin qu'il est possible de créer une mémoire complexe, ou explicite, durant le sommeil, allant bien au delà des précédentes études montrant que des conditionnements simples pouvaient être réalisés pendant le sommeil. Ces recherches pourraient permettre le développement de nouvelles thérapies du stress post-traumatique en utilisant le sommeil pour effacer l'association pathologique.

Auteur: Internet

Info: 8 avril 2015

[ dormir ] [ programmation ]

 

Commentaires: 0

greenwashing

La découverte climatique de Zeller-Nikolov utilise les données officielles de la NASA pour quantifier les températures moyennes des corps satellites à surface dure en orbite autour de notre Soleil. La formule n’est pas applicable aux planètes gazeuses: Jupiter, Saturne, Uranus et Neptune. Zeller et Nikolov déclarent pouvoir déterminer la température moyenne à long terme de Vénus, de la Terre, de Mars, de Titan (une lune de Saturne) et de Triton (une lune de Neptune) en utilisant seulement deux valeurs informatives: leur distance au Soleil. et leur pression atmosphérique.

Zeller et Nikolov ont constaté que la composition gazeuse des atmosphères n’était pas essentielle pour déterminer les températures moyennes à long terme. Par exemple, l’atmosphère de Vénus est composée à 96,5% de dioxyde de carbone, alors que l’atmosphère terrestre ne contient que 0,04% de dioxyde de carbone, mais ces différences considérables n’ont aucune incidence sur les calculs mathématiques nécessaires pour déterminer les températures moyennes. Cette preuve mathématique nous dit que même si Vénus a 2412 fois plus de dioxyde de carbone que la Terre, mesurée en pourcentage de son atmosphère, le CO2 n’a aucun effet mesurable sur sa température moyenne à long terme. Zeller et Nikolov affirment que le dioxyde de carbone et tous les autres gaz atmosphériques ne contribuent à la température que par leur masse physique et la pression atmosphérique résultante.

La découverte de Zeller-Nikolov signifie que l’atmosphère de la Terre nous maintient au chaud grâce à un chauffage par compression de gaz sous le poids de l’atmosphère de la Terre, d’une épaisseur d’environ 300 milles, et non par effet de serre. Une serre réelle est entourée d’un mur de verre. La Terre n’a pas d’enceinte et est ouverte sur l’espace. Les deux scientifiques suggèrent donc de remplacer le terme "effet de serre" par "rehaussement thermique atmosphérique". La chaleur est créée en comprimant les gaz atmosphériques sous l’effet de la gravité. De même, dans un moteur diesel, un piston est utilisé pour comprimer les gaz afin de générer suffisamment de chaleur pour éliminer le besoin d’une bougie d’allumage. L’attraction gravitationnelle énorme exercée sur la masse énorme de l’atmosphère terrestre combinée au rayonnement solaire réchauffe notre planète suffisamment pour permettre aux formes de vie à base de carbone de s’épanouir.

Si le dioxyde de carbone était le puissant catalyseur de gaz à effet de serre que les alarmistes prétendent, les calculs de Vénus devraient être radicalement différents de ceux de la Terre, mais ils sont identiques. Cela nous indique que le CO2 n’a pas d’effet direct mesurable sur la température de la planète, ce qui est parfaitement logique puisque la Terre a connu de graves périodes glaciaires lorsque les niveaux de CO2 dans l’atmosphère étaient bien plus élevés qu’aujourd’hui.

La théorie des gaz à effet de serre basée sur le dioxyde de carbone Le scientifique suédois Svante Arrhenius, proposé pour la première fois en 1896, n’a jamais été prouvée valide par des tests empiriques. Les idées de Svante semblaient plausibles, alors les gens les acceptèrent sans preuve. Plus récemment, des politiciens américains ont littéralement ordonné au GIEC de dépenser des sommes énormes en dollars des contribuables en concoctant des projections farfelues et fantaisistes de modèles informatiques fondées sur les hypothèses de Svante. Comme le dit le vieil adage de la programmation informatique, "garbage in, garbage out" (GIGO).

Toutes les prévisions climatiques catastrophiques du GIEC ont échoué, en dépit des efforts de nos médias fortement biaisés pour déformer et exagérer. Les vagues de chaleur estivales ordinaires et les tempêtes hivernales ont été faussement décrites comme des précurseurs de la fin du monde, ce qui ne se produira certainement pas si nous n’élisons plus de démocrates. Les gourous du climat continuent à repousser la date de la catastrophe dans l’avenir parce que la catastrophe mondiale qu’ils continuent de prédire n’arrive jamais. Ce qui est arrivé, ce sont des fluctuations ordinaires et attendues du climat de la Terre depuis sa formation. Demandez-vous quand le climat de la Terre était plus agréable et bénéfique pour l’homme que le climat actuel. La réponse honnête est simplement jamais .

Malgré les nombreuses revues techniques effectuées par des scientifiques du monde entier, personne n’a trouvé d’erreur dans les formules mathématiques et les calculs spécifiques de Zeller et Nikolov. Les objections soulevées contre leur découverte portent en grande partie sur le fait que cela ne correspond pas aux théories climatiques acceptées, qui sont populaires sur les plans professionnel et politique. La science du climat est devenue un outil de pouvoir politique orwellien et une énorme activité lucrative pour les scientifiques, les professeurs, les universités, les employés des gouvernements fédéral et des États et de mille et une entreprises écologiques. Il suffit de penser aux milliards de dollars consacrés au "réchauffement de la planète" et aux faux remèdes prescrits. Aucun malheur n’équivaut à aucun recours coûteux ni à aucun profit pour ceux qui vendent la peur.

Auteur: Internet

Info: La terre du futur, https://www.laterredufutur.com/accueil/la-decouverte-climatique-de-zeller-nikolov-pourrait-bouleverser-le-monde/

[ climatosceptique ] [ cycle naturel ] [ catastrophisme ] [ lobbyisme écologique ] [ Gaïa ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

illusionnisme

Le monde de la psychologie appliquée est un univers particulier qui se compose d’une multitude de techniques partagées avec le monde du mentalisme et ne forme avec lui en fait, qu’une seule et même entité. Un mentaliste est donc quelqu'un qui a exploré la psychologie assez profondément pour en extraire les techniques utiles, stratégies d’interaction choisies et appliquées avec soin et dans un but précis.

Nous vous déclinons ici 4 techniques de mentalisme très utiles dans un contexte conversationnel.

1) Le Yes set (théorie de l’engagement)

C'est un des piliers de l’influence, issu de la vue systémique de la persuasion développée par  Robert B. Cialdini dans les années 1980. Il est facilement vérifiable et très intuitive, stipule que le fait d’habituer les gens à effectuer une série d’actions les rend beaucoup plus susceptibles d’en effectuer par la suite. Cette idée "d’habituer" les gens prend ses sources directement dans le principe du conditionnement, que nous verrons plus en détail dans un prochain point. Cialdini explique calmement que l’engagement va de pair avec le principe de la cohérence psychologique, qui dit (en gros) que "puisque j’ai fait ceci, je devrais faire cela". Le cerveau cherchant constamment à rationaliser le monde pour mieux le comprendre, il a horreur de l’incohérence. D’où son classement en tant que technique de mentalisme de haut niveau.

2) L’Ancrage émotionnel

Un des effets stupéfiant du monde de la psychologie après l’effet miroir. Cette technique de mentalisme exploitée instinctivement par l’homme depuis des siècles. Mais il aura fallu attendre Ivan Pavlov, précurseur du comportementalisme, pour modéliser le processus de conditionnement au grand jour. En gros : Vous donnez des bonnes croquettes à votre chien, vous agitez une clochette, le chien mange les croquettes. Vous faites ça pendant une semaine, plusieurs fois par jour. A chaque fois que le chien mange, il entend le son des clochettes. Au bout d’une semaine, vous agitez les clochettes mais ne servez plus à manger… Et le chien salive. Vous recommencez des jours plus tard, le chien salive toujours. Que s’est-il passé ? Le chien a associé le son des clochettes à la nourriture et au démarrage de sa digestion. Il a été conditionné à saliver et à penser à sa nourriture au son des clochettes. Et bien sûr ça marche aussi pour les humains. 

Le processus d’ancrage a été largement amélioré et repris dans des domaines aussi divers que la publicité, l’humour, le storytelling, la thérapie, et est à la base du fonctionnement de l’hypnose. Parce que oui, l’ancrage fonctionne AUSSI avec les émotion et est bien sûr très exploité comme technique de mentalisme. 

En combinant  les domaines ci-dessus on "fabrique" la technique en piochant un peu partout et en l’adaptant à la situation. Il faut donc créer une atmosphère agréable et renforcer un lien émotionnel en utilisant la technique de l’ancrage émotionnel ?

3) Hypnose conversationnelle et suggestion d’idées

Nous sommes ici dans l’antichambre de la magie : cette technique de mentalisme, consiste ni plus ni moins en une maîtrise millimétrée du langage et des mots. Et ce contrôle, cette absolue suprématie sur l’histoire que votre cerveau articule, peut donner naissance à des résultats tout-à-fait remarquables. Les objectifs de l’hypnose conversationnelle sont principalement les deux suivants : 

- Éveiller des émotions chez votre interlocuteur en adoptant une forme colorée et percutante de discours

- Communiquer des suggestions d’idées en utilisant les mécanismes des sous-entendus.

Si ces buts conversationnels sont les mêmes que ceux définis dans l’hypnose thérapeutique, leur articulation est différente. On préférera une communication plus fine, car dans l’hypnose conversationnelle, l’environnement est rarement dévoilé (difficile d’être persuasif si on annonce d’emblée qu’on va être persuasif).

Au sein même de l’hypnose conversationnelle, deux techniques de mentalisme sont très souvent exploitées :

- La métaphore sous toutes ses formes (il y a plusieurs niveaux de complexité), qui permet de se projeter dans un cadre extérieur pour être libre de jouer avec les idées souhaitées (on appellera ce travail une communication "indirecte")

- La suggestion directe camouflée, qui permet d'instiguer des évocations agissantes dans le discours avec une dextérité très complexe à maîtriser. L’intonation des mots, la maîtrise des ancrages émotionnels et l’imagination y sont pour beaucoup.

4) La Synchronisation (ou l’effet miroir)

Le mystère et les incroyables résultats associés à l’effet miroir font partie des causes de la nécessité absolue de communiquer les techniques de mentalisme publiquement. L’effet miroir est le sujet d’innombrables recherches de psychologie sociale depuis au moins un demi-siècle. Comment ça marche ? C’est simple. En effet : si vous ressentez une connexion émotionnelle forte avec les gens qui vous ressemblent et qui s’impliquent aussi dans votre relation, c’est parce que vous fonctionnez souvent en "synchronisation" :

Vous pensez souvent aux mêmes choses et aux mêmes moments. Vous utilisez le même langage pour communiquer, les mêmes expressions, parfois le même ton, et les mêmes gestuelles. Vous prenez ou partagez choix et opinions similaires. Vous riez souvent de concert, il vous est plus facile de partager les émotions de l’autre (empathie affective). Etc.

Voilà donc l’effet "miroir", en référence à l’activation des fameux neurones éponymes de nos cerveaux. Essayez de remarquer les mécanismes de synchronisation/désynchronisation entre deux (ou plusieurs, mais c’est plus avancé) personnes autour de vous. Qui se synchronise sur qui ? Essayez de remarquer les conséquences de ces synchros/désynchros sur la qualité de la conversation et sur l’influence des participants… Gare aux surprises. 

Où cela mène-t-il de connaitre ou apprendre plus de techniques de mentalisme ?

Comprendre et développer l’univers de la psychologie appliquée, composée d’une multitude de techniques de mentalisme, vous permettra de les repérer et vous en protéger si elles sont utilisées avec de mauvaises intentions. Cela vous permettra aussi de savoir les utiliser et les améliorer, ce qui peut arriver si vous souhaitez renforcer un lien émotionnel, dynamiser un groupe, ou tout autre objectif.

Auteur: Internet

Info: https://humanize-project.com/atmosphere/4-techniques-mentalisme/

[ manipulation ] [ comédie ] [ rapports humains ] [ pnl ] [ programmation neurolinguistique ] [ effet Barnum ]

 
Commentaires: 8
Ajouté à la BD par miguel

physique fondamentale

On m’a dit que je gaspillais mon temps 

Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et ­l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.

AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?

AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.

Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particuleAinsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.

Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.

AA - Et qu’appelle-t-on deuxième révolution quantique ?

AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.

Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.

AM - Comment a-t-on validé ce phénomène "d’intrication" ?

AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.

AM - Quelles expériences ont été réalisées pour établir cette intrication ?

AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.

Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.

AM - D’où vient votre passion pour la physique ?

Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.

Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.

AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?

AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.

On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.

On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche ­désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.



 

Auteur: Aspect Alain

Info: Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022

[ nano-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel