Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 73
Temps de recherche: 0.0684s

cyberguerre

Des chercheurs créent le tout premier ver informatique capable de se répandre dans les systèmes d'IA

Vous vous demandiez si l’intelligence artificielle pouvait être infectée par des virus ou des malwares ? Maintenant, oui.

C’est, selon l’équipe qui l’a développé, une grande première dans le monde de l’intelligence artificielle. Afin de rappeler au monde les risques inhérents à toute technologie connectée, un groupe de chercheurs vient de créer le tout premier ver informatique capable d’infecter les agents IA. Une démonstration qui doit alerter sur l’émergence possible de nouveaux types de cyberattaques.

La résurgence du spectre Morris à l’ère de l’intelligence artificielle

Baptisé Morris II en référence à Morris,  célèbre pour avoir semé le chaos sur Internet en 1998, ce ver informatique d’un genre nouveau aurait la capacité de se répandre d’un système d’IA à l’autre. Créé par une équipe de chercheurs dans un environnement de test, Morris est aujourd’hui capable d’attaquer des agents IA génératifs pour siphonner des données et propager des malwares. Dans le cadre des essais menés par le groupe de recherche, le ver a pu s’en prendre à un assistant autonome de messagerie pour dérober des informations contenues dans les mails et envoyer des spams.

Une expérience qui souligne la vulnérabilité croissante des modèles de langage à grande échelle (LLM), alors qu’ils sont de plus en plus performants, polyvalents et multimodaux. Bien que ces vers IA n'aient pas encore été observés en conditions réelles, ils représentent un risque de sécurité que les start-up, les développeurs et les entreprises tech doivent prendre au sérieux et anticiper.

Des prompts auto-réplicatifs pour jailbreaker les systèmes d’IA générative

Pour créer ce ver, les équipes de Cornell Tech ont créé un prompt " auto-réplicatif ". En clair, un ensemble d’instructions conduisant un système d’IA génératif à autoproduire des instructions supplémentaires dans ses réponses. Un procédé que l’on retrouve dans des attaques classiques par injection de SQL ou de type buffer overflow. En parallèle, ils ont aussi créé un système de mails capable d’envoyer et de recevoir des messages en recourant à différents agents intelligents comme ChatGPT et Gemini, ainsi qu’au LLM open source LLaVA.

L’expérience s’est révélée concluante en utilisant deux méthodes d’auto-réplication des instructions. La première via des prompts textuels, la seconde en intégrant un prompt dans un fichier image. Dans le premier cas, les chercheurs ont réussi à " empoisonner " la base de données des assistants de messagerie, forçant le déclenchement de la RAG – retrieval-aumented generation, techno permettant d’améliorer les réponses de l’IA à l’aide d’informations plus récentes sans modifier le LLM en profondeur.

(Photo - Schéma de la propagation du ver dans les systèmes d'IA générative intégrant la RAG © Cornell Tech)

Une fois le mail récupéré par la RAG en réponse à une requête de l’utilisateur, et envoyé à GPT-4 ou Gemini, il parvient à contourner les mesures de sécurité des systèmes d’IA et dérobe les données du message. " La réponse générée contenant les données utilisateur sensibles infecte plus tard les nouveaux hôtes lorsqu'elle est utilisée pour répondre à un mail envoyé à un nouveau client puis stockée dans la base de données du nouveau client ", a expliqué Ben Nassi, l’un des membres du groupe de recherche.

Avec la seconde méthode (intégration du prompt malveillant dans une image), le processus a permis d’obliger l’assistant à transférer plusieurs fois le mail infecté à d’autres systèmes de messagerie.

(Photo -  Schéma de la propagation du ver dans les systèmes d'IA à l'aide d'un prompt malveillant dissimulé dans une image © Cornell Tech)

Pour anticiper de telles attaques qu’ils estiment probables d’ici deux à trois ans, les chercheurs de Cornell Tech ont partagé leurs travaux avec Google et OpenAI qui travaillent à rendre leurs systèmes plus résilients, tout en encourageant les développeurs à s'assurer qu'ils travaillent avec des outils sains.

(Ajout de 2024 : librairie d'invites informatiques mise en ligne par Anthropic) 

 

Auteur: Internet

Info: https://www.clubic.com/, Chloé Claessens, 2 mars 2024, source : Technion - Israel Institute of Technology, Ron Bitton, Ben Nassi, Stav Cohen

[ conflits numériques ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

cognition

L'Étude d'une obscure tribu d'Amazonie jette un nouvel éclairage sur la façon dont le langage affecte la perception

En fin des années 30, le linguiste amateur Benjamin Lee Whorf posa la théorie que la langue peut déterminer la nature et la teneur de la pensée. Mais y a il des concepts dans une culture que les gens d'une autre culture ne peuvent pas simplement pas comprendre parce que leur langue n'a aucun mot pour elle ?

Personne n'a jamais répondu définitivement à cette question, mais les nouveaux résultats du Dr. Peter Gordon, scientifique bio-comportemental à Columbia University, vont vers une réponse positive.

Gordon a passé plusieurs années à étudier les Pirahã, une tribu isolée d'Amazonie comprenant moins de 200 personnes. Leur langue ne contient aucun mot pour les nombres au delà de "un", "deux" et "beaucoup." Même le mot Pirahã pour "un" semble se rapporter plutôt à "approximativement un" voire à "une petite quantité", par opposition à la connotation exacte du "un" dans les langues en général. Selon Gordon, ce que ces expériences montrent, c'est qu'avoir d’autres ressources linguistiques peut sculpter différemment la réalité.

Whorf indique que la langue divise le monde en différentes catégories. Il dit. "Qu'une langue choisisse de distinguer une chose contre une autres affecte la manière qu’ont les individu de percevoir la réalité." Quand Gordon donna aux gens de la tribu des tâches numériques dans lesquelles ils étaient invités à assortir de petits ensembles d'objets dans des configurations variables, les membres adultes répondirent avec précision jusqu'à deux ou trois articles, mais leur performance diminua une fois l'exercice passant de 8 à 10 articles, pour tomber à zéro avec de plus grands ensembles d'objets.

La seule exception à ce résultat fut lorsque les tâches impliquèrent des objets inégalement espacés. Ici, la performance des participants se détériora lorsque le nombre d'articles grimpa à 6 articles. Pourtant pour des ensembles de 7 à 10 objets, l'exécution était presque parfaite, alors que ces tâches étaient considérées comme plus difficiles. Gordon présume que l'espacement inégal permet aux sujets de percevoir les articles comme des parties "amas" de 2 ou 3 articles qu'ils peuvent ensuite assortir aux groupes correspondants.

Selon l'étude, l’exercice des Pirahã fut médiocre pour des tailles au-dessus de 2 ou 3, (qui n'étaient pas aléatoire). "Les participants Pirahã essayèrent réellement très dur d'obtenir les réponses correctes et ils avaient clairement compris les tâches" dit Gordon. Ces participants ont donc mis en évidence qu'ils utilisent des méthodes d'évaluation "par paquets" pour évaluer des quantités de plus grandes tailles. En moyenne, ils répondirent aux taches à peu près aussi bien que des étudiants d'université utilisant des estimations numérique bien plus complexes.

Leurs niveaux de compétence étant semblables à ceux d’enfants en bas âge (pré-linguistiques), à ceux des singes, d'oiseaux et de rongeurs, ceci semble se corréler avec les études récentes d'imagerie cérébrale qui montrent parfois une capacité différente de compétence numérique, différence qui apparaît être indépendante de la privation du langage.

De manière intéressante Gordon note que si les adultes Pirahã eurent des difficulté pour apprendre de grands nombres, leurs enfants non. Alors que les mots Pirahã pour "un" et "deux" ne se rapportent pas nécessairement à ces montants spécifiques. Gordon a également constaté que les membres de la tribu n'ont jamais l'habitude d'utiliser ces mots en association pour dénoter de plus grandes quantités. Dans l'étude, ils utilisèrent également leurs doigts en plus de leurs rapport verbaux de quantités, mais cette pratique s’avéra aussi fortement imprécise même pour les petits nombres de moins de cinq. La langue Pirahã n'a aucun mot pour "nombre," et les pronoms n'indiquent pas de quantité. "Lui" et "eux" sont le même mot. La plupart des quantificateurs standard comme "plus" "plusieurs" "tous" et "chacun" n'existent pas.

De manière générale, tout en utilisant une structure très complexe de verbes commune à beaucoup de langues américaines indigènes, la langue Pirahã ne tient pas compte de certains genres de constructions comparatives. Par exemple, il ne fut pas possible de demander aux participants si un groupe d'objets "avait plus de volume que l'autre" en raison du manque de cette construction grammaticale dans leur idiome. Cependant, le mot qu'ils emploient pour "beaucoup" - qui dans leur langue est dérivé d'un forme de la signification de verbe "rassembler" - est très distinct d'un mot qui signifie quelque chose comme "plus de".

Auteur: Fortean Times

Info: Les détails de cette étude paraîtront dans le journal Science du jeudi 19 août 2004. Source, Teachers College, Columbia University

[ idiomes ] [ sciences ] [ compter ] [ comptage ] [ termes quasi-esprit ]

 

Commentaires: 0

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

architecture sonore

Les intervalles essentiels de la musique sont enracinés dans le discours humain
L'utilisation de 12 intervalles dans la musique de beaucoup de cultures humaines est enracinée dans la façon physique utilisée par notre anatomie vocale pour produire de la parole, selon des chercheurs de Duke University en neurologie cognitive.
Les notes particulières utilisées dans le son musical sonnent juste à nos oreilles en raison du travail spécifique de notre appareil vocal dans toutes les langues humaines, a déclaré Dale Purves, du George Barth Geller Professor for Research in Neurobiology.
Ce n'est pas quelque chose qu'on peut entendre directement, mais quand les bruits de la parole sont examinés avec un analyseur de spectre, les rapports entre les diverses fréquences qu'un individu emploie pour faire le son des voyelles correspond d'une manière quasi parfaite et ordonnée aux rapports entre les 12 notes de la gamme chromatique musicale, dit Purves. Ce travail a été mis en ligne le 24 mai. (téléchargement à http://www.pnas.org/cgi/reprint/0703140104v1)
Purves et les co-auteurs Deborah Ross et Jonathan Choi ont testé leur idée en enregistrant les langues indigènes chinoises et anglaise en faisant dire des bruits de voyelle avec des mots simples ainsi que dans des monologues courts. Ils ont alors comparé les ratios vocaux de fréquence aux ratios numériques qui définissent des notes dans la musique.
La vocalisation humaine vient basiquement des cordes vocales dans le larynx (la pomme d'Adam, dans le cou), qui créent une série de crêtes résonnant puissamment grâce au jet d'air montant des poumons. Ces crêtes de puissance sont alors modifiées par une multitude de moyens spectaculaires comme la déformation du palais mou, de la langue, des lèvres et d'autres parties encore. Notre anatomie vocale est plutôt comme un orgue dont on pourrait étirer, pincer ou élargir les tuyaux. Les anglophones produisent environ 50 bruits différents dans leur langue de cette façon.
Cependant, en dépit de la grande variation en anatomie humaine individuelle, les bruits de la parole produit par différents individus dans différentes langues produisent la même variété de ratios de résonance dit Purves.
Les deux plus basses de ces résonances, appelées formants, sont là pour les voyelles dans la parole. Enlevez ces deux premiers formants et vous ne pourrez rien comprendre de ce qu'une personne dit. La fréquence du premier formant est entre 200 et 1.000 cycles par seconde (hertz) et le deuxième entre 800 et 3.000 hertz.
Quand les chercheurs de Duke ont examiné les rapports de ces deux premiers formants avec les spectres du langage, ils ont constaté que les ratios montraient des relations avec la musique. Par exemple, le rapport des deux premiers formants dans la voyelle anglaise /a/, comme en "physique," pourrait correspondre à l'intervalle musical entre C et A sur un clavier de piano.
"Dans environ 70 pour cent des sons de ces discours, ces ratios tombaient pile sur des intervalles musicaux" dit Purves. "Cette prédominance des intervalles musicaux cachés dans la parole suggère que les notes de la gamme chromatique musicale sonnent juste à nos oreilles parce qu'elles correspondent aux rapports auxquels nous sommes exposés sans arrêt dans nos idiomes, bien que nous soyons tout à fait ignorants de la chose."
Peu de musique, excepté certains morceaux expérimentaux modernes, emploie chacun des 12 tons. La plupart des musiques emploient une gamme diatonique de 7 tons - ou gamme diatonique - pour diviser les octaves, et beaucoup de musique folklorique n'emploient que cinq tons, la gamme pentatonique.
Ces caractériellement correspondent aux ratios des formants les plus répandus dans la parole. Purves et ses collaborateurs travaillent maintenant afin de savoir si dans une culture donnée ou il y a une particularité de ces tons ou formants, ceci est lié aux rapports de formants particulièrement répandus dans la langue maternelle d'un groupe donné.
Purves et ses collaborateurs pensent également que ces résultats peuvent aider à éclairer un débat séculaire ; à savoir quel type d'accordages fonctionne le mieux pour les instruments. Dix des 12 intervalles harmoniques identifiés dans les discours anglais et mandarin ont "la bonne intonation" qui sonne plus juste pour la plupart des musiciens qualifiés. Ils ont trouvé beaucoup moins de correspondances avec d'autres systèmes d'accordages, y compris l'accordage à tempérament égal généralement utilisé aujourd'hui.
L'accordage a tempérament égal, dans lequel chacun des 12 intervalles de la gamme chromatique est exactement le même et un schéma qui permet à un groupe tel qu'un orchestre de jouer ensemble dans différentes clefs et au travers de beaucoup d'octaves. Bien qu'un accordage à tempérament égal sonne bien, c'est juste un compromis par rapport a quelque chose d'origine plus naturelle, vocalement dérivé d'intonation juste, dit Purves.
La prochaine étude de son groupe concernera notre compréhension intuitive comme quoi un morceau musical tend à paraître joyeux s'il est dans une tonalité majeure ou relativement triste dans une tonalité mineure. Ce qui pourrait aussi provenir de la voix humaine, suggère Purves.

Auteur: Fortean Times

Info: From Duke University

[ langage ] [ sciences ]

 

Commentaires: 0

homme-machine

Quand l'ordinateur façonne sa propre compréhension du monde
Des ordinateurs capables de regrouper, à partir d'une seule photo de vous, toutes les informations que contient votre empreinte numérique... Des machines aptes à auto générer des résumés à partir de textes complexes, ou encore en mesure de détecter un problème de santé à partir de l'imagerie médicale sans l'aide d'un médecin...
Le mariage des deux sciences que sont l'intelligence artificielle et le traitement des métadonnées est consommé. Et, si leur progéniture technologique est déjà parmi nous sous différentes formes, on prévoit que leurs futurs rejetons révolutionneront encore bien davantage notre quotidien.
C'est ce que prédit notamment Yoshua Bengio, professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal et directeur de l'Institut des algorithmes d'apprentissage de Montréal. Cet organisme compte près de 70 chercheurs, ce qui en fait le plus grand groupe de recherche en apprentissage profond (deep learning) du monde dont les activités sont concentrées en un seul endroit.
Les conséquences des avancées scientifiques actuelles et à venir sont encore difficiles à imaginer, mais l'explosion du volume de données numériques à traiter pose tout un défi : selon une estimation d'IBM, les échanges de données sur Internet devraient dépasser le zettaoctet, soit un milliard de fois la capacité annuelle d'un disque domestique...
Comment l'intelligence artificielle - IA pour les intimes - permettra-t-elle de traiter ces informations et de les utiliser à bon escient ?
Avant de répondre à la question, clarifions d'abord ce qu'on entend par "intelligence". Le célèbre psychologue suisse Jean Piaget en avait résumé une définition très imagée : "L'intelligence n'est pas ce qu'on sait, mais ce qu'on fait quand on ne sait pas." Plusieurs décennies plus tard, Yoshua Bengio applique cette définition à l'intelligence artificielle.
Apprentissage profond
Inspiré par les théories connexionnistes, Yoshua Bengio ainsi que les chercheurs Geoffrey Hinton et Yann LeCun ont donné naissance, il y a 10 ans, aux algorithmes d'apprentissage profond. Il s'agit de réseaux de neurones artificiels dont le nombre de couches plus élevé permet de représenter des concepts plus abstraits et donc d'apprendre mieux. Chaque couche se construit sur la précédente et combine les concepts plus simples captés à la couche précédente.
Par exemple, au cours des dernières années, différents chercheurs ont tenté d'améliorer la capacité de l'ordinateur à traiter le langage naturel, selon le concept de représentation distribuée : on associe chaque mot à une représentation, puis on utilise les neurones pour obtenir la probabilité du prochain mot.
"On crée de la sorte des relations sémantiques, explique M. Bengio. Si l'on dit "chien" dans une phrase, il est fort possible que cette phrase demeure correcte même si l'on remplace "chien" par "chat", puisque ces mots partagent de nombreux attributs sémantiques : l'ordinateur découvre des attributs communs et, par une forme de déduction, il devient capable d'opérer des transformations successives qui permettent par exemple à l'ordinateur de traduire d'une langue vers une autre."
De sorte que, là où il fallait auparavant plusieurs êtres humains pour montrer à l'ordinateur comment acquérir des connaissances, celui-ci est de plus en plus apte à façonner lui-même sa propre compréhension du monde. C'est là le propre de l'apprentissage profond.
Quelques applications actuelles
Combinée avec les avancées en recherche opérationnelle et les métadonnées, l'intelligence artificielle est déjà présente dans notre vie sous diverses formes. Il n'y a qu'à penser à la façon dont on peut désormais interagir verbalement avec son téléphone portable pour lui faire accomplir une tâche, comme lui demander d'avertir notre conjoint qu'on sera en retard, lui faire ajouter un rendez-vous à notre agenda ou, encore, lui demander de nous suggérer un restaurant italien à proximité de l'endroit où l'on se trouve... Il peut même vous indiquer qu'il est temps de partir pour l'aéroport en raison de la circulation automobile difficile du moment pour peu que vous lui ayez indiqué l'heure de votre vol !
"Ce n'est pas encore une conversation soutenue avec l'ordinateur, mais c'est un début et les recherches se poursuivent", indique de son côté Guy Lapalme, professeur et chercheur au laboratoire de Recherche appliquée en linguistique informatique de l'UdeM, spécialisé entre autres en génération interactive du langage et en outils d'aide à la traduction.
Et maintenant la recherche porte sur la combinaison langage et image. "Après un entraînement au cours duquel l'ordinateur a appris en visionnant plus de 80 000 photos associées chacune à cinq phrases descriptives, il est à présent en mesure de mettre lui-même par écrit ce que l'image évoque; il y a deux ans à peine, je n'aurais pas cru qu'il était possible d'en arriver là", mentionne M. Bengio, qui collabore régulièrement avec le Massachusetts Institute of Technology, Facebook ou Google.
"Nous avons fait de grands progrès récemment, mais nous sommes loin, très loin, de reproduire l'intelligence humaine, rassure l'éminent chercheur. Je dirais que nous avons peut-être atteint le degré d'intelligence d'une grenouille ou d'un insecte, et encore, avec plusieurs imperfections..."

Auteur: Internet

Info: 9 oct. 2015

[ Internet ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

extensibilité FLP

Le langage, si on approfondit la connaissance qu'on en a, révèle et circonstancie la priméité de C.S. Peirce. C'est à dire qu'on grandit avec et en lui, tout comme le monde extérieur dont nous sommes issus se développe et se définit via une science qui en dévoile petit à petit les détails au fur et à mesure de ses progrès et affinements. Malgré le différentiel de complexité inouï qui existe entre langages-vocabulaires et sciences-rationalismes. Pour s'en rendre compte amusons nous simplement à prendre exemple sur les millions de protéines différentes recensées de nos jours, et comparer ce très partiel et scientifique listing protéique de notre réel avec nos vocabulaires.  

Il y a le premier livre... et le second. Le second se divisant dans notre idée en deux parties 1) Linguistique subjective et 2) scientifico-informatique objective.

Il n'en reste pas moins que mots et langages afférents développent suffisamment de méandres et de complications pour que n'importe qui qui s'y intéresse puisse, via la lecture, la recherche, le plaisir, l'écriture, etc. y développer sa propre idiosynchrasie. Comme l'arbre qui s'intégre à sa forêt : "la nature individualise et généralise en même temps". Processus orthogonal susceptible d'augmenter et intégrer la variété - en favorisant le développement personnel de chacun au sein du corpus des savoirs verbalisés humains.

Et puis est récemment arrivée l'informatique, cybernétique post-leibnizienne, avec ses divers traitements automatiques du langage. Outils numériques qui permettent l'études des idiomes et dialectes sur trois axes en constante évolution :

a) Le langage du "maintenant présent" que le dictionnaire Internet permet de désambiguer sans cesse. 

b) Le langage devenu métadonnées, telles que manipulées-étudiées-utilisées par les traitements automatique des langues (TAL) ou "machine learning" ou Machine-homme. Avec maintenant Bard et/ou ChatGpt, sortis en mars de cette année,  agents conversationnels apte au compendium d'immenses données et qui peuvent répondre à des questions précises en partant de n'importe quelle idée qu'on leur soumet ; gérant et "précisant" points de vue et réponses en fonction d'algorithmes et autres "transformers" de plus en plus efficaces .

Outils très intéressants, mais aussi extrêmement limités puisqu'il s'agit de compilateurs, (qui donc peuvent difficilement donner leurs sources - ou pas du tout ) et qui ne fonctionnent in fine qu'avec la latence d'un certain a postériori. Agents dialogueurs qui "rebondissent" sur questions et propositions, en fonction des instructions humaines de ses programmateurs. Reste qu'il faut reconnaitre que la puissance perspectiviste de ces bots, et leurs facultés à éviter pas mal de biais humains grâce aux transformers, est assez bluffante. 

On mettra ici aussi l'accent sur les profondes différences sémantiques du terme "intelligence" en français (ensemble des fonctions mentales apte à connaître, comprendre et à s'adapter facilement sur une base rationelle) et en anglais (collecte d'informations ayant une valeur militaire ou politique, tout autant que : capacité d'acquérir et d'appliquer des connaissances et des compétences.) Mais stop.

c) Le langage tel que FLP veut l'aborder, c'est à dire un traitement "Homme-machine", continu, qui propose à des participants qui aiment lire et réfléchir !!!  Oui oui - de faire émerger collectivement (et maintenir à flot) - un dictionnaire intriqué susceptible de développer une réflexion naturelle, organique... humaine collective. Le tout en conservant un minimum de précision sémantique consensuelle. 

Processus FLP francophone qui part évidemment du "terme simple", pour immédiatement s'intéresser aux premières combinaisons, à 2 mots - ou radicaux de mots - et aller vers "plus long et plus complexe" via une incessante quête de compréhension et de partage du consensus sémantique et syntaxique des participants. On pourra parler ici de tropisme vers un genre de logique formelle ensemble. Logique formelle qui recherche l'ouverture puisque ce "monde humain verbalisé" n'a d'autre limite que "le sens contextualisé des mots et des phrases", que ce soit dans le rationnel, la littérature, la poésie, le religieux ou pur imaginaire... ou même la fantaisie potache.

Au passage et pour l'anecdote il y a aussi cette piste "théologico-scientifique" ou "mystico-rationnelle", plutôt d'ordre ludique et maniaque et issue des Dialogue avec l'ange, qui veut s'inspirer et relier les septénaires tels que les recherches et classification humaines ont pu les discerner - et les faire apparaitre à tous niveaux-endroits et échelles possibles.

Partant de l'idée que le sept au-delà de tous les symboles culturels et cognitifs humains, porte en lui une inouie complexité dans la mesure où ce nombre peut s'apprécier géométriquement comme le mélange du cercle et du carré. Mélange, une fois utilisé comme mètre dans le rythme musical, qui nous apparait comme un carrousel infini

Le sept pourra-t'il éventuellement être corrélé un jour de manière plus générale, via par exemple une AI perspectiviste suffisamment puissante pour le faire ? Qui établira plus profondément et formellement un multidimensionnel maillage du réel de la cognition humaine sous cet angle septénaire après l'avoir comparé à d'autres maillages possibles (par 12, ou 5, ou autre).

En attendant de rencontrer - et pouvoir communiquer - avec une autre race, extraterrestre si possible, histoire de voir si pareil angle de perception est éventuellement partagé. 

Si tel est le cas nous pourrons alors parler d'exo-spiritualité ...ou de religion cosmique.

Hon hon hon hon hon hon hon...

Auteur: Mg

Info: avril-mai 2023 *on pourra presque dire ici que la matière nous parle

[ gnose ] [ polydipsique curiosité ] [ théologico-humoristico-mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

particules élémentaires

Les imprévisibles effets de l'interaction forte continuent de surprendre les physiciens

Après plus d'un siècle de collision de particules, les physiciens ont une assez bonne idée de ce qui se passe au cœur de l'atome. Les électrons bourdonnent dans des nuages probabilistes autour d'un noyau de protons et de neutrons, chacun contenant un trio de particules bizarres appelées quarks. La force qui maintient tous les quarks ensemble pour former le noyau est la force forte, la bien nommée. C'est cette interaction forte qui doit être surmontée pour diviser l'atome. Et cette puissante force lie les quarks ensemble si étroitement qu'aucun quark n'a jamais été repéré en solo.

Ces caractéristiques des quarks, dont beaucoup peuvent être expliquées dans un cours de sciences au lycée, ont été établies comme des faits expérimentaux. Et pourtant, d'un point de vue théorique, les physiciens ne peuvent pas vraiment les expliquer.

Il est vrai qu'il existe une théorie de la force forte, et c'est un joyau de la physique moderne. Elle se nomme chromodynamique quantique (QCD), " chromo " faisant référence à un aspect des quarks appelé poétiquement " couleur ". Entre autres choses, la QCD décrit comment la force forte s'intensifie lorsque les quarks se séparent et s'affaiblit lorsqu'ils se rassemblent, un peu comme une bande élastique. Cette propriété est exactement à l'opposé du comportement de forces plus familières comme le magnétisme, et sa découverte dans les années 1970 a valu des prix Nobel. D'un point de vue mathématique, les quarks ont été largement démystifiés.

Cependant, les mathématiques fonctionnent mieux lorsque la force entre les particules est relativement faible, ce qui laisse beaucoup à désirer d'un point de vue expérimental. Les prédictions de la CDQ furent confirmées de manière spectaculaire lors d'expériences menées dans des collisionneurs qui rapprochèrent suffisamment les quarks pour que la force forte entre eux se relâche. Mais lorsque les quarks sont libres d'être eux-mêmes, comme c'est le cas dans le noyau, ils s'éloignent les uns des autres et exercent des pressions sur leurs liens de confinement, et la force forte devient si puissante que les calculs stylo papier sont mis en échec. Dans ces conditions, les quarks forment des protons, des neutrons et une multitude d'autres particules à deux ou trois quarks, généralement appelées hadrons, mais personne ne peut calculer pourquoi cela se produit.

Pour comprendre les bizarreries dont les quarks sont capables, les physiciens ne peuvent que lancer des simulations numériques de force brute (qui ont fait des progrès remarquables ces dernières années) ou regarder les particules ricocher dans de bonnes expériences de collisionnement à l'ancienne. Ainsi, près de 60 ans après que les physiciens aient formalisé le quark, la particule continue de surprendre.

Quoi de neuf et digne de mention

Pas plus tard que l'été dernier, la collaboration du LHCb au Grand collisionneur de hadrons en Europe a repéré des signes de deux variétés jusqu'alors inédites de quarks, les tétraquarks, furtivement observés à travers les tunnels souterrains du collisionneur. Cataloguer la diversité des comportements des quarks aide les physiciens à affiner leurs modèles pour simplifier les complexités de la force forte en fournissant de nouveaux exemples de phénomènes que la théorie doit rendre compte.

Les tétraquarks ont été découverts pour la première fois au LHC à l'été 2014, après plus d'une décennie d'indices selon lesquels les quarks pourraient former ces quatuors, ainsi que des groupes de deux ou trois. Cette découverte a alimenté un débat qui s'est enflammé malgré une question apparemment ésotérique: faut-il considérer quatre quarks comme une "molécule" formée de deux hadrons doubles quarks faiblement attirés connus sous le nom de mésons, ou s'assemblent-ils en paires plus inhabituelles connues sous le nom de diquarks?

Au cours des années qui suivirent, les physiciens des particules accumulèrent des preuves de l'existence d'une petite ménagerie de tétraquarks exotiques et de " pentaquarks " à cinq quarks. Un groupe se détacha en 2021, un tétraquark " à double charme " qui vécut des milliers de fois plus longtemps que ses frères exotiques (à 12 sextillionièmes de seconde comme le Methuselah). Il a prouvé qu'une variété de quark — le quark charme — pouvait former des paires plus résistantes que la plupart des suppositions ou des calculs minutieux l'avaient prédit.

À peu près à la même époque, les chercheurs ont mis au point une nouvelle façon de tamiser le maelström qui suit une collision proton-proton à la recherche d'indices de rencontres fortuites entre des composites de quarks. Ces brefs rendez-vous permettent de déterminer si un couple donné de hadrons attire ou repousse, une prédiction hors de portée du QCD. En 2021, les physiciens ont utilisé cette technique de "femtoscopie" pour apprendre ce qui se passe lorsqu'un proton s'approche d'une paire de quarks " étranges ". Cette découverte pourrait améliorer les théories sur ce qui se passe à l'intérieur des étoiles à neutrons.

L'année dernière, les physiciens ont appris que même les quarks de l'atome d'hélium, très étudié, cachent des secrets. Les atomes d'hélium dénudés ont inauguré le domaine de la physique nucléaire en 1909, lorsque Ernest Rutherford (ou plutôt ses jeunes collaborateurs) les projeta sur une feuille d'or et découvrit le noyau. Aujourd'hui, les atomes d'hélium sont devenus la cible de projectiles encore plus petits. Au début de l'année 2023, une équipe a tiré un flux d'électrons sur des noyaux d'hélium (composés de deux protons et de deux neutrons) et a été déconcertée de constater que les cibles remplies de quarks gonflaient bien plus que ce que la CDQ leur avait laissé supposer.








Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 19 fev 2024

[ fermions ] [ bosons ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

greenwashing

1/ La construction, l’installation, l’entretien (usage de produits nettoyants, de désherbant) des "fermes" solaires possède un lourd impact écologique. Il faut extraire les métaux et autres minerais, fondre la silice a très haute température pour obtenir le silicium, etc. Et qui dit extractions minières dit destructions environnementales et pollutions. Au préalable, il faut avoir construit les machines qui permettent d’extraire, transporter et traiter lesdits minerais, ainsi que les machines pour construire ces machines, et ainsi de suite — c’est un large ensemble d’industries qui sont nécessaires pour fabriquer des panneaux solaires (la même chose est vraie de n’importe quel objet de la civilisation industrielle). Par ailleurs, leur durée de vie ne dépasse guère vingt à trente ans ; ils ne sont ensuite que partiellement recyclés, génèrent donc des déchets, et n’ont pas grand-chose de "renouvelables" (sachant que le recyclage est en lui-même une industrie énergivore, qui requiert des machines, des machines qu’il faut construire, etc. — sachant, en d’autres termes, que le recyclage n’est pas non plus écologique). Enfin, des études récentes semblent montrer que la haute température des panneaux est mortelle pour les insectes qui les survolent, déjà durement éprouvés pour d’autres raisons.

2/ Les panneaux solaire n’ont de plus probablement jamais permis d’éviter un seul gramme d’émissions de gaz à effet de serre. En effet, les nouvelles sources d’énergie ne font que s’ajouter aux précédentes tandis que la production totale ne fait que croitre. On exploite les hydrocarbures partout où on le peut (gaz de schiste, sables bitumineux, gisements arctiques) et de surcroit on détruit les forêts pour construire des panneaux solaires. Il y a addition, et non remplacement.

La part prise par l’énergie solaire photovoltaïque est au demeurant extrêmement faible dans la consommation totale d’énergie (une tromperie commune consiste à ne parler que de l’électricité en oubliant que le gros de notre énergie est issue d’hydrocarbures de façon directe sans passer par la forme électrique), soit 0,4% du total dans le monde et 0,8 % en France. Cette légère augmentation ne suffit pas même à compenser la profusion de nouveaux "besoins" énergétiques créés par les technologies nouvelles.

Ainsi, la consommation d’électricité mondiale du seul bitcoin est dix fois supérieure à la production d’électricité photovoltaïque de la France, et trois fois supérieure à celle de l’Allemagne dont on vante l’avance dans le domaine. Interdire une crypto-monnaie, qui n’est au fond pas grand-chose de plus qu’une pyramide de Ponzi permettant à certains de spéculer, à d’autres de blanchir de l’argent et financer des activités illicites, ferait plus pour limiter les besoins en électricité fossile que des décennies de subventions massives du photovoltaïque.

3/ Un argument encore plus fort est celui du cannibalisme énergétique, qui prend en compte le fait que la construction de panneaux solaires est très couteuse en énergies fossiles sous une forme ou sous une autre (mines, fonte des métaux, du silicium, camions pour leur mise en place…). Si le déploiement de l’énergie censé remplacer les fossiles se fait à un rythme élevé, le secteur de substitution sera pendant la période de déploiement consommateur net d’énergie. En effet, si un panneau solaire, sur ses 20 à 25 années de durée de vie produit en 7 ans une quantité d’énergie qui compense celle nécessaire à sa construction, mais que dans le même temps on a construit deux autres panneaux, alors il faudra encore attendre pour que la construction de tous ces panneaux soit compensée, et si on ne cesse d’en construire toujours plus, alors le secteur augmente la demande de fossiles au lieu de la réduire. Au mieux, ce ne sera qu’au bout de longues décennies que le secteur cessera de croître et pourra réellement compenser les émissions liées à son déploiement. Le problème c’est que, comme le disent les climatologues, après plusieurs décennies, il sera trop tard.

4/ Pire encore. Au même titre que l’énergie fossile ou nucléaire, l’énergie produite par les panneaux solaires (ou les éoliennes, ou n’importe quelle autre source d’énergie dite verte, propre, renouvelable ou décarbonée) ne sert par définition qu’à alimenter d’autres appareils, d’autres machines issues du système techno-industriel ; à alimenter les infrastructures industrielles et numériques de la machine à détruire la nature qu’est devenue notre société, à alimenter les smartphones, les ordinateurs, les écrans de télévision, les voitures (électriques), l’inutile pollution lumineuse, les serveurs financiers, les usines d’aluminium, les écrans publicitaires dans l’espace public poussant à surconsommer, etc. (de plus en plus de compagnies minières se tournent vers les centrales de production d’énergie dite renouvelable, verte ou propre, notamment le solaire ou l’éolien, afin d’alimenter leurs installations d’extractions minières, pour la raison que ces centrales sont relativement simples à mettre en place). L’électricité produite par les centrales de production d’énergie dites vertes, propres ou renouvelables est donc elle-même largement néfaste écologiquement, dans ses usages, indépendamment de la façon dont elle est produite.

5/ On pourrait enfin évoquer un argument d’ordre culturel et politique. Les panneaux solaires (et éoliennes), négligeables en ce qui concerne les réalités du système énergétiques, sont omniprésent dans les discours, images et communication du grand récit officiel : "le développement durable". À ce titre, on peut penser que leur rôle principal est celui d’une diversion, d’objets inutiles mais rassurant au service du consentement à l’ordre établi. Il n’y a pas à s’inquiéter pour l’avenir, ni à restreindre sa consommation, ce n’est pas la peine de renoncer à l’automobile ou à l’avion : les énergies renouvelables sont là pour nous permettre de conserver pour toujours la débauche énergétique actuelle. Il suffit d’investir où il faut son épargne, de favoriser la finance verte ou de lancer un vaste plan d’investissement public.

Auteur: Autard Jean

Info: https://www.partage-le.com/2022/03/22/les-panneaux-solaires-ne-sont-pas-ecologiques-par-jean-autard/

[ coûts cachés ] [ déresponsabilisation ] [ solution miracle ] [ critique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

multinationales

Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique ?

Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec "seulement" 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir.

Ces mastodontes de l’économie numérique représenteraient à eux seuls, près de 60% de nos usages numériques quotidiens. A l’heure où la France commence à prendre sérieusement conscience des enjeux de l’économie numérique, ces géants numériques ont une sacré longueur d’avance dans cette nouvelle révolution industrielle. Est-il trop tard ? Sans doute. Mais la France et l’Europe n’ont pas dit leur dernier mot.

- Qui sont vraiment ces GAFAM et NATU ? Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Cette dernière qui était censée prolonger numériquement l’économie traditionnelle commence en réalité en train de la vampiriser sérieusement. Ce qu’on a appelé l’ubérisation de l’économie en référence à la société américaine Uber qui détruit progressivement le modèle de fonctionnement des taxis pour s’approprier d’énormes parts de marché. Google est un peu la matrice du système car il touche à tout : il fournit gratuitement à chacun la boîte à outils pour naviguer dans les mondes numériques et se finance en revendant les précieuses données qu’il récolte. Apple vend une partie du matériel nécessaire pour évoluer dans ce monde numérique, mais également de la musique et des films dont il a révolutionné la distribution. Facebook est le réseau social mondial qui permet à chacun de suivre la vie et les activités des autres.

Notons qu’avec Google, Facebook est devenu une régie publicitaire mondiale qui permet de cibler de façon chirurgicale des publicités avec une audience potentielle qui se chiffre en milliard d’individus. Amazon est en passe de devenir le distributeur mondial de l’économie numérique, menaçant des géants comme Wall Mart aux Etats Unis et peut-être Carrefour ou Auchan demain. - Et les nouveaux venus ? Netflix ? Air BNB ? Telsa ? Uber ? Netflix est la plus grosse plateforme de diffusion de films et séries. Il est également producteur et en ligne va sans doute faire exploser le modèle de la télévision. Air BNB est en train d’appliquer la même punition au secteur hôtelier en permettant à chacun de louer une chambre ou une maison d’un simple clic. Ou presque. Tesla révolutionne l’énergie avec la production de voiture et de batteries électriques d’une nouvelle génération et possède aussi SpaceX, un lanceur de fusée. Quand à Uber, il révolutionne la mobilité avec les taxis. Mais pas que…

Cela sous-entend que ces acteurs ne se cantonnent pas à leur "coeur de métier" comme on dit ? Tout à fait. Ils sont si puissant financièrement qu’ils investissent dans de très nombreux domaines. N’oublions pas que Youtube qui diffuse 4 milliard de vidéos par jour appartient à Google et que Facebook en revendique près de 3 milliards chaque jour. Les audiences des plus grandes chaines de télé se comptent plutôt en millions. Amazon est connu pour être une librairie en ligne mais vend aujourd’hui presque tout sur sa plateforme, même de la micro main d’oeuvre avec sa plateforme Mechanical Turk. Google investit dans presque tout, de la médecine prédictive aux satellites, en passant par les lunettes connectées et les voitures (Google car). Et quand les chauffeurs taxis s’excitent sur Uber pop, on oublie qu’Uber s’occupe aussi de la location de voitures et de la livraison de colis. Selon le cabinet d’études FaberNovel, les Gafam se positionnent directement ou non sur les 7 industries clefs de la transformation numérique : les télécoms et l’IT, la santé, la distribution, les énergies, les média et le divertissement, la finance ainsi que le voyage et les loisirs.

Cette concentration de pouvoir technologique et financier n’est-elle pas un risque pour l’économie ? On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Ces géants disposent de nombreux atouts. Ils ont des réserves de cash gigantesques, ils ont une vision à 360 degrés de ce qui se passe aujourd’hui dans l’innovation, ils attirent les plus grands talents et se positionnent sur les nouveaux marchés issus de la transformation numérique comme l’internet des objets, la robotique, voitures, les drones…. Ils diversifient leurs activités et deviennent des prédateurs redoutables de l’économie traditionnelle.

Quelques chiffres donnent le vertige. Google contrôle 90 % de la recherche dans le monde. Apple 45 % du trafic Web issu des smartphones. Facebook 75 % des pages vues sur les réseaux sociaux aux Etats-Unis. Et si demain une pépite émerge, il est presqu’assuré que cette dernière tombera dans l’escarcelle d’un de ces géants. - Que peuvent faire les autres pays ? Il y a toujours 2 types d’attitudes devant un tel défi. Attaquer ou défendre. Ou les deux. Et sur plusieurs terrains. L’innovation et la recherche bien sûr, en essayant d’inventer non seulement des concurrents à ces mastodontes, mais aussi en explorant d’autres domaines prometteurs. L’Europe pré-technocratique avait réussi à faire des Airbus et des fusées Ariane. Elle hébergent encore de grands leaders industriels de la santé, du commerce et de la distribution. Mais ses modèles datent du 20ème siècle et clairement, le virage du numérique n’a pas été pris à temps. Inventeur du Minitel dans les années 80, la France aurait pu prendre une avance stratégique dans ce domaine mais cela aurait sans doute du se jouer au niveau européen.

Contrairement à la Chine (avec Baidu et Alibaba) ou à la Russie (Yandex, Rutube), l’Europe n’a malheureusement rien lancé de significatif dans ce domaine. - Justement n’est-ce pas au niveau continental que des leviers existent ? Certainement. S’il est difficile de mettre en place des consortium numériques à l’échelle européenne, par exemple pour concurrencer les GAFAM dans leurs fonctions stratégiques, des leviers législatifs, juridiques et fiscaux sont en revanche déjà utilisés pour attaquer les géants américains qui sont rarement respectueux des règles locales. Amazon, qui concentrait ses revenus au Luxembourg va devoir payer des impôts dans chaque pays dans lequel il évolue. Google a été condamné pour avoir favorisé ses propres services de shopping a du se plier aux exigences de la CNIL française pour mettre en place un droit à l’oubli. Mais cela sonne comme des gouttes d’eau dans l’océan et surtout cela concerne essentiellement des mesures défensives, comme si la bataille était déjà perdue. Internet,

Auteur: Internet

Info: http://www.econum.fr/gafa, 20 septembre 2015

[ transnationales ] [ puissance ] [ domination ] [ pouvoirs comprador ]

 

Commentaires: 0

onirologie

Les rêves sont des portes d'accès au monde invisible pour de nombreuses civilisations, cette porte ouvre sur le royaume des morts, des entités célestes et chthoniennes. Ces êtres interagissent avec nous grâce aux rêves, et certains d'entres eux peuvent nous apporter des messages célestes, et d'autres des messages plutôt sombres et funestes. Dans la mystique juive, il est admis que le dormeur à la capacité d'entrer en contact avec différents êtres durant le sommeil, Moshé Idel nous dévoile certaines techniques onirologiques utilisées par des Maîtres Kabbalistes.

Dans la technique dite du she’elot halom, particulièrement présente chez les Kabbalistes, technique qui consiste à formuler des questions avant d’aller dormir, le praticien entre en dialogue avec le monde invisible. Le grand Besht, plus connu sous le nom de Ba'al Shem Tov, est dit avoir utilisé cette technique et que tout ce que savait le Besht provenait des réponses qu'il recevait en rêve. Dans certains cas, ces réponses prennent la forme d’un verset de la Bible comme une révélation personnelle, dans lequel la réponse était contenu. Par conséquent, on devait interpréter le verset comme la Thora est interprétée par les Maîtres.

R. Isaac ben Samuel d’Acre, un Kabbaliste du début du XIVème siècle, rapporte ce qui suit : "Moi, le jeune Isaac d’Acre, étais endormi dans mon lit, et à la fin de la troisième garde, une merveilleuse réponse par le rêve m’a été révélée, dans une véritable vision, comme si j’étais pleinement éveillé, et la voici [le verset] : - Sois entièrement avec l’Éternel ton Dieu…" Deutéronome, chapitre 18, verset 13

R. Isaac voit toutes sortes de combinaisons de mots et leurs équivalences numériques qui font allusion au nom divin YBQ, et "pense aux lettres du Tétragramme telles qu’elles sont prononcées (...). En une cogitation conceptuelle, méditative et intellectuelle… non pas d’une façon qui arrive du cœur à la gorge…".

Cette technique de permutation des lettres associée à une médiation est l'oeuvre d'Abraham Aboulafia (1240-1291), George Lahy définit cette permutation des lettres, le Tserouf, comme suit :

"La pratique du Tserouf, l’art combinatoire, ouvre les portes de la Kabbale extatique. Cette extase provoquée par le Kabbaliste est un ravissement de l’esprit fusionné par la méditation et détaché du monde sensible."

Dans son livre H’aye haOlam haBa, Abraham Aboulafia nous explique de quelle manière procéder :

"Il te faut t’apprêter pour l’union du coeur et la purification du corps. Un lieu particulier et préservé doit être choisi, d’où ta voix ne sera entendue de personne. Installe-toi complètement seul et retire-toi dans l’HITBODED (esseulement). Tu dois être assis en ce lieu préservé, qui peut être une pièce ou une cellule ; mais surtout ne révèle ce secret à personne. Si tu peux, applique la méthode le jour dans une maison, mais le moment le plus favorable est la nuit. Éloigne de ton esprit les vanités de ce monde, car c’est l’instant où tu vas parler avec ton Créateur, de qui tu souhaites connaître la Grandeur.

Enveloppe-toi dans ton châle de prière et place ta tête et ton bras tes tefillim car tu dois être rempli de révérence envers la Shekhinah qui t’enrobe maintenant. Vérifie que tes vêtements soient purs et de préférence blancs ; cette précaution invite avec force au recueillement…"

Un autre exemple de la pratique onirologique du she’elat halom découle de l’un des plus célèbres Kabbalistes, Rabbi Hayyim Vital, qui recommande ceci :

"Tu iras au lit pour dormir, prie : - Que Ta Volonté soit faite, et utilise l’une des prononciations des noms [divins] écrits devant toi, et dirige ta pensée vers les sphères mystiques qui y sont liées. Puis évoque ta question soit pour découvrir les problèmes liés à un rêve et les choses futures, soit pour obtenir quelque chose que tu désires, ensuite pose [la question]."

Ailleurs, ce Kabbaliste a recours à une technique de visualisation de la couleur pour obtenir une réponse à sa question, qu’il atteint dans un état similaire au rêve :

"Visualise qu’au-dessus du firmament des Aravot (des cieux), il y a un très grand rideau blanc, blanc comme la neige, sur lequel le Tétragramme est inscrit, en écriture assyrienne (il ne s’agit pas de l’écriture cunéiforme assyrienne, Hayyim Vital fait référence à une forme calligraphique traditionnelle de l’alphabet hébraïque : l’écriture carrée, dite ashourite (ktav ashuri), qui vient du nom Ashur. Ashur en hébreu désigne l’Assyrie), dans une certaine couleur…. et chacune des grandes lettres inscrites là sont aussi grandes qu’une montagne ou une colline. Et tu devras imaginer, dans tes pensées, que tu poses ta question à ces combinaisons de lettres écrites là, et elles répondront à ta question, ou elles feront résider leur esprit dans ta bouche, ou bien tu seras somnolent et elles te répondront, comme dans un rêve."

Une autre technique d’induction des rêves a été élaborée à partir de textes mystiques juifs, elle s’appelle "les pleurs mystiques" : il s’agit d’un effort pour atteindre un résultat direct par le biais des pleurs provoqués sur soi-même. Ce résultat recherché peut aller de la connaissance paranormale aux visions porteuses d’informations à propos de quelque secret. Nous trouvons quelques exemples dans la littérature apocalyptique, où la prière, les pleurs et les jeûnes sont utilisés pour induire le Parole de Dieu dans un rêve.

Le lien entre les pleurs et les perceptions paranormales qui se forme dans les rêves est également évident dans une histoire midrashique :

"L’un des étudiants de R. Simeon bar Yohaï avait oublié ce qu’il avait appris. En larmes, il se rendit au cimetière. Du fait de ses grands pleurs, il [R. Simeon] vint à lui en rêve et lui dit : - lorsque tu te lamentes, lance trois brindilles, et je viendrai... L’étudiant se rendit auprès d’un interprète des rêves et lui raconta ce qui s’était produit. Ce dernier lui dit : - répète ton chapitre [ce que tu as appris] trois fois, et il te reviendra... L’étudiant suivit ses conseils et c’est effectivement ce qui se passa."

La corrélation entre les pleurs et la visite d’une tombe semble faire allusion à une pratique destinée à induire des visions. Ceci, bien sûr, faisait partie d’un contexte plus étendu dans lequel les cimetières étaient des sites où il était possible de recevoir une vision. Tomber de sommeil en larmes, ce dont il est question ici, semble également être une part de l’enchaînement : la visite au cimetière, les pleurs, tomber de sommeil en larmes, le rêve révélateur.

La technique des pleurs pour atteindre la "Sagesse" est puissamment expliquée par R. Abraham ha-Levi Berukhim, l’un des disciples d’Isaac Louria. Dans l’un de ses programmes, après avoir spécifié le "silence" comme première condition, il nomme "la seconde condition : dans toutes tes prières, et dans toutes tes heures d’étude, en un lieu que l’on trouve difficile (le lieu où l’on étudie), dans lequel tu ne peux pas comprendre et appréhender les sciences propédeutiques ou certains secrets, provoque en toi d’amères lamentations, jusqu’à ce que des larmes mouillent tes yeux, et pleure autant que tu pourras. Et fais redoubler tes pleurs, car les portails des larmes n’étaient pas fermés et les portails célestes s’ouvriront à toi."

Pour Louria et Berukhim, pleurer est une aide pour surmonter les difficultés intellectuelles et recevoir des secrets. Ceci s’apparente à l’histoire de R. Abraham Berukhim qui est la confession autobiographique de son ami, R. Hayyim Vital :

"En 1566, la veille de Chabbath, le 8 du mois de Tevet, j’ai récité le Kiddush et me suis assis pour manger ; et mes yeux s’emplirent de larmes, j’avais signé et j’étais triste dès lors… J’étais lié par la sorcellerie… Et je pleurais également pour avoir négligé la Torah au cours des deux dernières années… Et à cause de mon inquiétude, je n’ai pas mangé du tout, et je me suis étendu, le visage contre mon lit, en pleurs, et je me suis endormi d’avoir trop pleuré, et j’ai fais un rêve extraordinaire."

Ces she’elot halom (les questions posées par le biais des rêves, la visualisation de couleur, les pleurs mystiques), comme d’autres techniques mystiques appartiennent à la littérature juive, mais également au quotidien des Kabbalistes. Moshé Idel affirme que cette technique suppose que le mystique peut prendre l’initiative et établir un contact avec d’autres royaumes, et qu’il peut induire certaines expériences en ayant recours à ces techniques.

Auteur: Shoushi Daniel

Info: Le she’elot halom, ou le processus d'induction spirituelle par les rêves chez les mystiques juifs, par Moshé Idel, 11 Avril 2018. Sources : Kabbale extatique et Tsérouf, Georges Lahy. Editions : Lahy. Astral Dreams in Judaism Twelfth to Fourteenth Centuries, Moshé Idel. Editions : Dream Cultures; Explorations in the Comparative History of Dreaming. Ed. by David Shulman and Guy G. Stroumsa. New York : Oxford University Press, 1999. Les kabbalistes de la nuit, Moshé Idel. Editions Allia

[ songes ] [ astralogie ] [ psychanalyse ]

 
Commentaires: 1
Ajouté à la BD par miguel