Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 466
Temps de recherche: 0.0547s

homme-végétal

On ignore souvent (…) que l’électricité de l'air dans la forêt et son état d'ionisation se distinguent clairement de l'air d'espaces ouverts et spécialement de celui des villes, sujet déjà abordé par le forestier français Georges Plaisance dans son livre "Forêt et santé" (1985). Ceci s'explique probablement par un phénomène analogue à celui qui fut découvert par Alessandro Volta: aux alentours d'une chute d'eau, une charge électrique négative, liée à une ionisation de l'air, se crée par la pulvérisation des gouttes d'eau (effet Lenard, selon le nom du chercheur allemand qui approfondit et démontra les mécanismes de ce phénomène). Les chercheurs parlent de " triboélectricité ", produite par le frottement de deux matériaux, provoquant une charge ou une décharge électrique par transfert d'électrons. Un tel phénomène a lieu en particulier au niveau des feuilles d'arbres et des aiguilles de conifères lors de décharges électriques de pointe par temps de brume ou en cas d'orage, selon les travaux de Jean-Pascal Barra et de ses collègues du Laboratoire de physique des gaz et des plasmas du CNRS. Au cours de l'année, l'atmosphère des forêts se charge de quantités variables d'ions positifs et négatifs de différentes tailles. La part d'ions négatifs par rapport aux ions positifs est néanmoins en général excédentaire dans les milieux forestiers étudiés. (...) Il est aujourd'hui clairement établi qu'une atmosphère est bénéfique pour la santé lorsqu'une ionisation négative prédomine. (…) Les célèbres vents du désert comme le khamsin d'Égypte ou le shirav d'Israël, dont la surcharge en ions positifs est reconnue comme perturbant la santé physique et l'état psychique des habitants qui y sont sensibles, offrent un contraste extrême avec l'air forestier.

Pour renouer avec le thème de la chronobiologie, mentionnons par ailleurs que l'ionisation de l'air varie en fonction du cycle lunaire, un excès d'ions positifs étant observé lors de la pleine Lune, particulièrement en hiver. À l'inverse, des essais de germination en laboratoire, portant sur une durée de trois ans, ont permis de constater qu'une atmosphère enrichie artificiellement en ions négatifs rendait les plantes plus sensibles aux influences lunaires, alors que la production d'ions positifs éliminait une telle périodicité.

Le phénomène naturel d'ionisation négative de l'air était mis à contribution autrefois par les sanatoriums - établissements de cure pour le traitement de la tuberculose et d'autres maladies chroniques - placés en milieu forestier. Le même phénomène est mis à profit par l'appareil mis au point par René Jacquier (" Bol d'air Jacquier "), qui active des extraits de résine de pin. On a pu prouver expérimentalement que des inhalations brèves mais régulières ne génèrent pas de stress oxydant (nommé aussi stress oxydatif), mais semblent effectivement produire un effet antioxydant global bénéfique.

Une recherche récente menée par une équipe autrichienne sur l’ " impact psychophysiologique des qualités atmosphériques d'un paysage " s'est basée sur une série de mesures au niveau des systèmes nerveux végétatif et cardiovasculaire, en utilisant des méthodes psychométriques. L’application d'une telle procédure permet de confirmer mais aussi de nuancer ce que l'on pensait savoir jusqu'alors. Les résultats prouvent que l'atmosphère qui émane d'un cadre particulier - par exemple d'une petite forêt, comparativement à une chute d'eau ou à un pierrier - peut avoir sur l'homme des répercussions à la fois physiques et psychiques quantifiables, dans le sens d'un effet clairement apaisant.

(Encadré) Les bienfaits d'une ionisation négative de l’air :

Des essais en laboratoire ont montré qu'un air chargé en ions majoritairement négatifs (NAI, negative air ions) modifie les taux de sérotonine, une hormone fonctionnant comme neurotransmetteur et impliquée dans le cycle circadien, dans l'hémostase et dans divers désordres psychiatriques tels que le stress, l'anxiété, les phobies ou la dépression. Des effets positifs ont été observés sur la récupération après l'effort, sur la qualité du sommeil et sur la capacité d'apprentissage, par une régulation de la pression sanguine et de la fréquence cardiaque. Les maux de tête et les symptômes de stress en sont fortement réduits.

Auteur: Zürcher Ernst

Info: Les arbres, entre visible et invisible. Pp 186-188

[ végétaux matrice ] [ équilibre organique ] [ symbiose ]

 

Commentaires: 0

Ajouté à la BD par miguel

cyberguerre

Des chercheurs créent le tout premier ver informatique capable de se répandre dans les systèmes d'IA

Vous vous demandiez si l’intelligence artificielle pouvait être infectée par des virus ou des malwares ? Maintenant, oui.

C’est, selon l’équipe qui l’a développé, une grande première dans le monde de l’intelligence artificielle. Afin de rappeler au monde les risques inhérents à toute technologie connectée, un groupe de chercheurs vient de créer le tout premier ver informatique capable d’infecter les agents IA. Une démonstration qui doit alerter sur l’émergence possible de nouveaux types de cyberattaques.

La résurgence du spectre Morris à l’ère de l’intelligence artificielle

Baptisé Morris II en référence à Morris,  célèbre pour avoir semé le chaos sur Internet en 1998, ce ver informatique d’un genre nouveau aurait la capacité de se répandre d’un système d’IA à l’autre. Créé par une équipe de chercheurs dans un environnement de test, Morris est aujourd’hui capable d’attaquer des agents IA génératifs pour siphonner des données et propager des malwares. Dans le cadre des essais menés par le groupe de recherche, le ver a pu s’en prendre à un assistant autonome de messagerie pour dérober des informations contenues dans les mails et envoyer des spams.

Une expérience qui souligne la vulnérabilité croissante des modèles de langage à grande échelle (LLM), alors qu’ils sont de plus en plus performants, polyvalents et multimodaux. Bien que ces vers IA n'aient pas encore été observés en conditions réelles, ils représentent un risque de sécurité que les start-up, les développeurs et les entreprises tech doivent prendre au sérieux et anticiper.

Des prompts auto-réplicatifs pour jailbreaker les systèmes d’IA générative

Pour créer ce ver, les équipes de Cornell Tech ont créé un prompt " auto-réplicatif ". En clair, un ensemble d’instructions conduisant un système d’IA génératif à autoproduire des instructions supplémentaires dans ses réponses. Un procédé que l’on retrouve dans des attaques classiques par injection de SQL ou de type buffer overflow. En parallèle, ils ont aussi créé un système de mails capable d’envoyer et de recevoir des messages en recourant à différents agents intelligents comme ChatGPT et Gemini, ainsi qu’au LLM open source LLaVA.

L’expérience s’est révélée concluante en utilisant deux méthodes d’auto-réplication des instructions. La première via des prompts textuels, la seconde en intégrant un prompt dans un fichier image. Dans le premier cas, les chercheurs ont réussi à " empoisonner " la base de données des assistants de messagerie, forçant le déclenchement de la RAG – retrieval-aumented generation, techno permettant d’améliorer les réponses de l’IA à l’aide d’informations plus récentes sans modifier le LLM en profondeur.

(Photo - Schéma de la propagation du ver dans les systèmes d'IA générative intégrant la RAG © Cornell Tech)

Une fois le mail récupéré par la RAG en réponse à une requête de l’utilisateur, et envoyé à GPT-4 ou Gemini, il parvient à contourner les mesures de sécurité des systèmes d’IA et dérobe les données du message. " La réponse générée contenant les données utilisateur sensibles infecte plus tard les nouveaux hôtes lorsqu'elle est utilisée pour répondre à un mail envoyé à un nouveau client puis stockée dans la base de données du nouveau client ", a expliqué Ben Nassi, l’un des membres du groupe de recherche.

Avec la seconde méthode (intégration du prompt malveillant dans une image), le processus a permis d’obliger l’assistant à transférer plusieurs fois le mail infecté à d’autres systèmes de messagerie.

(Photo -  Schéma de la propagation du ver dans les systèmes d'IA à l'aide d'un prompt malveillant dissimulé dans une image © Cornell Tech)

Pour anticiper de telles attaques qu’ils estiment probables d’ici deux à trois ans, les chercheurs de Cornell Tech ont partagé leurs travaux avec Google et OpenAI qui travaillent à rendre leurs systèmes plus résilients, tout en encourageant les développeurs à s'assurer qu'ils travaillent avec des outils sains.

(Ajout de 2024 : librairie d'invites informatiques mise en ligne par Anthropic) 

 

Auteur: Internet

Info: https://www.clubic.com/, Chloé Claessens, 2 mars 2024, source : Technion - Israel Institute of Technology, Ron Bitton, Ben Nassi, Stav Cohen

[ conflits numériques ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sciences physiques

Le CERN relance la recherche des " particules fantômes " de l'Univers

Les scientifiques européens du CERN vont lancer la construction d'un nouvel accélérateur de particules, dans l'espoir d'identifier enfin les "particules cachées" de l'Univers.

Les scientifiques du plus grand accélérateur de particules du monde vont disposer d'un nouvel outil qui, selon les chercheurs, pourrait les aider à découvrir la face cachée de l'Univers.

L'Organisation européenne pour la recherche nucléaire (CERN) va entamer la construction d'un nouveau supercollisionneur, le "Futur collisionneur circulaire", qui sera 1 000 fois plus sensible aux particules dites "cachées", ou "fantômes", que l'équipement actuel utilisé par l'organisation.

Les accélérateurs de particules permettent aux scientifiques de recréer les conditions du Big Bang, la théorie physique qui décrit l'apparition de l'Univers.

Dans ce nouvel appareil, les particules seront projetées contre une surface solide, et non plus les unes contre les autres comme dans les accélérateurs actuels

Le collisionneur fait partie du projet SHiP (Search for Hidden Particles) du CERN, un projet en gestation depuis dix ans qui permettra d'étudier certaines des particules les plus discrètes de l'espace.

Richard Jacobsson, physicien principal au CERN, affirme que ce projet pourrait constituer une "avancée considérable" qui redéfinirait la compréhension de la création de l'Univers.

" SHiP est l'une de ces expériences qui pourraient changer le paradigme scientifique et nous faire entrer dans un tout nouveau domaine de connaissances, non seulement sur notre Univers, mais aussi sur notre position dans celui-ci", avance Richard Jacobsson lors d'une interview.

"La plupart des hypothèses que nous avons formulées jusqu'à présent pourraient être réévaluées".

Selon le physicien, les scientifiques n'ont jamais réussi à détecter ce type de particules, car ils ne disposaient pas de la technologie adéquate.

Que sont les particules fantômes ?

D'après Richard Jacobsson, tout ce que nous pouvons voir à l'œil nu depuis l'espace, y compris les étoiles et les planètes, représente environ 5 % de la matière réelle de l'Univers.

Les 95 % restants se répartissent, selon les connaissances actuelles, entre environ 26 % de matière noire et 69 % d'énergie noire, selon le physicien.

Les scientifiques utilisent actuellement le "modèle standard", qui comprend 17 particules différentes, pour expliquer la composition de l'Univers.

En 2012, les scientifiques du CERN ont découvert une nouvelle particule du modèle standard, le boson de Higgs, grâce au Grand collisionneur de hadrons, une découverte qui leur a valu le prix Nobel de physique un an plus tard.

Depuis, les tentatives d'utiliser ce même collisionneur pour mesurer les particules cachées - qui pourraient également constituer la matière noire et l'énergie noire, mais ne font pas partie du modèle standard - se sont toutes soldées par des échecs.

" La découverte du boson de Higgs a comblé un vide sans pour autant prédire quelque chose de nouveau", déclare Richard Jacobsson.

"L'idée de ce projet est née presque par hasard, d'un partenariat entre des personnes issues de différents domaines et désireuses d'explorer la physique sous un autre angle".

Les particules "cachées" ou "fantômes" sont invisibles et ont des connexions physiques plus faibles que les particules déjà découvertes, ce qui les rend difficiles à détecter.

Le Grand collisionneur de hadrons du CERN peut détecter les particules jusqu'à un mètre du site de la collision, mais les particules cachées restent invisibles beaucoup plus longtemps avant de se révéler.

Les détecteurs du nouveau collisionneur du projet SHiP seront donc placés plus loin et produiront davantage de collisions sur une toile de fond fixe afin d'identifier plus facilement ces particules.

La construction des nouvelles installations souterraines du SHiP débutera en 2026 et les premières expériences pourraient avoir lieu vers 2032.

Le futur collisionneur circulaire, quant à lui, sera mis en service dans le courant des années 2040, mais n'atteindra son plein potentiel qu'en 2070, selon des informations rapport de la BBC.

Auteur: Internet

Info: https://fr.euronews.com/ - Anna Desmarais,  26 mars 2024

[ infra-monde ] [ sub-particules élémentaires ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

post-matérialisme

Comme nous le disions aussi précédemment, s’il est vrai que l’emprise du matérialisme diminue, il ne convient pourtant guère de s’en féliciter, car, la "descente" cyclique n’étant pas encore achevée, les "fissures" [...] ne peuvent se produire que par le bas ; autrement dit, ce qui "interfère" par là avec le monde sensible ne peut être rien d’autre que le "psychisme cosmique" inférieur, dans ce qu’il a de plus destructif et de plus "désagrégeant", et il est d’ailleurs évident qu’il n’y a que les influences de cette sorte qui soient vraiment aptes à agir en vue de la dissolution ; dès lors, il n’est pas difficile de se rendre compte que tout ce qui tend à favoriser et à étendre ces "interférences" ne correspond, consciemment ou inconsciemment, qu’à une nouvelle phase de la déviation dont le matérialisme représentait en réalité un stade moins "avancé", quelles que puissent être les apparences extérieures, qui sont souvent fort trompeuses.
Nous devons en effet remarquer à ce propos que des "traditionalistes" mal avisés se réjouissent inconsidérément de voir la science moderne, dans ses différentes branches, sortir quelque peu des limites étroites où ses conceptions s’enfermaient jusqu’ici, et prendre une attitude moins grossièrement matérialiste que celle qu’elle avait au siècle dernier ; ils s’imaginent même volontiers que, d’une certaine façon, la science profane finira par rejoindre ainsi la science traditionnelle (qu’ils ne connaissent guère et dont ils se font une idée singulièrement inexacte, basée surtout sur certaines déformations et "contrefaçons" modernes), ce qui, pour des raisons de principe sur lesquelles nous avons souvent insisté, est chose tout à fait impossible. Ces mêmes "traditionalistes" se réjouissent aussi, et peut-être même encore davantage, de voir certaines manifestations d’influences subtiles se produire de plus en plus ouvertement, sans songer aucunement à se demander quelle peut bien être au juste la "qualité" de ces influences (et peut-être ne soupçonnent-ils même pas qu’une telle question ait lieu de se poser) ; et ils fondent de grands espoirs sur ce qu’on appelle aujourd’hui la "métapsychique" pour apporter un remède aux maux du monde moderne, qu’ils se plaisent généralement à imputer exclusivement au seul matérialisme, ce qui est encore une assez fâcheuse illusion. Ce dont ils ne s’aperçoivent pas (et en cela ils sont beaucoup plus affectés qu’ils ne le croient par l’esprit moderne, avec toutes les insuffisances qui lui sont inhérentes), c’est que, dans tout cela, il s’agit en réalité d’une nouvelle étape dans le développement, parfaitement logique, mais d’une logique vraiment "diabolique", du "plan" suivant lequel s’accomplit la déviation progressive du monde moderne ; le matérialisme, bien entendu, y a joué son rôle, et un rôle incontestablement fort important, mais maintenant la négation pure et simple qu’il représente est devenue insuffisante ; elle a servi efficacement à interdire à l’homme l’accès des possibilités d’ordre supérieur, mais elle ne saurait déchaîner les forces inférieures qui seules peuvent mener à son dernier point l’œuvre de désordre et de dissolution.
L’attitude matérialiste, par sa limitation même, ne présente encore qu’un danger également limité ; son "épaisseur", si l’on peut dire, met celui qui s’y tient à l’abri de toutes les influences subtiles sans distinction, et lui donne à cet égard une sorte d’immunité assez comparable à celle du mollusque qui demeure strictement enfermé dans sa coquille, immunité d’où provient, chez le matérialiste, cette impression de sécurité dont nous avons parlé ; mais, si l’on fait à cette coquille, qui représente ici l’ensemble des conceptions scientifiques conventionnellement admises et des habitudes mentales correspondantes, avec l’"endurcissement" qui en résulte quant à la constitution "psycho-physiologique" de l’individu , une ouverture par le bas, comme nous le disions tout à l’heure, les influences subtiles destructives y pénétreront aussitôt, et d’autant plus facilement que, par suite du travail négatif accompli dans la phase précédente, aucun élément d’ordre supérieur ne pourra intervenir pour s’opposer à leur action. On pourrait dire encore que la période du matérialisme ne constitue qu’une sorte de préparation surtout théorique, tandis que celle du psychisme inférieur comporte une "pseudo-réalisation", dirigée proprement au rebours d’une véritable réalisation spirituelle […].

Auteur: Guénon René

Info: Dans "Le règne de la quantité" pages 165-167

[ new age ] [ spiritualité moderne ] [ satanisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

prière

On peut donc regarder chaque collectivité comme disposant, en outre des moyens d’action purement matériels au sens ordinaire du mot, c’est-à-dire relevant uniquement de l’ordre corporel, d’une force d’ordre subtil constituée en quelque façon par les apports de tous ses membres passés et présents, et qui, par conséquent, est d’autant plus considérable et susceptible de produire des effets d’autant plus intenses que la collectivité est plus ancienne et se compose d’un plus grand nombre de membres ; il est d’ailleurs évident que cette considération "quantitative" indique essentiellement qu’il s’agit bien du domaine individuel, au delà duquel elle ne saurait plus aucunement intervenir. Chacun des membres pourra, lorsqu’il en aura besoin, utiliser à son profit une partie de cette force, et il lui suffira pour cela de mettre son individualité en harmonie avec l’ensemble de la collectivité dont il fait partie, résultat qu’il obtiendra en se conformant aux règles établies par celle-ci et appropriées aux diverses circonstances qui peuvent se présenter ; ainsi, si l’individu formule alors une demande, c’est en somme, de la façon la plus immédiate tout au moins, à ce qu’on pourrait appeler l’esprit de la collectivité (bien que le mot "esprit" soit assurément impropre en pareil cas, puisque, au fond, c’est seulement d’une entité psychique qu’il s’agit) que, consciemment ou non, il adressera cette demande. Cependant, il convient d’ajouter que tout ne se réduit pas uniquement à cela dans tous les cas : dans celui des collectivités appartenant à une forme traditionnelle authentique et régulière, cas qui est notamment celui des collectivités religieuses, et où l’observation des règles dont nous venons de parler consiste plus particulièrement dans l’accomplissement de certains rites, il y a en outre intervention d’un élément véritablement "non-humain", c’est-à-dire de ce que nous avons appelé proprement une influence spirituelle, mais qui doit d’ailleurs être regardée ici comme "descendant" dans le domaine individuel, et comme y exerçant son action par le moyen de la force collective dans laquelle elle prend son point d’appui. Parfois, la force dont nous venons de parler, ou plus exactement la synthèse de l’influence spirituelle avec cette force collective à laquelle elle s’"incorpore" pour ainsi dire, peut se concentrer sur un "support" d’ordre corporel, tel qu’un lieu ou un objet déterminé, qui joue le rôle d’un véritable "condensateur", et y produire des manifestations sensibles, comme celles que rapporte la Bible hébraïque au sujet de l’Arche d’Alliance et du Temple de Salomon ; on pourrait aussi citer ici comme exemples, à un degré ou à un autre, les lieux de pèlerinage, les tombeaux et les reliques des saints ou d’autres personnages vénérés par les adhérents de telle ou telle forme traditionnelle. C’est là que réside la cause principale des "miracles" qui se produisent dans les diverses religions, car ce sont là des faits dont l’existence est incontestable et ne se limite point à une religion déterminée ; il va sans dire, d’ailleurs, que, en dépit de l’idée qu’on s’en fait vulgairement, ces faits ne doivent pas être considérés comme contraires aux lois naturelles, pas plus que, à un autre point de vue, le "supra-rationnel" ne doit être pris pour de l’"irrationnel". En réalité, redisons-le encore, les influences spirituelles ont aussi leurs lois, qui, bien que d’un autre ordre que celles des forces naturelles (tant psychiques que corporelles), ne sont pas sans présenter avec elles certaines analogies ; aussi est-il possible de déterminer des circonstances particulièrement favorables à leur action, que pourront ainsi provoquer et diriger, s’ils possèdent les connaissances nécessaires à cet effet, ceux qui en sont les dispensateurs en raison des fonctions dont ils sont investis dans une organisation traditionnelle. Il importe de remarquer que les "miracles" dont il s’agit ici sont, en eux-mêmes et indépendamment de leur cause qui seule a un caractère "transcendant", des phénomènes purement physiques, perceptibles comme tels par un ou plusieurs des cinq sens externes ; de tels phénomènes sont d’ailleurs les seuls qui puissent être constatés généralement et indistinctement par toute la masse du peuple ou des "croyants" ordinaires, dont la compréhension effective ne s’étend pas au-delà des limites de la modalité corporelle de l’individualité.

Auteur: Guénon René

Info: Dans "Aperçus sur l'initiation", Éditions Traditionnelles, 1964, pages 166-168

[ grâce ] [ communion des saints ] [ mode d'action ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

panspermie

Origine de la vie: la pièce manquante détectée dans une "comète artificielle"
Pour la première fois, des chercheurs montrent que le ribose, un sucre à la base du matériel génétique des organismes vivants, a pu se former dans les glaces cométaires. Pour parvenir à ce résultat, des scientifiques de l'Institut de chimie de Nice (CNRS/Université Nice Sophia Antipolis) ont analysé très précisément une comète artificielle créée par leurs collègues de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud). Ils présentent ainsi, en collaboration avec d'autres équipes dont une du synchrotron SOLEIL, le premier scénario réaliste de formation de ce composé essentiel, encore jamais détecté dans des météorites ou dans des glaces cométaires. Étape importante dans la compréhension de l'émergence de la vie sur Terre, ces résultats sont publiés dans la revue Science le 8 avril 2016.
Le traitement ultraviolet des glaces pré-cométaires (à gauche) reproduit l'évolution naturelle des glaces interstellaires observées dans un nuage moléculaire (à droite, les piliers de la création), conduisant à la formation de molécules de sucre.Image de gauche © Louis Le Sergeant d'Hendecourt (CNRS).Image de droite © NASA, ESA, and the Hubble Heritage Team (STScI/AURA)
Tous les organismes vivants sur Terre, ainsi que les virus, ont un patrimoine génétique fait d'acides nucléiques - ADN ou ARN. L'ARN, considéré comme plus primitif, aurait été l'une des premières molécules caractéristiques de la vie à apparaitre sur Terre. Les scientifiques s'interrogent depuis longtemps sur l'origine de ces molécules biologiques. Selon certains, la Terre aurait été "ensemencée" par des comètes ou astéroïdes contenant les briques de base nécessaires à leur construction. Et effectivement, plusieurs acides aminés (constituants des protéines) et bases azotées (l'un des constituants des acides nucléiques) ont déjà été trouvés dans des météorites, ainsi que dans des comètes artificielles, reproduites en laboratoire. Mais le ribose, l'autre constituant-clé de l'ARN, n'avait encore jamais été détecté dans du matériel extraterrestre, ni produit en laboratoire dans des conditions "astrophysiques". En simulant l'évolution de la glace interstellaire composant les comètes, des équipes de recherche françaises ont réussi à former du ribose - étape importante pour comprendre l'origine de l'ARN et donc les origines de la vie.
Le ribose (et des molécules de sucres apparentées, comme l'arabinose, le lyxose et le xylose) ont été détectés dans des analogues de glaces pré-cométaires grâce à la chromatographie multidimensionnelle en phase gazeuse. Le ribose forme le "squelette" de l'acide ribonucléique (ARN), considéré comme le matériel génétique des premiers organismes vivants.© Cornelia Meinert (CNRS)
Dans un premier temps, une "comète artificielle" a été produite à l'Institut d'astrophysique spatiale: en plaçant dans une chambre à vide et à ? 200 °C un mélange représentatif d'eau (H2O), de méthanol (CH3OH) et d'ammoniac (NH3), les astrophysiciens ont simulé la formation de grains de poussières enrobés de glaces, la matière première des comètes. Ce matériau a été irradié par des UV - comme dans les nébuleuses où se forment ces grains. Puis, l'échantillon a été porté à température ambiante - comme lorsque les comètes s'approchent du Soleil. Sa composition a ensuite été analysée à l'Institut de chimie de Nice grâce à l'optimisation d'une technique très sensible et très précise (la chromatographie multidimensionnelle en phase gazeuse, couplée à la spectrométrie de masse à temps de vol). Plusieurs sucres ont été détectés, parmi lesquels le ribose. Leur diversité et leurs abondances relatives suggèrent qu'ils ont été formés à partir de formaldéhyde (une molécule présente dans l'espace et sur les comètes, qui se forme en grande quantité à partir de méthanol et d'eau).
Le ribose se forme dans le manteau de glace des grains de poussière, à partir de molécules précurseurs simples (eau, méthanol et ammoniac) et sous l'effet de radiations intenses.© Cornelia Meinert (CNRS) & Andy Christie (Slimfilms.com)
S'il reste à confirmer l'existence de ribose dans les comètes réelles, cette découverte complète la liste des "briques moléculaires" de la vie qui peuvent être formées dans la glace interstellaire. Elle apporte un argument supplémentaire à la théorie des comètes comme source de molécules organiques qui ont rendu la vie possible sur Terre... et peut-être ailleurs dans l'Univers.
Ces travaux ont bénéficié du soutien financier de l'Agence nationale de la recherche et du CNES.

Auteur: Internet

Info: http://www.techno-science.net, 9 04 2016

[ extraterrestre ]

 

Commentaires: 0

xénolinguistique

Q - L'humanité a-t-elle prévu un protocole "premier contact" ? 

R - Je ne sais pas si les États ont prévu quoi que ce soit. Ce que je sais, c'est que je ne connais aucun collègue linguiste à qui on a demandé de préparer quelque chose. Des réflexions ont été engagées au sein du programme SETI - qui vise à détecter la présence de civilisations extraterrestres avancées dans d'autres systèmes solaires -, mais cela concerne la communication à distance. Si la communication s'effectue face à face, les réponses se trouvent dans la linguistique de terrain. 

R - Dans ce cas, il n'y a pas de document décrivant des "étapes magiques". Il existe néanmoins un cadre de travail : quand des linguistes découvrent un peuple dont le langage est totalement inconnu, ils commencent par vivre avec ses membres, observer leur comportement, les écouter, et apprendre leur culture. Aujourd'hui, ils utilisent généralement un enregistreur pour détecter les variations parfois subtiles de la langue et retranscrivent les sons grâce à un alphabet adapté, à l'image de l'Alphabet Phonétique International. Surtout, ils décrivent le cadre dans lequel les phrases sont prononcées : si elles sont accompagnées d'un geste des mains ou des yeux ou l'utilisation d'un outil. 

Q - Quels seraient les principaux obstacles empêchant la communication entre l'humanité et des extraterrestres ? 

R - Les auteurs de science-fiction ont à peu près tout imaginé : des extraterrestres communiquant avec des motifs, des couleurs, des peintures, des tapotements, des vibrations voire même par des odeurs, ou des champs magnétiques, ces deux derniers modes étant particulièrement compliqués. Le jour du premier contact, les scientifiques installeront probablement toutes sortes de détecteurs : de vibrations et d'ondes dans toutes les gammes de fréquences imaginables, olfactifs, de mouvements hyper sensibles, etc.  

Découvrir le type de médium utilisé pour communiquer ne devrait pas être le plus dur. Ensuite, il s'agira de décrypter le contenu. Pas facile quand on part de rien, que l'on n'a pas de dictionnaire, de corpus ou de référence. Échanger un premier mot qui a du sens peut déjà se révéler complexe, mais prononcer une phrase complète, requiert de connaître la culture et les coutumes du nouveau peuple. 

Q - Vous écrivez qu'il est important de maîtriser le langage pour mieux communiquer entre nous et avec d'autres. Une promotion pour la linguistique ? 

R - Oui, car je pense qu'on ne met pas suffisamment en avant les langues et leurs complexités dans le monde actuel. Par exemple, lorsque l'on parle de sciences à la télévision, ce sont toujours les sciences dures : chimie, mathématiques, physique. On évoque trop rarement les sciences humaines comme la linguistique, qui sont pourtant très importantes.  

C'est pareil pour la science-fiction, les romans donnés aux jeunes sont souvent sur les robots, l'exploration spatiale, beaucoup moins sur les langues. Pourtant, il existe des tas de livres de SF qui sont très importants du point de vue linguistique. La sortie de 'l'ovni' Premier Contact au cinéma m'a motivé à écrire ce livre. Je me suis dit : "Ah ! Enfin un film d'extraterrestres dans lequel on parle de langage", ce qui est tout même plus intéressant que les films de guerre type Independance Day, à la fois désespérément vide et remplis de clichés éculés. 

Q - L'apprentissage de la langue d'une civilisation extraterrestre pourrait-il nous transformer ? 

R - Je pense que c'est plutôt par l'apprentissage de leur culture ou de leurs technologies que s'opéreront des changements. On sait aujourd'hui que l'hypothèse Sapir-Whorf [qui soutient que la façon dont on perçoit le monde dépend du langage] est fausse. J'explique pourquoi dans mon livre, mais pour résumer, Sapir et son élève Whorf ont eu cette idée en étudiant les langues amérindiennes. Whorf, qui n'était pas linguiste mais ingénieur, a ensuite poussé le concept de manière peu scientifique. 

Quand nous apprenons une langue, nous apprenons de nouvelles choses sur l'autre. C'est donc un super outil pour comprendre la diversité et j'encourage à le faire, mais cela ne "recâble" pas notre cerveau. Cela ne va pas nous permettre d'avoir des visions du futur comme dans Premier Contact. En ce sens le film dérive dans la fiction, ce qui n'est pas grave puisque c'est le propre de la SF d'être un laboratoire où l'on peut aller au bout de tout, même d'une hypothèse incroyable.

Auteur: Landragin Frédéric

Info: Interviewé par Victor Garcia sur https://www.lexpress.fr/le 18 10 2018

[ astrolinguistique ] [ exo-langages ]

 

Commentaires: 0

Ajouté à la BD par miguel

cladistique vs phénétique

L'évolution de la vie sur terre: aléatoire ou prévisible ?

L'évolution des êtres vivants met en jeu de nombreux phénomènes aléatoires tels que mutations, rencontres des ovules et spermatozoïdes, accidents météorologiques, etc... Notre monde vivant est-il donc juste une alternative parmi tant d'autres ? Dans une étude publiée dans la revue Interface Focus, Virginie Orgogozo à l'Institut Jacques Monod, revisite la question à la lumière des données actuelles. Elle montre qu'au cours de l'évolution de la vie sur terre, des événements se répètent et semblent prévisibles. Si on rembobinait le film de la vie sur terre et qu'on le relançait en changeant légèrement les conditions initiales, obtiendrait-on les mêmes formes vivantes qu'aujourd'hui ?

Le paléontologue américain Stephen Jay Gould s'était posé la question dans les années 90. Il avait répondu que des formes de vie tout-à-fait différentes seraient apparues car l'évolution dépend de nombreux phénomènes aléatoires non prévisibles (mutations, impact des comètes, etc.). Depuis quelques années, certains biologistes, tel que le paléontologue anglais Simon Conway Morris, remettent en doute la réponse de Stephen Jay Gould. Ils suggèrent que même si le monde ne serait probablement pas exactement pareil, par exemple vous ne seriez pas en train de lire ce texte en ce moment précis, il aurait malgré tout un air de "déjà-vu". Par exemple, les animaux qui nagent dans un milieu liquide auraient un corps en forme de poisson, et la vision de la lumière s'effectuerait grâce à des organes spécialisés que sont les yeux.

L'évolution de la vie est-elle une simple alternative parmi tant d'autres, comme le pensait Stephen Jay Gould, ou bien est-elle prévisible ?

Virginie Orgogozo examine les données actuelles de la génétique et de l'évolution expérimentale pour tenter de répondre à la question. Les données récentes de la biologie indiquent que l'évolution se répète à plusieurs niveaux.

- Premièrement, des traits de caractère semblables sont apparus indépendamment chez différentes espèces vivant dans les mêmes conditions (c'est l'évolution convergente). Par exemple, les poissons et les ichtyosaures, des reptiles disparus, ont évolué indépendamment vers un corps en forme de poisson.

- Deuxièmement, les mêmes traits de caractère et les mêmes mutations apparaissent souvent lors d'expériences d'évolution expérimentale dans lesquelles on laisse évoluer des êtres vivants dans un environnement choisi et que l'on répète cette même expérience plusieurs fois de façon indépendante.

- Troisièmement, l'évolution indépendante du même trait de caractère chez des espèces différentes est souvent causée par des mutations dans le même gène. Par exemple, l'adaptation à une nourriture riche en amidon s'est accompagnée de mutations dans la même famille de gènes chez l'homme et chez le chien. Toutes ces répétitions sont relativement inattendues: si l'évolution était extrêmement sensible aux conditions initiales, on ne devrait pas observer tant de répétitions. Virginie Orgogozo en conclut que l'évolution de la vie sur terre n'est peut-être pas aussi aléatoire que ce qu'on aurait pu croire, et qu'il est possible de faire des prédictions concernant l'évolution des êtres vivants. Ainsi, on peut prédire qu'un mammifère vivant en région polaire va évoluer avec un pelage blanc, ou qu'une plante Arabette des dames qui fleurit plus tôt a de grandes chances d'avoir une mutation dans le gène FRIGIDA.

Comment l'évolution peut-elle être prévisible alors qu'elle met en jeu de nombreux phénomènes aléatoires ?

Virginie Orgogozo l'explique par analogie avec un gaz parfait dans un récipient. Au niveau microscopique, on ne peut prédire ni la position, ni le poids, ni la vitesse des particules. Par contre, au niveau macroscopique, on peut prédire la pression ou la température de ce gaz. Ainsi, même si les mutations apparaissent de façon non prévisible au sein des êtres vivants, on peut prédire les mutations qui ont survécu pendant de longues échelles de temps dans les populations et qui sont responsables de changements évolutifs entre espèces ou entre populations.

Plutôt que de savoir si les formes vivantes seraient différentes des nôtres si on relançait le film de l'évolution, Virginie Orgogozo préfère se demander à quel point elles seraient semblables à celles de notre monde. Répondre à cette question nécessite alors d'examiner les problèmes suivants: comment imaginer d'autres mondes possibles alors que nous sommes limités par notre imagination ? Comment estimer la probabilité d'occurrence d'événements qui ne se sont passés qu'une seule fois au cours de notre évolution ? Peut-on trouver de nouveaux concepts généraux pour prédire l'évolution ? La biologie actuelle commence à apporter des éléments de réponse. Même si il est trop tôt pour s'avancer, l'évolution de la vie sur terre pourrait être en partie prévisible.

Auteur: Orgogozo Virginie

Info: Pour plus d'information voir: Replaying the tape of life in the twenty-first century

[ probabilités ] [ spéculation ]

 

Commentaires: 0

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel