Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 72
Temps de recherche: 0.0653s

vingt-et-unième siècle

Le XXIe siècle invente une nouvelle territorialité : le camp de réfugiés,
Qui peut croire que les flux migratoires vont se réduire dans les prochaines décennies ? Et nous, que ferions-nous si nous résidions dans un espace social et économique sans issue, dévoyé par la violence, comme en Syrie, en Irak, en Érythrée, en Libye, en Palestine, en Afghanistan, au Soudan, en République Centrafricaine, en Somalie, en République Démocratique du Congo, au Pakistan, au Nigeria, au Yemen, en Colombie... ?
Pour répondre à ce défi, le XXIe siècle est en train d'inventer une nouvelle territorialité : le camp de réfugiés. Les camps "officiels", répartis à travers le monde, sont mis en place, financés et gérés par le HCR (Haut commissariat pour les réfugiés), émanation des Nations-Unies siégeant à Genève. 17 millions d'hommes, de femmes et d'enfants y sont nourris, "logés" et souvent enfermés, comme dans beaucoup de pays où les autorités locales interdisent aux populations "accueillies" d'en sortir. Ces camps, dont certains abritent jusqu'à 400.000 personnes, n'apparaissent sur aucune carte, bien qu'ils soient parfois pérennisés par nécessité durant des décennies. On y constate aussi la disparition d'autres droits fondamentaux, comme celui de travailler pour sa subsistance.
La journaliste Anne Poiret, dans son documentaire sur le sujet, établit à 17 années la durée moyenne de résidence dans un camp. On a le temps d'y naître et d'y grandir, ou d'y vieillir et d'y mourir, sans droit, sans liberté, sans "chez-soi".
Mais l'innovation n'y est pas en reste : on teste des formes d'auto-organisation entre les réfugiés, la distribution des aides alimentaires en argent et non en nature, l'installation de campements "verts" (éoliennes, panneaux solaires, financés par des ONG dédiées), et même l'accès à son compte en banque par un distributeur de billets mobile à reconnaissance digitale et rétinienne (il va de soi que tout le monde est fiché). C'est un mode de vie en développement, et comme toute courbe qui monte, il est porteur d'opportunités, sujet à ce "progrès" qui fait tellement défaut dans les pays riches. Les camps de réfugiés font objectivement partie de l'avenir.
Notons que la notion de camp de réfugiés peut être appliquée sans abus de langage aux bidonvilles qui grossissent continûment les villes, impasses sociales et humanitaires qui aspirent les "migrants" de tous ordres, les expropriés des campagnes, les sans-terre, sans-eau, sans-récoltes ou sans-emploi, ceux qui décident que l'insécurité de l'inconnu est au moins porteuse d'une possibilité de numéro gagnant, même à un cent contre un. C'est à ce niveau qu'ils mettent en jeu leur existence. Les migrants sont des "espérants".
Les Occidentaux et les riches des centre-villes leur brandissent des statistiques : scientifiquement, votre espoir est fou, votre espoir est vain. Ne venez pas. Les migrants sourient d'un air gêné, comme tous les humains qui ont une faveur à obtenir. Ils préfèrent un asservissement qu'ils croient provisoire à l'enfermement par le dénuement ou la violence dans leur communauté d'origine. C'est un raisonnement qui ne vaut pas de l'autre côté de la grille : le rapprochement physique des riches et des pauvres est malsain, souvent dangereux. "Incertain", comme dirait la bourse. La présence de ces foules compactes et déracinées dans des contrées plus pacifiées fait tache. L'abordage désordonné des pauvres dans les quartiers riches n'est pas convenable.
Ça, tous les Européens le disent, maintenant, de "gauche" comme de droite : Ça fait des Brexit, après.
Vous savez, le Brexit : cet "événement historique" dont on a tant parlé.

Auteur: Gaufrès Stéphane

Info:

[ guerre ] [ surpopulation ] [ nord-sud ]

 

Commentaires: 0

cosmos miroir

Le cerveau humain ressemble étrangement à l'Univers

Des chercheurs ont comparé la structure de l'Univers à celle du réseau neuronal. Proportions, fluctuations de la matière, connexions entre les étoiles et les neurones... Ils ont constaté des similitudes troublantes entre les deux... malgré des échelles distantes d'années-lumière !

Comparer le cerveau humain, qui mesure en moyenne 1.500 cm3 et pèse 1,4 kg, avec l'Univers, estimé à plus de 880.000 milliards de milliards de kilomètres de diamètre, peut sembler quelque peu incongru. C'est pourtant l'exercice auquel se sont essayés deux chercheurs dans un article publié dans la revue Frontiers in Physics. Aussi étonnant que cela puisse paraître, ils ont découvert des similitudes troublantes entre les deux structures. "Bien que les interactions physiques dans les deux systèmes soient complètement différentes, leur observation au moyen de techniques microscopiques et télescopiques permet de saisir une morphologie analogue fascinante, au point qu'il a souvent été noté que la toile cosmique et la toile des neurones se ressemblent", écrivent l'astrophysicien Franco Vazza et le neurobiologiste Alberto Feletti.

70 % de masse "inutile"

Les similitudes sont d'abord notables au niveau des proportions. Le cerveau contient 86 milliards de neurones, reliés par des millions de milliards de synapses. L'Univers observable est formé d'au moins 100 milliards de galaxies, arrangées elles aussi en longs filaments et en nœuds. Dans les deux systèmes, 75 % de la masse a un rôle "passif" : l'eau dans le cas du cerveau, l’énergie noire dans le cas de l’Univers.

Partant de ce constat troublant, les chercheurs ont poursuivi leur comparaison plus loin, en cherchant à observer comment les fluctuations de la matière se dispersent à des échelles aussi différentes. Ils ont pour cela fait appel à une analyse de la densité spectrale de puissance, une technique souvent utilisée en cosmologie pour étudier la distribution spatiale des galaxies. "Notre analyse montre que la distribution des fluctuations au sein du réseau neuronal du cervelet sur une échelle allant de 1 micromètre à 0,1 millimètre suit la même progression de la distribution de la matière dans la toile cosmique mais, bien sûr, à une échelle plus grande qui va de 5 millions à 500 millions d'années-lumière", atteste Franco Vazza.

(Sur l'article original on voit deux photos, une section du cervelet grossie 40x à côté d'une simulation cosmologique de l’Univers - portion de 300 millions d’années - produite par l'Université de Bologne.)

Deux réseaux qui partagent les mêmes structures de connexions

Les deux chercheurs ont également comparé d'autres paramètres, comme le nombre de connexions dans chaque nœud et la tendance à recouper plusieurs connexions dans les nœuds centraux du système. "Une fois de plus, les paramètres structurels ont permis d'identifier des niveaux de concordance inattendus", révèle Alberto Feletti. Les chercheurs se sont aussi amusés à quantifier les informations stockables par chaque système. Sachant que chaque synapse peut contenir 4,7 bits de données, on estime que le cerveau humain est capable de stocker 2,5 petabytes de mémoire. Pour l'Univers, il a été calculé qu'il faudrait 4,3 petabytes de mémoire pour stocker toutes les informations des structures cosmiques observables. Là encore, les ordres de grandeur sont les mêmes.

"Il est probable que la connectivité au sein des deux réseaux évolue selon des principes physiques similaires, malgré la différence frappante et évidente entre les puissances physiques régulant les galaxies et les neurones", souligne Alberto Feletti. Bien entendu, il existe aussi des différences notoires entre les deux systèmes. On sait par exemple que l'Univers est en expansion et se réchauffe, ce qui n'est (heureusement) pas le cas du cerveau. De plus, cette comparaison est basée sur des simplifications majeures. Il n'en reste pas moins que l'expression "avoir la tête dans les étoiles" prend tout son sens à la lecture de cette étude.

Auteur: Internet

Info: Céline Deluzarche, journaliste, https://www.futura-sciences.com, le 19/11/2020

[ monde anthropo-solipsiste ] [ réalité consensuelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

captage de l'attention

Sur le plan linguistique, précisons aussi, à la suite de C. Schnedecker (2011 : 23-45) faisant un état de la question, que la saillance peut se manifester de façon formelle ou "ontologique" (par le biais de la disposition typographique ou de la prosodie, par exemple), mais aussi de façon cognitive, faisant alors appel à la sémantique lexicale ou à des facteurs discursifs (ces derniers étant hétérogènes).

Cette linguiste distingue en outre une saillance perspectivale, reposant sur un principe d’iconicité puisque l’ordre des unités grammaticales (et donc l’agencement syntaxique) est supposé refléter ce qui est au premier plan, ou encore à l’arrière-plan, dans la perspective du locuteur. Notons que la notion de saillance ontologique est associée à des acceptions différentes selon les auteurs : parfois relative au statut conféré aux mots eux-mêmes (comme le rappelle C. Schnedecker), elle est par ailleurs considérée comme liée aux éléments extralinguistiques ou, du moins, aux concepts qui leur sont associés, et tel est notamment le cas chez H.-J. Schmid (2007 : 120).

Concernant la saillance liée aux paramètres syntaxiques, on rappellera l’importance des travaux de R. W. Langacker (1991 : 301). L’auteur mentionne l’importance des rôles syntaxiques, soulignant que le sujet, tout d’abord, puis l’objet, sont perçus comme les éléments les plus saillants (focal participants) d’une proposition. Ils sont en outre à relier à l’opposition trajector/ landmark (1987 : 217) traduisant le fait qu’un élément est mis davantage en avant (rôle de trajector) que les autres. Ces notion de trajector et landmark peuvent en outre être perçues comme des manifestations spécifiques de ce que L. Talmy (2000 : 311-44) appelle figure et ground, sachant que le premier terme réfère à l’élément le plus saillant, qui se détache sur un fond (désigné par ground). Selon cet auteur également, ce sont les structures grammaticales qui contrôlent la distribution de l’attention portée aux différentes entités présentes.

En lien avec son rôle syntaxique, le rôle sémantique d’une entité est également déterminant, comme l’avait déjà montré C. Fillmore (1968 ; 1977 : 78). Dans la lignée de la grammaire générative et transformationnelle, Fillmore applique la notion de cas aux structures profondes qui se voient réalisées syntaxiquement en structure de surface. Il propose ainsi une base sémantique et universelle des rôles thématiques. Selon l’auteur, il existe une hiérarchie de pertinence en ce qui concerne la sélection des rôles, concernant celui de sujet notamment. Cette hiérarchie peut être représentée ainsi : agent > instrument > patient.

Si l’événement met en scène un agent, celui-ci sera réalisé en position de sujet. S’il n’y a pas d’agent, ce sera l’instrument, ou encore le patient si l’instrument n’est pas réalisé. La grammaire des cas prévoit donc une correspondance relative entre les rôles sémantiques (profonds) et les réalisations syntaxiques (de surface). Notons par ailleurs que la relation entre cette hiérarchie liée aux cas et la notion de saillance est établie par l’auteur, qui évoque une hiérarchie en termes de saillance (salience hierachy, Fillmore 1977 : 78).

Ainsi, les agents jouent clairement les rôles les plus saillants, du moins lorsque les processus sont dynamiques. Sur le plan lexical, par ailleurs, D. Geeraerts (2000 : 90) fournit plus récemment une étude très détaillée de la saillance liée à la sélection du lexique, au cours de laquelle il distingue plusieurs sous-catégories : les formes de saillance perspectivale, sémasiologique, onomasiologique et structurelle.

La première, à savoir la saillance perspectivale, est relative à des paires terminologiques (ex : hand / arm) qui traduisent une hiérarchie pouvant se dessiner dans l’extralinguistique entre le premier plan et le fond. La saillance sémasiologique concerne les relations entre les différentes possibilités sémantiques d’un item lexical donné, certaines valeurs étant plus centrales et prototypiques que d’autres. Si l’on considère maintenant la saillance onomasiologique liée à une certaine catégorie lexicale, elle correspond à la fréquence de l’élément lexical nommant cette catégorie, par contraste avec les autres valeurs sémantiques éventuellement associées à cet item lexical. Enfin, la saillance structurelle est relative à des traits sémantiques récurrents dans la structure du lexique (et pouvant donner lieu à la formation de termes par affixation). L’objectif de l’étude de Geeraerts est, en somme, de déterminer les paramètres responsables des choix lexicaux préférentiels des locuteurs.

Auteur: Pennec Blandine

Info: https://journals.openedition.org/anglophonia/258

[ marketing ] [ linguistique informatisée ] [ secondéité ] [ tiercité ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Des chercheurs de l'Institut de neurosciences de la Timone apportent un éclairage théorique nouveau sur une illusion visuelle découverte dès le début du XXème siècle. Elle restait incomprise alors qu'elle pose des questions fondamentales sur la manière dont notre cerveau représente les évènements dans l'espace et dans le temps. Cette étude parue le 26 janvier 2017 dans la revue PLOS Computational Biology, montre que la solution se situe dans les mécanismes prédictifs intrinsèques aux traitements neuronaux de l'information.
Les illusions visuelles sont toujours aussi populaires: de façon quasi magique, elles peuvent faire apparaitre des objets là où on ne les attend pas... Elles sont aussi d'excellentes occasions de questionner les contraintes de notre système perceptif. De nombreuses illusions sont basées sur le mouvement, comme par exemple, l'illusion du flash retardé. Observez un point lumineux qui se déplace sur une trajectoire rectiligne. Si un second point lumineux est flashé très brièvement juste au dessus du premier, le point en mouvement sera toujours perçu en avant du flash alors que leurs deux positions horizontales sont rigoureusement identiques.
Traiter l'information visuelle prend du temps et même si ces délais sont remarquablement brefs, ils ne sont cependant pas négligeables et le système nerveux doit les compenser. Pour un objet qui se déplace de façon prédictible, le réseau neuronal peut inférer sa position la plus probable en tenant compte de ce délai de traitement. Pour le flash, par contre, cette prédiction ne peut s'établir car son apparition est imprévisible. Ainsi, alors que les deux cibles sont alignées sur la rétine au moment du flash, la position de l'objet en mouvement est anticipée par le cerveau afin de compenser le délai de traitement: c'est ce traitement différencié qui provoque l'illusion du flash retardé.
Les chercheurs montrent que cette hypothèse permet également d'expliquer les cas où cette illusion ne fonctionne pas: par exemple si le flash a lieu à la fin de la trajectoire ou si la cible rebrousse chemin de façon imprévue. Dans ce travail, l'innovation majeure consiste à utiliser la précision de l'information dans la dynamique du modèle. Ainsi, la position corrigée de la cible en mouvement est calculée en combinant le flux sensoriel avec la représentation interne de la trajectoire, toutes deux existant sous la forme de distributions de probabilités. Manipuler la trajectoire revient à changer la précision, et donc le poids relatif de ces deux informations lorsqu'elles sont combinées de façon optimale afin de connaître où se trouve un objet au temps présent. Les chercheurs proposent d'appeler parodiction (du grec ancien paros, le présent) cette nouvelle théorie qui joint inférence Bayesienne et prise en compte des délais neuronaux.
Malgré la simplicité de cette solution, la parodiction comporte des éléments qui peuvent sembler contre-intuitifs. En effet, dans ce modèle, le monde physique environnant est considéré comme "caché", c'est-à-dire qu'il ne peut être deviné que par nos sensations et notre expérience. Le rôle de la perception visuelle est alors de délivrer à notre système nerveux central l'information la plus probable malgré les différentes sources de bruit, d'ambiguïté et de délais temporels.
Selon les auteurs de cette publication, le traitement visuel consisterait en une "simulation" du monde visuel projeté au temps présent, et ceci avant même que l'information visuelle ne puisse effectivement venir moduler cette simulation, la confirmant ou l'infirmant. Cette hypothèse qui semble relever de la "science-fiction" est actuellement testée avec des modèles de réseaux neuronaux hiérarchiques plus détaillés et biologiquement plausibles qui devraient permettre de comprendre encore mieux les mystères sous-jacents à notre perception. Les illusions visuelles n'ont vraiment pas fini de nous étonner !
(Figure: Dans l'illusion visuelle du flash retardé, un point en mouvement (le point rouge, en haut) est perçu en avant par rapport à un point flashé (en vert en bas), même si ils sont alignés verticalement à l'instant du flash. Depuis la découverte de cette illusion, les débats ne sont pas clos quant à l'origine du traitement différencié des deux points. Dans cette étude, il est proposé que ce décalage de position soit dû à un mécanisme prédictif dont le but est normalement de compenser les délais de traitement de l'information visuelle. En utilisant l'information sur le mouvement du point, du début de la trajectoire jusqu'au moment du flash, la position du point est donc "anticipée" pour correspondre au plus près à la position réelle au temps présent.)

Auteur: Internet

Info: PLOS Computational Biology review, 26 janvier 2017

[ vision ]

 

Commentaires: 0

procréation médicalement assistée

La PMA est promise à devenir l’une de ces techniques qu’on utilise par défaut, à avoir la destinée de l’automobile : plus les gens l’utilisent, plus elle est rentable pour ceux qui la promeuvent et la produisent (eu égard aux infrastructures et institutions nécessaires à son fonctionnement), mais moins elle est utile, c’est-à-dire efficace pour satisfaire les besoins (la voiture allonge les distances, ralentit les déplacements par rapport au temps investi dans son coût et réduit les possibilités de déplacement aux trajets prévus par l’infrastructure, tout en rendant impossibles ou problématiques les autres modes de déplacements). Une telle technique devient aussi de plus en plus indispensable : on ne peut pas s’en passer parce qu’il n’y a plus d’alternatives instituées.

Dans le film Gattaca (1997), des parents décident de faire un enfant de manière "naturelle", c’est-à-dire sans PMA et sans modification des gènes de l’embryon par thérapie génique ; l’enfant né de cette union est parfaitement normal, cependant que dans la société où il naît, l’immense majorité des gens choisissent de modifier leur enfant pour qu’il soit conforme aux critères socialement en vigueur, autrement dit qu’il soit génétiquement compétitif (d’autant qu’il est un investissement).
L’enfant "naturel" se retrouve rejeté des institutions comme anormal, fut-ce parce qu’il ne peut plus être assuré et parce que sa santé présente un risque statistiquement indéfendable pour un employeur. Même les enfants modifiés se retrouvent hiérarchisés en fonction des modifications apportées, des investissements consentis (donc des revenus) des parents, et, finalement, ces mêmes enfants n’ont pas plus de chance qu’auparavant de s’en tirer mieux, puisque leur avantage génétique est comparatif, donc relatif aux normes et modes en vigueur – la technique est dès lors devenue aussi indispensable (c’est-à-dire, au fond, obligatoire) qu’inutile. Ce film met admirablement en scène le processus en jeu dans ces techniques génétiques et le résultat que les choix individuels peuvent avoir sur le fonctionnement global, structurel d’une société.

Le scénario est le suivant : plus les gens vont (pouvoir) utiliser la PMA, moins elle va être chère et plus elle sera techniquement confortable (son principal défaut actuel étant d’être une procédure très lourde et encore fort souvent inefficace), ce qui entraînera plus de gens à l’utiliser et donc plus d’offres de services dans une véritable gamme de produits dérivés, souvent bien plus intéressantes que le produit de base, et déjà très avancées techniquement, telles que le dépistage pré-préimplantatoire et les thérapies géniques germinales (impossibles in utero), ou encore la possibilité, encore à l’étude, du développement de l’embryon hors de l’utérus.

En amont – et sans parler de ce qui concerne la loi, les mentalités, les représentations sociales et la demande –, son infrastructure nécessite des laboratoire, des techniciens et des institutions hospitalières spécialisées, répondant pour partie à des besoins-prétextes bien réels (la pollution chimique amenant de plus en plus de cas de stérilité ou de déficiences spermatiques), ainsi que du sperme (bientôt peut-être des ovules, puisque l’on est en passe d’utiliser un seul ovule pour créer plusieurs gamètes) et tout le travail de classification et de rentabilité autour de sa récolte et de sa distribution.

En aval, ce dispositif conduira à l’utilisation de larges produits dérivés (thérapies géniques, DPI, voire utérus artificiel, etc.), à des techniques de conservation des spermatozoïdes ou des gamètes, ou encore à l’utilisation des embryons surnuméraires à des fins de recherches (qui concernent souvent les techniques dérivées) ou pour la production de cellules souches. Or, à des degrés divers, tout cela est en ordre de bataille : notamment, en aval, le DPI et, désormais, les thérapies géniques (grâce au développement récent de l’outil "crispr cas 9") sont parfaitement au point, même s’il reste des limites (énormes) dans la connaissance des interactions entre gènes, de leur activation ; et la recherche sur les utérus artificiels – qui a notamment pour prétexte le sauvetage des grands prématurés – avance à grands pas.

La consommation de la PMA est le nœud du processus : son augmentation rendra l’infrastructure en amont rentable et plus efficace, et nourrira les produits dérivés, les rendant, là encore, plus rentables et plus efficaces. De plus, concourant avec la panique hygiéniste à laquelle se réduit actuellement la question environnementale, on fait du désir d’enfant un droit à assouvir (comme, par exemple, on en a fait un de l’accès à l’Internet) et un enjeu d’égalité ou de non-discrimination : on légitime, on adoube la technologie, pendant que tout le reste de la structure technique (la pollution qui rend stérile) et économique (les exigences de production et de consommation qui tendent à faire de la naissance de l’enfant un obstacle imprévisible et difficile à gérer s’il n’est pas planifié) la rendent "utile".

Auteur: Dufoing Frédéric

Info: https://linactuelle.fr/index.php/2020/01/22/pma-veritables-enjeux-frederic-dufoing/

[ enjeux sociétaux ] [ marchandisation du vivant ] [ big pharma ] [ fuite en avant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres parmi nous

Comment reconnaître un non-terrestre

Les conditions ci-après ne sont ni nécessaires ni suffisantes car ces personnes sont capables de mimétisme, elles peuvent véritablement singer notre comportement.

Singer est le mot juste...

1°) Pas de gestes parasites.

La personne contrôle parfaitement son corps et n'a aucun mouvement, ni aucune expression faciale inutiles.

Ceci est maintenu aussi longtemps que nécessaire, et est opéré SANS EFFORT. Le corps biologique qu'ils utilisent n'est pas robotique, ce n'est pas lui qui prime sur les actions, il est majoritairement voire totalement intriqué avec la conscience de la Personne, contrairement à un humain terrestre standard dont on peut estimer ce pourcentage à moins de 1% .

Cette prise en contrôle par la conscience s'exerce sur TOUS les fonctionnements et dans TOUTES les parties de leur enveloppe biologique.

Un des moyens de déceler ce type de maîtrise est d'observer les mouvements des paupières et de ceux des yeux, très différents d'un humain standard, y compris d'un humain terrestre même spirituellement "avancé".

Si l'apparence peut s'avérer similaire, en réalité le corps biologique est intrinsèquement différent.

2°) Une aura et un champ d'énergie différents de l'humain terrestre standard.

Une aura deux à trois fois plus large que celle d'un humain terrestre est un indice. La hauteur également. Ensuite la distribution des fils colorés qui forment l'aura présente des caractéristiques différentes, par exemple beaucoup moins de rouge sombre, de marron, de vert "sale" dans la couronne cérébrale. Les filaments or, bleus vifs, vert pomme, violets vont constituer la trame essentielle de leur habit de lumière, les couleurs sont en général plus belles et les compositions sont nettement plus diversifiées.

(Par parenthèse, ceux qui ne voient pas l'aura imaginent souvent que c'est un patchwork de taches de couleurs, mais ces personnes là n'ont pas la moindre idée de la réalité)

Si vous ne VOYEZ PAS l'aura avec vos yeux, laissez tomber ce que vous pouvez supposer ou "ressentir". Ce que vous "ressentez" alors est le contact epsilon, énergétique, ce qui n'est absolument pas la même chose.

Le champ d'énergie en lui même des personnes non terrestres est parfois différent de celui des humains terrestres.

S'il est VIOLET ou s'il contient une forte proportion de rouge clair mêlé aux différentes nuances de bleu que l'on connaît ordinairement chez l'humain terrestre standard, il y a un bon indice.

Pour valider cet indice, vérifiez qu'il n'y ait pas un contexte orageux ou une présence de forts champ magnétiques, et comparez avec les humains terrestres présents au même endroit. S'ils sont plusieurs à avoir cette caractéristique et s'ils ont l'air d'être ensemble, vous avez une forte probabilité de vous trouver en présence d'un groupe de non-terrestres.

3°) Impact mental, présence.

Si l'humain terrestre à un mental d'un watt, celui d'une personne exogène sera EN GÉNÉRAL très supérieur: 10, 50, 200 watts.

Une des implications de ce mental surpuissant est de contrôler facilement celui d'une espèce inférieure : les humains terrestres.

Par exemple, une personne exogène va induire chez l'humain terrestre standard différentes choses possibles :

Une peur instinctive qui débordera TOUT son mental.

Une occultation de sa conscience pour une durée variable (missing time).

Un sentiment de sécurité voire de béatitude.

Une non-mémorisation transitoire: la personne voit tout et est pleinement consciente DANS L'INSTANT, mais l'empreinte mémorielle, neuronale, est empêchée.

Une seconde après, ce que cette personne a vécu n'a tout simplement jamais existé pour elle, car il y a zéro enregistrement.

LA PRESENCE:

Pour les plus perceptifs d'entre nous, c'est tout notre champ d'énergie et tout notre mental incarné qui détecte une présence étrangère. Nous sommes totalement CERTAINS que la personne qui est là n'est pas originaire de la planète terre.

Cependant, même les plus performants d'entre nous sont des handicapés à 100% par rapport à certains êtres exogènes.

En leur présence, et suite à leur rencontre, vous aurez une juste idée de ce que vous êtes comme humain terrestre : presque rien. Idem pour les différences entre VOUS ET LES AUTRES HUMAINS TERRESTRES: elles sont quasi nulles, dérisoires, ridicules.

Même si vous voyez parfaitement l'aura, le champ énergétique, même si vous êtes "télépathe", même si vous avez accès à la grande Mémoire, avoir été en leur présence vous montre ce que vous êtes réellement comme humain terrestre.

Et vous ne pourrez jamais plus faire le malin, plus jamais vous croire "supérieur" à un autre terrestre.

Ce n'est pas du tout une question d'humilité, mais seulement de lucidité en face de l'évidence.

Auteur: Auburn Marc

Info: Sur son fil FB, 7 novembre 2023

[ science-fiction ] [ ésotérisme ] [ paranormal ] [ divinités ] [ hiérarchie ] [ alien identification ]

 

Commentaires: 0

Ajouté à la BD par miguel

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

cosmologie

Des planètes-océans en phase de résoudre cette énigme sur les exoplanètes 

Pourquoi détecte-t-on si peu d'exoplanètes d'environ deux fois la taille de la Terre ? Sur la base de simulations informatiques, une équipe de l'Institut Max-Planck d'astronomie (MPIA) et des universités de Genève (UNIGE) et Berne (UNIBE) révèle que la migration de planètes subneptuniennes glacées - des planètes-océans - pourrait expliquer cette absence.

( photo :  Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau, qui augmente leur rayon.) 

À mesure que ces planètes se rapprochent de leur étoile centrale, la glace d'eau qui s'évapore forme une atmosphère qui les fait apparaître plus grandes qu'à l'état gelé, bien au-delà d'un double rayon terrestre. Simultanément, des petites planètes rocheuses, plus grandes que la Terre, perdent progressivement une partie de leur enveloppe gazeuse d'origine, ce qui entraîne une diminution importante de leur rayon. Ces résultats ouvrent de nouvelles perspectives pour l'étude des exoplanètes. Ils sont à découvrir dans Nature Astronomy.

En 2017, le télescope spatial Kepler a révélé l'absence de planètes ayant une taille d'environ deux rayons terrestres. Ce "vide" dans la distribution des rayons des planètes est appelé "rift subneptunien". "Son existence est l'une des contraintes observationnelles les plus importantes pour comprendre l'origine et la composition des exoplanètes dont le rayon est compris entre celui de la Terre et celui de Neptune", explique Julia Venturini, boursière Ambizione du FNS, collaboratrice scientifique au Département d'astronomie de l'UNIGE, membre du PRN PlanetS et coauteure de l'étude. "Comme d'autres groupes de recherche, nous avions prédit sur la base de nos calculs, avant même les observations de 2017, qu'un tel rift devait exister", ajoute Christoph Mordasini, professeur à la division de recherche spatiale et sciences planétaires (WP) de l'UNIBE, membre du PRN PlanetS et coauteur de l'étude.

D'où vient le rift subneptunien?

Deux types d'exoplanètes peuplent l'intervalle de rayon entre un et quatre rayons terrestres. D'une part, des planètes rocheuses - des " super-Terres " - plus grandes que la Terre. D'autre part, des planètes gazeuses appelées planètes subneptuniennes (ou mini-Neptunes) dont certaines, les planètes-océans, pourraient abriter une quantité d'eau si importante que leur surface serait recouverte d'un océan glacé de plusieurs dizaines de kilomètres de profondeur. Parmi ces deux types de planètes, les super-Terres et les Subneptuniennes, les astronomes en découvrent très peu avec un rayon de deux fois celui de la Terre.

Pour expliquer l'apparition de ce "rift", le mécanisme le plus souvent suggéré est que les planètes perdent une partie de leur atmosphère d'origine sous l'effet de l'irradiation de l'étoile. "Cette explication suppose que les planètes se forment et restent très proches de leur étoile, où elles seraient sèches, sans eau", précise Julia Venturini. "Cependant, cette explication contredit les modèles de formation, qui montrent que les planètes d'une taille comprise entre deux et quatre rayons terrestres, les planètes-océans, proviennent généralement des régions glacées les plus éloignées du système stellaire".

De nombreux indices suggèrent donc que certaines planètes pourraient s'éloigner de leur lieu de naissance au cours de leur évolution, en migrant vers l'intérieur ou vers l'extérieur de leur système. Cette migration permettrait aux planètes nées dans des régions froides et glacées, comme les planètes-océans, de terminer leur formation sur des orbites très proches de leur étoile.

Planètes-océans errantes

Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau. Ce processus entraîne une augmentation de leur rayon vers des valeurs légèrement plus élevées, au-delà d'un double rayon terrestre. Inversement, les super-Terres, pauvres en eau, "rétrécissent" en perdant les gaz volatils de leur atmosphère d'origine, tels que l'hydrogène et l'hélium, sous l'influence de l'étoile.

Les modèles informatiques combinés de formation et d'évolution indiquent ainsi que la migration des planètes-océans contribue de manière significative au grand nombre de planètes détectées avec un rayon plus grand que deux rayons terrestres alors que l'évaporation atmosphérique des super-Terres contribue au surnombre des planètes plus petites que deux rayons terrestres. Au centre de ces deux populations se trouve le rift subneptunien. "Nous avions déjà obtenu ce résultat en 2020. La nouvelle étude le confirme avec un modèle de formation différent. Cela renforce la conclusion selon laquelle les planètes subneptuniennes sont principalement des mondes d'eau". précise Julia Venturini, qui a aussi dirigé l'étude de 2020.

D'autres travaux à venir

En plus d'expliquer un phénomène jusque-là mystérieux, ces travaux ouvrent de nouvelles perspectives pour l'étude des exoplanètes. "Si nous étendions nos résultats à des régions plus tempérées, où l'eau est liquide, cela pourrait suggérer l'existence de mondes aquatiques dotés d'océans liquides profonds", explique Christoph Mordasini. "De telles planètes pourraient potentiellement abriter la vie et constitueraient des cibles relativement simples pour la recherche de biomarqueurs en raison de leur taille".

Des observations avec des télescopes comme le James Webb Space Telescope ou l'Extremely Large Telescope, en cours de construction, pourraient également être utiles. Elles permettraient de déterminer la composition atmosphériques des planètes en fonction de leur taille, ce qui permettrait de tester les simulations décrites.

Auteur: Internet

Info: https://www.techno-science.net/, Adrien le 17/02/2024, Source: Université de Genève

[ autres mondes ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

amphétamines

Pervitine, la drogue des nazis
En 1939, la pervitine était en libre-service en Allemagne. Tout le monde pouvait l’acheter, sous différentes formes, sous le nom de Pervitin. En cachet, en poudre, mais aussi dans du chocolat. En Allemagne, il existait déjà du chocolat au café, dans une petite boite ronde, mignonne et pratique. On raconte que les soldats de l’armée de l’air en consommaient beaucoup. Et puis, on décida d’y mettre ensuite de la pervitine. C’est le laboratoire Temmler qui produisait la drogue. L’idée était de concurrencer le Coca-cola qui était très présent en Allemagne. Les nazis et les Etats-Unis n'étaient pas super copains pendant la Seconde Guerre mondiale, alors on chercha une alternative bien allemande. Ce n’était pas (encore) considéré comme une drogue mais plutôt comme un énergisant, du coup tout le monde en prenait. La mère de famille fatiguée par ses gamins, l’ouvrier, le poète. Comme le guronsan, le redbull, l’ovomaltine ou le café, la pervitine trouvait des clients.
Les effets de la pervitine sont connus : coupe-faim, sensations d’euphorie et d’invulnérabilité. Ce qu’on aimait bien pendant la guerre. Le problème, c’est qu’on devient rapidement addict à la pervitime…
Une armée forte grâce à la pervitine
"L’idée était de transformer de simples soldats, marins et aviateurs, en pantins capables de performances surhumaines." Otto Rank, médecin militaire
En 1940, l’Allemagne décide de mettre les bouchées doubles. Elle veut conquérir l’Europe, et on peut quand même dire qu’elle s’en sort pas mal. Elle prend la Hollande, la Belgique, le Luxembourg et la France. Les soldats allemands sont comme des robots, ou transcendés. Ils marchent sans interruption jusqu’à 60 km par jour ou par nuit et peuvent passer plus de 72h sans dormir. Et pour cause, l’Allemagne a commandé plusieurs dizaines de millions de comprimés de pervitine avant de mener les grandes offensives (notamment contre la France). Les cachetons ont permis aux troupes allemandes de ne prendre aucun repos durant toute la durée de la campagne des Balkans au printemps 1941, soit 11 jours. Tout de même, ce n’est un secret pour personne, la presse en parle ouvertement. Mais n’oublions pas que l’armée est nombreuse, puissante et bien équipée également. J’veux dire, tu ne peux pas faire une guerre avec deux bolosses et trois junkys… Et la pervitine donne du courage, de la confiance et de l’énergie aux soldats, et aussi aux dirigeants qui travaillent sans relâche.
La drogue des nazis
A partir de 1941, le chef de la santé du Reich, Leonardo Conti estime que la Pervitine, c’est peut être un peu fort pour la ménagère, les adolescents et les hommes vieux. Alors la drogue n’est plus en vente libre, elle est délivrée seulement sous prescription pour les hommes. Sauf que les hommes sont tous (ou presque) à la guerre. Oui, on trouve légitime de continuer à distribuer la pervitine à des fins militaires. Faut dire que ça marche plutôt pas mal… On peut aussi se demander si cette nouvelle législation n’est pas tout simplement pour réserver la production de pervitine aux soldats. Plus ils en ont, plus la guerre avance. Tous les niveaux de l’armée ont droit à une distribution de Pervitine, et ils sont plus de 3 millions de soldats. Ça en fait des pilules.
En 1944, la drogue des soldats prend encore une autre ampleur. Il faut quelque chose de plus puissant, parce que la pervitine n’est plus suffisante. Qu’à cela ne tienne, on crée la D-IX. Il s’agit (accrochez-vous) de 5mg de cocaïne, 3mg de pervitine et 5mg d’Eukodal (antidouleur à base de morphine). Pour tester l’efficacité de ce cocktail de cheval, rien de tel que de faire des essais dans un camp de concentration. Ce sont les prisonniers de Sachsenhausen qui en sont victimes. Ils doivent porter des sacs de 20k sur 90 km sans s’arrêter et à allure plutôt vive.
Les effets pervers de la pervitine
La pervitine n’est pas sans danger. Les effets secondaires sont bien relous : vertiges, sueurs… Et peuvent aussi être graves : dépression, hallucinations. Des témoignages racontent que des soldats sont morts d’insuffisance cardiaque et d’autres se sont suicidés durant des phases psychotiques. Et évidemment, c’est addictif. Très addictif. Certains médecins se sont opposés à la prise systématique de pervitine par l’armée, mais les dirigeants ont refusé. C’est trop efficace et surtout, lorsqu’on prive les hommes de pervitine, ils font des crises de manque et ne sont plus capables de rien… En 1943, Heinrich Boell était sur le front et, avant de devenir un célèbre prix Nobel de littérature, il écrivait des lettres à ses parents en les suppliant de lui envoyer de la pervitine…
9 novembre 1939 : "C’est dur ici, et j’espère que vous comprendrez si je ne peux vous écrire qu’une fois tous les deux ou quatre jours dans les temps à venir. Aujourd’hui, je vous écris surtout pour vous demander du Pervitin (…). Je vous embrasse, Hein." Dans d’autres courriers, il explique que la pervitine le rend heureux pour quelques heures, le tient éveillé et que c’est plus efficace que des litres de café. Mais il lui en faut toujours plus, car lorsque les effets de la drogue nazie disparaissent, les soldats s’effondrent. Ils doivent dormir jusqu’à trois fois plus que la normale. En état de manque et face à la réalité de la guerre, les soldats tombent souvent en dépression et souffrent de graves psychoses…

Auteur: Gasc Marine

Info: décembre 2016

[ WW2 ]

 

Commentaires: 0