Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 86
Temps de recherche: 0.0781s

historique

Dans la bibliothèque personnelle d'Hitler

Le journaliste américain Timothy Ryback a examiné les milliers de volumes du Führer.

Celui qui ordonna les autodafés de livres possédait 16.000 volumes, dont 1.200 ont survécu au pillage pour trouver refuge dans diverses universités américaines. En 1935, sa bibliothèque était si réputée qu'elle fit l'objet d'un reportage dans "The New Yorker". Comme toute bibliothèque, celle de Hitler - il en possédait en fait une dans chaque résidence - était constituée de couches successives.

A) Tout d'abord la bibliothèque de notaire, le fonds patrimonial, celui qui rassure et auquel on ne touche guère et qu'on lit peu. C'est là qu'on trouve "Don Quichotte", "les Voyages de Gulliver", "Robinson Crusoé", "la Case de l'oncle Tom", "Hamlet" ou les romans d'aventures de Karl May.

B) La bibliothèque active, la collection qui alimente le cerveau reptilien, les ouvrages auxquels on revient sans cesse, qu'on annote, qu'on fatigue, qu'on exploite à l'infini.

C) Ajoutons-y une troisième partie constituée des envois, des livres reçus et dédicacés, qui valent surtout par ce qu'ils nous disent des auteurs comme Jünger, qui envoie son "Feu et sang" "au Führer national Adolf Hitler". C'est bien évidemment la deuxième partie qui nous intéresse. C'est là que le crayon s'arrête, souligne, annote. Le simple inventaire des livres de la bibliothèque de Hitler n'aurait pas suffit à faire un livre de 450 pages. Timothy Ryback a donc entrecoupé l'examen du fonds Hitler par un examen de la pensée d'Hitler. Il montre en quoi certaines lectures ont pu alimenter des conversations ou déterminer des décisions. En considérant comme Walter Benjamin qu'un collectionneur est conservé par sa collection, il a cherché à suivre les obsessions et les évolutions d'Hitler :

"J'ai sélectionné les volumes existants qui recelaient un contenu émotionnel ou intellectuel significatif apportant quelque clarté sur le personnage, sur ses pensées dans la solitude et ses futurs discours ou actes publics." Dans ces rayons, on trouve quantité d'auteurs racistes et antisémites : l'industriel Henry Ford, l'émule de Gobineau Hans Günther, l'ultranationaliste Paul Lagarde, le rugueux bavarois Anton Drexler, le pangermaniste Heinrich Class, le professeur de gymnastique Otto Dickel ou le haineux Dietrich Eckart, qui mélangeait "Peer Gynt", l'occultisme et la mythologie germanique.

Tous ces fielleux délirants trouvent refuge dans la bibliothèque de Hitler. On ne sait pas s'il digère tout, mais il lit, crayon à la main. C'est un lecteur boulimique, vorace, fanatique. Un livre chaque nuit. Une lubie chaque jour. Le buste de Schopenhauer sur son bureau, cet autodidacte dévore Clausewitz, les biographies de Jules César et d'Alexandre le Grand, Emmanuel Kant, qu'on retrouve avec Machiavel dans son bunker après son suicide, et se nourrit de Fichte, qui, d'après Ryback, était "le philosophe le plus proche de Hitler et de son mouvement national-socialiste, dans son esprit comme dans sa dynamique". Hitler, qui déteste les intellectuels, surtout quand ils sont juifs, ingurgite également les ouvrages traitant de la spiritualité et de l'occultisme, qui se comptent par douzaines et sont peut-être les témoins les plus bavards des préoccupations profondes de leur propriétaire. "

Dans la biographie d'Heinrich Himmler parue en septembre dernier en Allemagne, Peter Longerich, grande autorité allemande sur l'histoire de "la solution finale", s'est brièvement intéressé aux lectures du grand ordonnateur de la Shoah. A côté des romans de gare, on trouve la médiocre littérature d'extrême droite, les traités racistes de Hans Günther, "le Manuel de la question juive" de Theodor Fritsch et tout un bric-à-brac de livres toc sur la télépathie, l'astrologie et ces sciences tellement parallèles qu'elles ne rencontrent jamais l'intelligence.

Dédicace de Leni Riefenstahl sur le premier volume des oeuvres complètes de Fichte : "A mon cher Führer, avec ma profonde admiration". Nous sommes là au coeur même du personnage d'Adolf Hitler, constate Timothy Ryback. Ce fut moins une distillation des philosophies de Schopenhauer et de Nietzsche qu'une théorie bon marché, puisée dans des livres de poche et des gros livres ésotériques, où l'on distingue la genèse d'un esprit mesquin, calculateur et prêt à cogner plus qu'à discuter.

Que peut-on conclure ? Que la lecture de Cervantès ou de Shakespeare ne préserve de rien, bien sûr. On le savait déjà. La culture n'est pas un rempart contre la barbarie. Elle se situe juste à côté. Il suffit de lire en ne voulant pas comprendre. Chez Hitler, ce ne sont pas les grands auteurs, les lourds classiques qui comptent, mais ce qu'il y a à côté. Le problème, c'est quand Goethe voisine avec des auteurs racistes. Les livres peuvent préserver de l'inhumanité, mais ils ne sont pas une condition suffisante. Tout dépend de l'usage qu'on en fait. Au fond, c'est la limite de l'investigation de Timothy Ryback. Il a cherché à comprendre ce qui se passait dans la tête d'Hitler en examinant a posteriori sa bibliothèque. Imaginons un seul instant qu'on ne sache rien de son propriétaire, que nous possédions juste une liste. On pourrait, en faisant l'inventaire, en déduire que l'homme sait choisir ses classiques, qu'il aime la guerre, qu'il est antisémite, qu'il apprécie l'occultisme, qu'il est curieux, bizarre, dérangé peut-être, mais rien ne nous dirait qu'il mit l'Europe à feu et à sang et qu'il extermina 6 millions de juifs. On peut faire dire beaucoup à une bibliothèque, mais sûrement pas ce que pensait vraiment son propriétaire.

Auteur: Internet

Info: Nouvel Obs. 18 mars 2009

[ bouquins ] [ nazisme ] [ dictateur ] [ littérature ] [ biais de confirmation ] [ biblio-reflet ]

 

Commentaires: 0

manipulation génétique

Des scientifiques de Cambridge créent le premier organisme vivant au monde avec un ADN entièrement redessiné
Les chercheurs créent un génome synthétique, en mouvement avec des bénéfices médicaux potentiels. C'est le premier organisme vivant au monde dont le code ADN est entièrement synthétique et radicalement modifié.

Le microbe fabriqué en laboratoire, une souche de bactéries que l'on trouve normalement dans le sol et dans l'intestin humain, est semblable à ses cousins naturels, mais survit grâce à un ensemble plus restreint d'instructions génétiques.

Cette existence démontre que la vie peut exister avec un code génétique restreint et ouvre la voie à des organismes dont les mécanismes biologiques sont piratés pour fabriquer des médicaments et du matériel utile, ou pour ajouter de nouvelles caractéristiques telles que la résistance aux virus.

En deux ans, des chercheurs du laboratoire de biologie moléculaire de l'Université de Cambridge ont lu et redessiné l'ADN de la bactérie Escherichia coli (E. coli), avant de créer des cellules avec une version synthétique du génome modifié.

Le génome artificiel contient 4m de paires de bases, les unités du code génétique épelées par les lettres G, A, T et C. Imprimé en entier sur des feuilles A4, il compte 970 pages, faisant de ce génome le plus grand que les scientifiques aient jamais édifié, de loin.

"Il n'était pas du tout clair s'il était possible de créer un génome de cette taille et s'il était possible de le modifier autant", a déclaré Jason Chin, un expert en biologie de synthèse qui a dirigé le projet.

L'ADN enroulé à l'intérieur d'une cellule contient les instructions dont il a besoin pour fonctionner. Lorsque la cellule a besoin de plus de protéines pour croître, par exemple, elle lit l'ADN qui code la bonne protéine. Les lettres d'ADN sont lues dans des trios appelés codons, tels que TCG et TCA.

Presque toute vie, de la méduse à l'homme, utilise 64 codons. Mais beaucoup d'entre eux font le même travail. Au total, 61 codons produisent 20 acides aminés naturels, qui peuvent être enfilés ensemble comme des perles sur une ficelle pour construire n'importe quelle protéine de la nature. Trois autres codons sont en effet des panneaux stop : ils indiquent à la cellule lorsque la protéine est prête, comme le point marquant la fin de cette phrase.

L'équipe de Cambridge a entrepris de remodeler le génome d'E. coli en enlevant certains de ses codons superflus. Travaillant sur un ordinateur, les scientifiques ont examiné l'ADN de l'insecte. Chaque fois qu'ils rencontraient TCG, un codon qui fabrique un acide aminé appelé sérine, ils le réécrivaient en AGC, qui fait le même travail. Ils ont remplacé deux autres codons de la même manière.

Plus de 18 000 éditions plus tard, les scientifiques avaient retiré toutes les occurrences des trois codons du génome de l'insecte. Le nouveau code génétique a ensuite été synthétisé chimiquement et, morceau par morceau, ajouté à E. coli où il a remplacé le génome naturel de l'organisme. Le résultat, rapporté dans Nature, est un microbe avec un code ADN complètement synthétique et radicalement modifié. Connu sous le nom de Syn61, ce bug est un peu plus long que la normale, et grandit plus lentement, mais survit néanmoins.

"C'est assez incroyable", a déclaré Chin. Lorsque l'insecte a été créé, peu avant Noël, l'équipe de recherche a fait prendre une photo dans le laboratoire avec une plaque des microbes comme figure centrale dans une reconstitution de la nativité.

De telles formes de vie ainsi conçues pourraient s'avérer utiles, croit Chin. Parce que leur ADN est différent, les virus envahisseurs auront du mal à se propager en elles, ce qui les rendra de fait résistantes aux virus. Ce qui pourrait apporter des avantages. E. coli est déjà utilisé par l'industrie biopharmaceutique pour produire de l'insuline pour le diabète et d'autres composés médicaux contre le cancer, la sclérose en plaques, les crises cardiaques et les maladies oculaires, mais des cycles de production entiers peuvent être gâchés lorsque les cultures bactériennes sont contaminées par des virus ou autres microbes. Mais ce n'est pas tout : dans le cadre de travaux futurs, le code génétique libéré pourrait être réutilisé pour que les cellules produisent des enzymes, des protéines et des médicaments de synthèse.

En 2010, des scientifiques américains ont annoncé la création du premier organisme au monde doté d'un génome synthétique. L'insecte, Mycoplasma mycoides, a un génome plus petit que E. coli - environ 1m de paires de bases - et n'a pas été radicalement remanié. Commentant les derniers travaux, Clyde Hutchison, du groupe de recherche américain, a déclaré : "Cette échelle de remplacement du génome est plus grande que n'importe quel remplacement complet du génome rapporté jusqu'ici."

"Ils ont porté le domaine de la génomique synthétique à un nouveau niveau, non seulement en construisant avec succès le plus grand génome synthétique à ce jour, mais aussi en apportant les plus grands changements de codage à un génome à ce jour", a déclaré Tom Ellis, un chercheur en biologie synthétique à Imperial College de Londres.

Mais il se peut que les données ne durent pas longtemps. Ellis et d'autres construisent un génome synthétique pour la levure de boulangerie, tandis que les scientifiques de Harvard font des génomes bactériens avec plus de modifications au codage. Il n'est pas surprenant que l'E. coli redessiné ne pousse pas aussi bien que les souches naturelles, a ajouté Ellis. "Si quelque chose est surprenant, c'est qu'il grandisse après tant de changements," dit-il.

Auteur: Internet

Info: https://www.theguardian.com, Ian Sample rédacteur scientifique Wed 15 mai 2019 18.00 BST

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Sciences-Po vient d’interdire l’usage de ChatGPT, l’application qui permet à tous les empêchés de la plume ou du clavier de produire en un temps record des textes bourrés d’idées reçues — de crainte sans doute, que l’on ne distingue pas les produits de l’Intelligence Artificielle et ceux de nos futurs énarques.

David Cayla, un économiste qui ne dit pas que des âneries, s’est fendu d’un tweet ravageur dès qu’il a appris que Sciences-Po avait décidé d’interdire à ses élèves l’usage de ChatGPT. "La stricte interdiction de #ChatGPT à Sciences Po révèle que cette école se sent menacée par une IA qui est capable de construire de belles phrases à partir de tout sujet, sans comprendre de quoi elle parle, et en faisant régulièrement des erreurs grossières." Et toc.

Rappel des faits pour ceux qui sortent à peine de leur grotte d’hibernation. Chloé Woitier, journaliste Tech au Figaro, vous explique en direct live ce qu’est cette application : la capacité à générer du texte — sans grand souci d’originalité et avec une capacité réelle d’erreurs grandioses — à partir de cohortes de mots et de phrases mis en mémoire. En fait, il s’agit de ce que l’on appelle en rhétorique un texte-centon, fabriqué à partir de collages de citations. Vous en avez un joli exemple ici.

Une chance pour les tire-au-flanc

Rien de nouveau — si ce n’est la capacité à produire un résultat de façon quasi instantanée. Voilà qui nous arrange bien, se disent déjà les élèves peu besogneux qui s’aperçoivent à 7 heures du matin qu’ils ont une dissertation-maison à rendre à 10 heures. En gros, le résultat vaut une petite moyenne.

Laurence Plazanet, professeur de littérature à l’université de Clermont-Auvergne, note que "nourri de la vaste littérature disponible sur la toile, littérature qu’il remâche suivant des algorithmes statistiques et probabilistes aptes à se reprogrammer eux-mêmes, dit-on, selon des procédures que cessent de maîtriser leurs programmeurs initiaux, ChatGPT patauge dans le prêt-à-penser." Et d’ajouter : "Pas un instant ce robot éclairé ne pense."

Intelligence artificielle, un oxymore

Comprenons bien que ces deux mots, "intelligence artificielle", sont ce que l’on appelle en stylistique un oxymore — une contradiction en soi. Comme "obscure clarté", "nuit blanche", "homme fidèle" ou "femme intelligente"…  

(C’étaient les exemples que je citais en cours pour expliquer l’oxymore. Protestations immédiates des uns et des autres, comme vous l’imaginez, mais du coup, par l’exemple provocateur, la notion s’ancrait dans les mémoires.)

Ce qu’il y a d’intelligent dans la machine y a été mis par des hommes. Lorsqu’un ordinateur vous bat aux échecs, c’est que vous êtes moins fort que la cohorte de grands maîtres qui l’ont programmé — ce qui est assez logique.

Que Sciences-Pipeau s’en émeuve est en revanche très inquiétant — et très drôle : les grandes intelligences qui nourriront les ministères et parviendront peut-être un jour au sommet (pensez, François Hollande, Ségolène Royal, Dominique de Villepin appartenaient à la même promo de l’ENA) se sentent menacées par un robot qui mécaniquement débite des platitudes. "Faut vous dire, Monsieur, que chez ces gens-là, on n’pense pas, Monsieur, on n’pense pas", chantait Brel. La machine à débiter des lieux communs, dont Flaubert s’est si ardemment moqué dans le discours du sous-préfet (c’est dans Madame Bovary) vous est désormais accessible.

Des inquiétudes injustifiées

ChatGPT n’est pas capable de rédiger une dissertation crédible. Un enseignant un peu rodé repère immédiatement les copiés-collés que les étudiants pressés vont cueillir sur le Net (c’est simple, il n’y a soudain plus de fautes d’orthographe), et ne met pas cinq secondes pour en identifier la source.  

Il est encore moins capable de rédiger une thèse — le plus simple étant d’aller copier une thèse déjà écrite : en 2013 déjà une ministre allemande a été déchue de son doctorat (rendu 33 ans auparavant) parce qu’il avait été pompé sur un travail antérieur. Deux ans auparavant c’était le ministre de la Défense, Karl-Theodor zu Guttenberg, qui s’était vu dénoncé pour un plagiat similaire dans sa thèse de Droit. 

Et ChatGPT ne saurait pas non plus écrire un roman original. Ne vous avisez pas de le lui demander : au pire, il vous arrivera ce qui est arrivé jadis à Thierry Ardisson, dont le nègre indélicat est allé chercher un récit des années 1930 pour Pondichéry, un roman publié en 1994. Et les héritiers de l’auteur véritable ont porté plainte. Ardisson m’avait confié dans les coulisses d’une émission qu’il avait été "con" de ne pas vérifier. Mais en 1994 c’était moins facile qu’aujourd’hui, où tout se sait à la vitesse de la Toile.

La rumeur de la rue Saint-Guillaume

Que la rumeur d’un robot doué d’une vraie intelligence ait si vite enthousiasmé les commentateurs et effrayé les enseignants témoigne de notre candeur et de notre incapacité à comprendre ce qui fait l’originalité d’un travail. Ou, plus inquiétant, de notre aspiration à la paresse.

Rassurons-nous : HAL 9000 (ou Carl 500, dans la version française, pour Cerveau analytique de Recherche et de Liaison), l’ordinateur rebelle de 2001 l’Odyssée de l’espace, n’est pas pour demain.

Une preuve ? J’ai demandé à ChapGPT de répondre à cette question simple : l’IA va-t-elle remplacer l’intelligence humaine ? Et le robot m’a répondu : 

"Non, l’IA ne remplacera pas complètement l’intelligence humaine. L’IA est un outil qui peut être utilisé pour augmenter les capacités humaines et faciliter certaines tâches, mais elle ne peut pas remplacer la conscience, la créativité et l’empathie qui sont uniques à l’intelligence humaine." Plus plat, tu meurs. On dirait de l’Annie Ernaux. 

Et le fait est que si vous supprimez de votre conversation "la conscience, la créativité et l’empathie", vous êtes bon pour être un parfait étudiant de Sciences-Po, un parfait énarque en devenir, et très probablement un excellent président de la République. 

Auteur: Brighelli Jean-Paul

Info: https://www.causeur.fr, 31 janv 2023. ChatGPT, la Grande Peur de Sciences-Pipeau

[ vacheries ] [ bêtise inconstitutionnelle ] [ élites formatées ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

décadence

FORT MCMURRAY, LE TROU DU CUL DU MONDE.
Avant de lire ces quelques lignes, il faut mettre de côté la sensibilité et la compassion pour les gens qui ont perdu leur maison. Sans coeur, aussi immonde que ça puisse paraître, il faut faire abstraction de ces vies chamboulées. Il y a parfois des événements ironiques dans la vie. Des situations qui nous permettent de penser autrement, en perspective, à quelque chose de plus grand.
FortMcMurray : Un court séjour chez Maurice
J'ai déménagé à Fort McMurray en 2009. Comme plusieurs autres canadiens, je cherchais un moyen facile de faire de l'argent. Un salaire de 100,000$ par année, c'était attrayant pour un jeune de 19 ans tout juste gradué du Cégep. "Je vais placer de l'argent de côté, payer mes dettes d'études, et je reviendrai au Québec avec un gros char". C'est la même pensée qui traverse l'esprit de milliers de jeunes canadiens à chaque année. Il n'en fallait pas plus pour nous attirer! Mon ami et moi étions déjà en route pour le trou du cul du monde: Fort McMurray.
Jamais auparavant je n'avais vu autant de pick-ups! Que ce soit dans les rues, les entrées de maisons ou le stationnement du Walmart, il y en avait partout. À Fort McMurray, il y a plus de concessionnaires que d'organismes communautaires, de bibliothèques et d'écoles mis ensemble.
On se le répétait, bientôt, nous allions être riches! Quelques nuits difficiles à dormir dans notre vieille caravan, le temps de trouver un emploi... et le tour est joué!
Quelques jours plus tard, nous avions trouvé une chambre à louer chez une famille de Québécois. Le visage de Fort McMurray, c'était cette famille de la Beauce. Ils avaient déclaré faillite, ils étaient sans ressources et sans moyens. Pour eux, avec leurs deux adolescents, "Le Mac" c'était leur dernier espoir.
Ces Beaucerons n'avaient aucune éducation, toute la famille était obèse, à chaque soir ils commandaient du poulet frit ou de la pizza. Les caisses de Coca-Cola et de Molson Canadian faisaient partie intégrante de la décoration. Bref, une famille colonisée, des truckers de Fort.
Maurice nous demandait 1000$ pour une petite chambre avec deux lits simples. 1 pied séparait les deux lits, on s’entendait péter. Ça allait faire la job! Une maison fièrement achetée 500,000$ par les propriétaires, payé par les chambreurs, nous étions 8! Maurice nous l'avait bien dit: "Le Québec c'est de la marde, jamais j'aurais pu m'acheter une grosse cabane là-bas".
Même après une faillite, c'est très facile de trouver un prêteur dans le Mac, surtout avec un revenu de 100,000$ pour chauffer un camion ou ramasser les ordures.
Maurice allait faire fortune, il était en train de construire 4 nouvelles petites chambres au sous-sol pour les prochains arrivants, il planifiait s'acheter une deuxième maison. Maurice avait des rêves.
Ça ne faisait même pas un mois que nous étions là qu'il augmenta notre loyer à 1,200$ par mois. Si l'on refusait, nous devions quitter le lendemain matin. C'est ce qu'on a fait, salut mon cher Maurice!
À Fort McMurray, il fait toujours gris, les gens boivent beaucoup d'alcool. Cette ville connaît un grave problème de prostitution, de jeu et de drogue. Pour la plupart, des gens peu éduqués qui veulent s'enrichir rapidement, c'est un mélange toxique pour n'importe quelle société. En investissant dans cette ville éloignée, le Canada participe au génocide intellectuel d'une nation.
Comme au Far West, les hommes se promènent en pick up neuf, le menton bien haut, c'est ça la vie. Il y a souvent des bagarres, les gens consomment beaucoup de drogue pour oublier l'ennui, beaucoup de drogue.
Lorsque j'ai commencé à travailler comme agent de sécurité sur une mine, tout le monde avait un seul but: faire fortune sans études en se renseignant le moins possible sur le monde autour. La sélection naturelle renversée.
Fort McMurray, c'est le paradis de l'individualisme et de la bêtise. Jean Chrétien nous l'a dit, c'est ça le plus meilleur pays au monde.
Je me sentais comme dans un livre de Orwell, une société sans culture, sans personnalité, un objectif commun: dépenser son argent dans les bars, les voitures et sur les tables de Blackjack du Boomtown.
C'est là-bas que j'ai rencontré Ashley, une trentenaire de l'Ontario venue habiter à Fort McMurray pour payer ses dettes exubérantes. Elle était là depuis seulement 4 mois, sa première décision fut d'emprunter 50,000$ pour s'acheter une Mustang de l'année. Flambette! Comment vas-tu payer tes dettes Ashley? "Pas grave, avec mon gros salaire, je vais finir par tout payer".
Ces rencontres et constatations furent des événements catalyseurs pour moi. Quant à ma perception de l'économie et de la société canadienne. Je ne me suis jamais senti autant différent, autant Québécois.
Dernièrement, j'ai entendu des politiciens dire à quel point nous devrions être fiers de Fort McMurray. Non, il y a aucune raison d'être fier de Fort McMurray. Il m'est arrivé souvent de penser que cet endroit allait exploser, être abandonné ou même bruler avec tout ce pétrole qui lui sortait par les oreilles.
Non seulement, c'est une tragédie environnementale, mais c'est aussi un poison pour le progrès humain. Lorsqu'on investit dans le pétrole, on détruit des milliers d'âmes créatives. Au lieu d'étudier et participer au progrès, des milliers de jeunes vont mourir là-bas; pour quelques dollars additionnels. Le coût de renonciation pour le Canada est énorme. Ça prend de l'imagination et du cran pour faire autrement.
Nous l'aurions peut-être notre grande innovation, notre grand succès commercial, notre voiture électrique, si ce n'était pas du pétrole. Nous l'aurions peut-être notre indépendance énergétique, notre belle utopie scandinave.
Lorsqu'on fait le choix facile du pétrole, au nom de la productivité, au nom du développement économique, on enterre des futurs scientifiques, on intensifie notre déclin. L'ère des hydrocarbures est révolue au moment où nous devrions investir dans l'économie du 21ème siècle.
Après ce feu, pourquoi reconstruire? Pourquoi réinvestir des milliards de dollars à Fort McMurray. Selon plusieurs études dont celle du National Energy Board, les ressources pétrolières seront totalement épuisées en 2050 et le baril de pétrole restera sous la barre de 100$ jusqu'en 2040. C'est un pari trop risqué.
Fort McMurray n'amène aucune innovation, aucun progrès social, aucune matière grise. Fort McMurray enrichit les concessionnaires et les compagnies de construction, tout cet argent est jeté à la poubelle.
Ce feu remet les choses en perspectives. Je vais vous le dire franchement, Fort McMurray, c'est le trou du cul du monde.
Reconstruire, pourquoi?
Aussi cru que ça puisse paraître, je ne reconstruirais rien, je laisserais le courant naturel des choses faire son oeuvre, le feu de Fort McMurray, c'est l'opportunité de nous sortir des hydrocarbures. Pourquoi dépenser plusieurs milliards, encore, dans une industrie destinée à mourir? Pour stimuler la productivité et le PIB par la dette? Pour créer des emplois dans la construction? Pour épuiser une ressource de moins en moins rentable dans un endroit qui n'existera plus dans 40 ans?
Dans un monde idéal ce serait le moment de recommencer sur de nouvelles bases, dans un monde meilleur il serait temps de relocaliser et former ces gens dans l'économie du 21 ème siècle. Ce feu est une grande ironie.
Monsieur Trudeau, vous avez tout un défi devant vous. Faire le choix facile de l'économie du pétrole et perpétuer cette tradition toxique. Ou alors faire le choix du progrès humain. La balle est dans votre camp.
(Ecrit quelques heures plus tard) Ne méprenez pas mes propos, je suis triste pour les gens éprouvés dans cette tragédie, mais je suis de ceux qui croit que ce malheur en cache un autre bien plus important.

Auteur: Hotte Jean-François

Info: 8 MAI 2016, suite à un gigantesque incendie qui a détruit une partie de cette ville

[ fric ] [ abrutissement ]

 

Commentaires: 0

chaînon manquant

L'HUMANITÉ AURAIT ELLE FRÔLÉ L'EXTINCTION ?

"1 280 individus seulement : l'humanité a failli disparaître il y a près d'un million d'années

Une étude parue dans Science révèle que population humaine pourrait s'être maintenue à environ 1 300 individus pendant une centaine de milliers d'années. Une "presque extinction" qui pourrait avoir joué un rôle majeur dans l'évolution des hommes modernes et de parents disparus, les Néandertaliens et Dénisoviens.

Il y a près d’un million d’années, un événement dévastateur a presque anéanti nos ancêtres. Les données génomiques de 3 154 humains modernes suggèrent qu'à ce moment, la population aurait été réduite d’environ 100 000 à seulement 1 280 individus reproducteurs — soit un déclin démographique d'ampleur (98,7 %) sur une durée de 117 000 ans, qui aurait pu conduire l’humanité à l’extinction.

Le fait que vous puissiez lire cet article, et que la population mondiale atteigne aujourd'hui les plus de 8 milliards (chiffres de novembre 2022), montre bien que cela n'a pas été le cas. Mais les résultats de cette récente étude, publiée dans la revue Science le 31 août 2023, permettraient d'expliquer l'écart déjà observé entre les archives fossiles humaines d'Afrique et d'Eurasie durant le Pléistocène.

La génétique pour comprendre l'évolution de la lignée humaine

Les datations récentes situent les plus anciens Homo sapiens il y a environ 300 000 ans, en Afrique. Seulement, avec si peu de fossiles datant de cette époque parvenus jusqu'à nous, la manière dont la lignée humaine a évolué avant l'émergence de l'espèce reste plutôt incertaine.

Pour en savoir plus sur cette très secrète période, proche de l’évolution de l’Homme moderne, une équipe a étudié le génome de plus de 3 150 humains actuels. Des individus issus de dix populations africaines et de quarante populations non africaines, plus précisément.

Elle a pour cela développé un nouvel outil analytique, le "processus de coalescence rapide en temps infinitésimal" (FitCoal). Grossièrement, le FitCoal leur a permis, en examinant la diversité des séquences génétiques observées chez les descendants et comment elles ont divergé au fil du temps, de déduire la taille des groupes composant leurs lointains ancêtres.

Leurs résultats ont ainsi révélé un "goulot d'étranglement démographique" important il y a environ 930 000 à 813 000 ans, c'est-à-dire un épisode de réduction sévère de la population — suivi d'une nouvelle expansion démographique, d'où les termes de "goulot d'étranglement".

Un risque élevé d'extinction lié aux changements climatiques ?

Dans l'étude de l'évolution d'une espèce, les goulots d'étranglement démographiques liés à une guerre, une famine ou encore une crise climatique, ne sont pas rares. La baisse de la diversité génétique qui en résulte peut même être retracée jusqu’à la descendance des survivants.

C’est ainsi que les scientifiques ont pu en déduire qu'un tel phénomène s'est produit plus récemment, il y a environ 7 000 ans, dans la population humaine de l’hémisphère nord.

Toutefois, le cas du goulot d'étranglement bien plus ancien semble avoir été d'une gravité particulièrement exceptionnelle, puisque le groupe a alors perdu 65,85 % de sa diversité génétique et environ 98,7 % de sa population reproductrice, selon les données. Pendant plus ou moins 117 000 ans, cette dernière aurait été limitée à environ 1 280 individus.

Nos ancêtres ont connu un goulot d'étranglement démographique si grave pendant très longtemps qu'ils ont été confrontés à un risque élevé d'extinction. — Wangjie Hu, coauteur principal de l'étude de l'École de médecine du Mont Sinaï à New York (États-Unis) interrogé par LiveScience.

S'il est aujourd'hui difficile d'établir avec certitude les différents facteurs qui ont mené à ce goulot d'étranglement, un événement majeur semble coïncider dans les datations : la transition du milieu du Pléistocène (il y a entre 1,25 et 0,7 million d’années), où la Terre s'est vue sévèrement refroidie en raison de l'allongement des cycles glaciaires et interglaciaires.

Les glaciers ont émergé, les températures des océans ont diminué… et de longues sécheresses ont touché l'Afrique et en Eurasie. Pour les populations humaines luttant alors pour leur survie, ces conditions plus que défavorables auraient pu entraîner famines et conflits. La disparition d'autres espèces, sources de nourritures, pourrait aussi avoir contribué à leur déclin.

Encore une fois, les conséquences de ces bouleversements climatiques ne peuvent être constatées, tant les fossiles et les artefacts humains de cette période sont relativement rares. Peut-être, parce que la population était si faible durant cette fameuse période.

Cette donnée permet en tout cas d'enfin expliquer chronologiquement "l'écart entre les archives fossiles africaines et eurasiennes [...] au début de l'âge de pierre". "[Cet écart] coïncide avec la période proposée de perte significative de preuves fossiles", explique en effet l'anthropologue Giorgio Manzi de l'université Sapienza de Rome (Italie), coauteur principal de l'étude dans un communiqué.

Un changement de génome et une divergence des hominidés

Ce goulot d'étranglement pourrait aussi avoir contribué à une caractéristique du génome humain : la fusion de deux chromosomes en un seul, le chromosome 2. Les autres hominidés encore vivants, dont les grands singes, en possèdent en effet 24 paires, nous, 23. Cet événement de spéciation semble d'ailleurs avoir contribué à ce que les humains prennent une voie évolutive différente. Expliquons.

Des recherches ont déjà suggéré que le dernier ancêtre commun, partagé par les Hommes modernes (Homo Sapiens), les Néandertaliens (Homo neanderthalensis) et les Dénisoviens (Homo denisovensis), vivait il y a environ 765 000 à 550 000 ans… soit à peu en même temps que le phénomène décrit.

Si dernier ancêtre commun a vécu pendant ou peu après le goulot d'étranglement, celui-ci aurait pu jouer un rôle dans la division des groupes d'hominidés, suggèrent les chercheurs : la population pourrait s'être séparée en de petits groupes survivants, qui, au fil du temps, auraient développé des caractéristiques suffisamment importantes pour que les différents groupes deviennent distincts — avec d'une part l'Homme moderne, d'autre part l'Homme de Néandertal et l'Homme de Denisova.

Or, c'est aussi il y a environ 900 000 à 740 000 ans, que les deux chromosomes anciens semblent avoir convergé. Et puisque tout cela coïncide, les nouvelles découvertes suggèrent finalement que la quasi-éradication de l'homme pourrait avoir un lien avec ce changement majeur dans le génome humain.

En outre, "puisque les Néandertaliens et les Dénisoviens partagent cette fusion avec nous, elle a dû se produire avant que nos lignées ne se séparent", suggère à nos confrères Chris Stringer, paléoanthropologue au Musée d'histoire naturelle de Londres (Angleterre) qui n'a pas participé à l'étude.

"Brosser un tableau complet de l'évolution humaine"

Si la lutte pour la survie, il y a environ 930 000 à 813 000 ans, semble avoir joué un rôle dans la formation des chromosomes de l'Homme moderne, l'inverse est-il vrai ?

L'équipe suggère plutôt qu'un climat plus hospitalier il y a environ 813 000 ans, ainsi que la maîtrise du feu, sont des facteurs cruciaux qui pourraient avoir permis à nos ancêtres de rebondir. De plus amples recherches seront nécessaires pour y voir plus clair, ainsi que pour établir si la sélection naturelle qui a eu lieu durant cette période a accéléré l'évolution du cerveau humain.

Ces résultats ne sont qu'un début. — Haipeng Li, généticien théorique des populations et biologiste informatique de l'Académie chinoise des sciences, coauteur principal dans le communiqué.

Les objectifs futurs de ces connaissances visent à brosser un tableau plus complet de l'évolution humaine au cours de cette période de transition entre le Pléistocène précoce et le Pléistocène moyen, ce qui permettra à son tour de continuer à percer le mystère de l'ascendance et de l'évolution de l'homme primitif.

Auteur: Internet

Info: https://www.science.org, 31 aout 2023, trad et résumé Mathilde Ragot

[ paléolithique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

émergence du regard

Les yeux des mollusques révèlent à quel point l'évolution future dépend du passé

Les systèmes visuels d'un groupe obscur de mollusques fournissent un exemple naturel rare d'évolution dépendante du chemin, dans lequel une bifurcation critique dans le passé des créatures a déterminé leur avenir évolutif.

(photo : Les systèmes visuels des chitons, un type de mollusque marin, représentent un rare exemple réel d’évolution dépendante du chemin – où l’histoire d’une lignée façonne irrévocablement sa trajectoire future.)

Les biologistes se sont souvent demandé ce qui se passerait s'ils pouvaient rembobiner la bande de l'histoire de la vie et laisser l'évolution se dérouler à nouveau. Les lignées d’organismes évolueraient-elles de manière radicalement différente si on leur en donnait la possibilité ? Ou auraient-ils tendance à développer les mêmes types d’yeux, d’ailes et d’autres traits adaptatifs parce que leurs histoires évolutives précédentes les avaient déjà envoyés sur certaines voies de développement ?

Un nouvel article publié aujourd'hui dans Science décrit un cas test rare et important pour cette question, qui est fondamentale pour comprendre comment l'évolution et le développement interagissent. Une équipe de chercheurs de l'Université de Californie à Santa Barbara l'a découvert alors qu'elle étudiait l'évolution de la vision chez un groupe obscur de mollusques appelés chitons. Dans ce groupe d’animaux, les chercheurs ont découvert que deux types d’yeux – les ocelles et les yeux en coquille – ont chacun évolué deux fois indépendamment. Une lignée donnée peut évoluer vers un type d’œil ou vers l’autre, mais jamais les deux.

Curieusement, le type d’œil d’une lignée était déterminé par une caractéristique plus ancienne apparemment sans rapport : le nombre de fentes dans l’armure du chiton. Cela représente un exemple concret d' " évolution dépendante du chemin ", dans lequel l'histoire d'une lignée façonne irrévocablement sa trajectoire évolutive future. Les moments critiques dans une lignée agissent comme des portes à sens unique, ouvrant certaines possibilités tout en fermant définitivement d’autres options.

"C'est l'un des premiers cas où nous avons pu observer une évolution dépendante du cheminement", a déclaré Rebecca Varney , chercheuse postdoctorale au laboratoire de Todd Oakley à l'UCSB et auteur principal du nouvel article. Bien qu’une évolution dépendante du chemin ait été observée chez certaines bactéries cultivées en laboratoire, " montrer cela dans un système naturel était une chose vraiment excitante ".

"Il y a toujours un impact de l'histoire sur l'avenir d'un trait particulier", a déclaré Lauren Sumner-Rooney , qui étudie les systèmes visuels des invertébrés à l'Institut Leibniz pour les sciences de l'évolution et de la biodiversité et n'a pas participé à la nouvelle étude. "Ce qui est particulièrement intéressant et passionnant dans cet exemple, c'est que les auteurs semblent avoir identifié le moment où se produit cette division."

Pour cette raison, les chitons "sont susceptibles d'entrer dans les futurs manuels sur l'évolution" comme exemple d'évolution dépendante du chemin, a déclaré Dan-Eric Nilsson, un écologiste visuel à l'Université de Lund en Suède qui n'a pas participé à la recherche.

Les chitons, petits mollusques qui vivent sur les roches intertidales et dans les profondeurs marines, ressemblent à de petits réservoirs protégés par huit plaques de coquille – un plan corporel resté relativement stable pendant environ 300 millions d'années. Loin d'être des armures inertes, ces genres de plaques d'obus sont fortement décorées d'organes sensoriels qui permettent aux chitons de détecter d'éventuelles menaces.

(photo : Chiton tuberculatus , qui vit sur les côtes rocheuses des Caraïbes, utilise de nombreux ocelles pour obtenir une vision spatiale. Les chitons ont développé des ocelles à deux reprises au cours de leur histoire évolutive.)

Les organes sensoriels sont de trois types. Tous les chitons ont des esthètes (aesthetes : récepteur tout-en-un extrêmement synesthésique qui permet de détecter la lumière ainsi que les signaux chimiques et mécaniques de l'environnement.)

Certains chitons possèdent également un système visuel approprié : soit des milliers d'ocelles sensibles à la lumière, soit des centaines d'yeux en forme de coquille plus complexes, dotés d'un cristallin et d'une rétine permettant de capturer des images grossières. Les animaux dotés d'yeux en forme de coquille peuvent détecter les prédateurs imminents, en réponse à quoi ils se cramponnent fermement au rocher.

Pour comprendre comment cette variété d’yeux de chiton a évolué, une équipe de chercheurs dirigée par Varney a examiné les relations entre des centaines d’espèces de chiton. Ils ont utilisé une technique appelée capture d'exome pour séquencer des sections stratégiques d'ADN provenant d'anciens spécimens de la collection de Doug Eernisse , spécialiste du chiton à la California State University, Fullerton. Au total, ils ont séquencé l’ADN de plus de 100 espèces soigneusement sélectionnées pour représenter toute l’étendue de la diversité des chitons, assemblant ainsi la phylogénie (ou l’arbre des relations évolutives) la plus complète à ce jour pour les chitons.

Ensuite, les chercheurs ont cartographié les différents types d’yeux sur la phylogénie. Les chercheurs ont observé que la première étape avant l’évolution des yeux en coquille ou des ocelles était une augmentation de la densité des esthètes sur la coquille. Ce n’est qu’alors que des yeux plus complexes pourraient apparaître. Les taches oculaires et les yeux en coquille ont chacun évolué à deux reprises au cours de la phylogénie, ce qui représente deux instances distinctes d'évolution convergente.

Indépendamment, les chitons ont fait évoluer les yeux - et, à travers eux, ce que nous pensons être probablement quelque chose comme la vision spatiale - à quatre reprises, ce qui est vraiment impressionnant", a déclaré M. Varney. 

" Cette évolution s'est faite incroyablement rapidement ". Les chercheurs ont estimé que chez le genre néotropical Chiton, par exemple, les yeux ont évolué en l'espace de 7 millions d'années seulement, soit un clin d'œil à l'échelle de l'évolution.

Les résultats ont surpris les chercheurs. "Je pensais qu'il s'agissait d'une évolution progressive de la complexité, passant des esthètes à un système d'ocelles et à des yeux en forme de coquille - une progression très satisfaisante", a déclaré Dan Speiser , écologiste visuel à l'Université de Caroline du Sud et co-auteur d'un article. auteur. " Au lieu de cela, il existe plusieurs chemins vers la vision."

Mais pourquoi certaines lignées ont-elles développé des yeux en coquille plutôt que des ocelles ? Au cours d'un trajet de six heures en voiture depuis une conférence à Phoenix jusqu'à Santa Barbara, Varney et Oakley ont commencé à développer l'hypothèse selon laquelle le nombre de fentes dans la coquille d'un chiton pourrait être la clé de l'évolution de la vision du chiton.

Toutes les structures sensibles à la lumière sur la coquille du chiton, a expliqué Varney, sont attachées à des nerfs qui passent à travers les fentes de la coquille pour se connecter aux nerfs principaux du corps. Les fentes fonctionnent comme des organisateurs de câbles, regroupant les neurones sensoriels. Plus il y a de fentes plus il y les ouvertures par lesquelles les nerfs peuvent passer.

Il se trouve que le nombre de fentes est une information standard qui est enregistrée chaque fois que quelqu'un décrit une nouvelle espèce de chiton. " L'information était disponible, mais sans le contexte d'une phylogénie sur laquelle la cartographier, elle n'avait aucune signification ", a déclaré Varney. " Alors je suis allé voir ça et j'ai commencé à voir ce modèle."

Varney a constaté qu'à deux reprises, indépendamment, des lignées comportant 14 fentes ou plus dans la plaque céphalique ont développé des ocelles. Et deux fois, indépendamment, des lignées comportant 10 fentes ou moins ont développé des yeux en coquille. On se rend ainsi compte que le nombre de fentes verrouillées et le type d'yeux pouvaient évoluer : un chiton avec des milliers d'ocelles a besoin de plus de fentes, tandis qu'un chiton avec des centaines d'yeux en coquille en a besoin de moins. En bref, le nombre de fentes dans la  coquille déterminait l’évolution du système visuel des créatures.

Les résultats conduisent vers une nouvelle série de questions. Les chercheurs étudient activement pourquoi le nombre de fentes limite le type d'œil dans son évolution. Pour répondre à cette question, il faudra travailler à élucider les circuits des nerfs optiques et la manière dont ils traitent les signaux provenant de centaines ou de milliers d’yeux.

Alternativement, la relation entre le type d’œil et le nombre de fentes pourrait être déterminée non pas par les besoins de vision mais par la manière dont les plaques se développent et se développent dans différentes lignées, a suggéré Sumner-Rooney. Les plaques de coquille se développent du centre vers l'extérieur par accrétion, et des yeux sont ajoutés tout au long de la vie du chiton à mesure que le bord se développe. " Les yeux les plus anciens sont ceux au centre de l'animal, et les plus récents sont ajoutés sur les bords. ", a déclaré Sumner-Rooney. En tant que chiton, " vous pourriez commencer votre vie avec 10 yeux et finir votre vie avec 200 ".

Par conséquent, le bord de croissance d'une plaque de carapace doit laisser des trous pour les yeux nouceaux – de nombreux petits trous pour les ocelles, ou moins de trous plus grands pour les yeux de la coquille. Des trous trop nombreux ou trop grands pourraient affaiblir une coque jusqu'à son point de rupture, de sorte que des facteurs structurels pourraient limiter les possibilités pour cest yeux.

Il reste beaucoup à découvrir sur la façon dont les chitons voient le monde, mais en attendant, leurs yeux sont prêts à devenir le nouvel exemple préféré des biologistes d'évolution dépendante du chemin, a déclaré Nilsson. "Les exemples de dépendance au chemin qui peuvent être vraiment bien démontrés, comme dans ce cas, sont rares - même si le phénomène n'est pas seulement courant, c'est la manière standard dont les choses se produisent."



 



Auteur: Internet

Info: Résumé par Gemini

[ évolution qui dépend du chemin ] [ biologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

surnaturel

Les scientifiques ont-ils finalement démontré des phénomènes psychiques ? De nouvelles études montrent que les gens peuvent prévoir des événements futurs.
Dans "au travers du miroir" de Lewis Carroll, la reine blanche dit a Alice que dans son pays, la mémoire travaille dans deux sens. Non seulement la reine peut se rappeler de choses du passé, mais elle se rappelle également de "choses qui se produiront la semaine d'après." Alice essaye de discuter avec la reine, énonçant : "je suis sûr que la mienne ne va que dans un sens... je ne peut me rappeler de choses avant qu'elles ne se produisent." La reine répond, "c'est une sorte de faiblesse, si ta mémoire ne fonctionne qu'en arrière."
Combien nos vies seraient meilleures si nous pouvions vivre dans le royaume de la reine blanche, où notre mémoire travaillerait en arrière et en avant. Dans un tel monde, par exemple, on pourrais faire un examen et étudier après coup pour s'assurer qu'on l'a bien réussi dans le passé. Bon, la bonne nouvelle est que selon une série récente d'études scientifiques de Daryl Bem, nous vivons déjà dans pareil monde !
Le Dr.Bem, psychologue social à l'université de Cornell, a entrepris une série d'études qui seront bientôt publiées dans un des journaux de psychologie les plus prestigieux. Au travers de neuf expériences, Bem a examiné l'idée que notre cerveau a la capacité de réfléchir non seulement sur des expériences antérieures, mais peut également en prévoir de futures. Cette capacité de "voir" est souvent désignée comme phénomène psi.
Bien que des recherches antérieures aient été conduites sur de tel phénomènes - nous avons tous vu ces films où des personnes regardent fixement des cartes de Zener avec une étoile ou des lignes ondulées dessus - de telles études n'arrivent pas vraiment à atteindre le statut seuil "de recherche scientifique." Les études de Bem sont uniques du fait qu'elles présentent des méthodes scientifiques standard et se fondent sur des principes bien établis en psychologie. Cela donne essentiellement des résultats qui sont considérés comme valides et fiables en psychologie. Par exemple, l'étude améliore la mémoire, et facilite le temps de réponse - mais ici on inverse simplement l'ordre chronologique.
Par exemple, nous savons tous que répéter un ensemble de mots rend plus facile le fait de s'en souvenir dans l'avenir, mais si la répétition se produit après le rappel ?... Dans une des études, on a donné une liste de mots à lire à des étudiants et, après lecture de la liste, on les a confrontés à un test surprise pour voir de combien de mots ils se rappelaient. Ensuite, un ordinateur a aléatoirement choisi certains des mots sur la liste et on a demandé aux participants de les retaper plusieurs fois à la machine. Les résultats de l'étude ont montré que les étudiants étaient meilleurs pour se remémorer les mots apparus dans l'exercice qui avait suivi, donné par surprise et fait au hasard. Selon Bem, la pratique de ces mots après le test a permis d'une façon ou d'une autre aux participants "de revenir en arrière dans le temps pour faciliter le souvenir."
Dans une autre étude, Bem examiné si l'effet bien connu d'amorçage pouvait également être inversé. Dans une étude typique d'amorçage, on montre à des gens une photo et ils doivent rapidement indiquer si la photo représente une image négative ou positive. Si la photo est un chaton câlin, on appuie sur le bouton "positif" et si la photo représente des larves sur de la viande en décomposition, on appuie sur le bouton "négatif". Une recherche de masse a montré combien l'amorçage subliminal peut accélérer la capacité à classer ces photos. L'amorçage subliminal se produit quand un mot est clignoté sur l'écran tellement rapidement que le cerveau conscient ne l'identifie pas, mais le cerveau inconscient le fait. Ainsi on voit juste un flash, et si on vous demande de dire ce que vous avez vu, vous ne pouvez pas. Mais, profondément, votre cerveau inconscient a vu le mot et l'a traité. Dans l'étude d'amorçage, on constate uniformément que les gens qui s'amorcent avec un mot conformé à la valence de la photo la classeront par catégorie plus vite. Ainsi si on clignote rapidement le mot "heureux" avant l'image de chaton, la personne cliquera le bouton "positif" encore plus vite, mais on clignote à la place le mot "laid" avant, la personne prendra plus longtemps pour répondre. C'est parce que l'amorçage avec le mot "heureux" fait que l'esprit de la personne est prêt à recevoir un truc heureux.
Dans l'étude rétroactive d'amorçage de Bem, on a simplement inversé l'ordre du temps, faisant clignoter le mot amorcé après que la personne ait classé la photo. Ainsi on montre l'image du chaton, la personne sélectionne si elle est positive ou négative, et alors on choisit aléatoirement d'amorcer avec un bon ou mauvais mot. Les résultats ont prouvé que les gens sont plus rapides à classer des photos par catégorie quand elle était suivie d'un mot amorce cohérent. A tel point que non seulement le fait qu'on classe le chaton plus vite quand il est précédé par un bon mot, on le classera également plus vite par catégorie si il est suivit du bon mot après coup. C'est comme si, alors que les participants classaient la photo, leur cerveau savait quel mot viendrait après, qui facilite leur décision.
Voilà juste deux exemples des études que Bem conduit, mais les autres ont montrés des effets "rétroactifs" semblables. Les résultats suggèrent clairement que des gens moyens "non psychiques" semblent pouvoir prévoir des événement futurs.
La question qu'on peut se poser est "quel est l'ordre de grandeur de la différence ?" Ce fait d'étudier un essai après qu'il se soit produit, ou l'amorçage qu'on a eu avec un mot après avoir classé la photo donne un changement énorme, ou est-ce juste une légère bosse dans les statistiques ? Quelle est la taille de effet ?. Il est vrai que les tailles d'effet dans les études de Bem sont petites (par exemple, seulement légèrement plus grandes que la chance). Mais il y a plusieurs raisons pour lesquelles nous ne devons pas négliger ces résultats basés sur de petites, mais fortement conformées, tailles d'effet.
Tout d'abord, au travers ses études, Bem a constaté que certaines personnes ont des résultats plus forts que d'autres. En particulier les gens en grande quête de stimulus - aspect d'extraversion où les gens répondent plus favorablement aux nouveau stimulus. Pour des différences de l'ordre d'environ deux fois plus d'efficacité qu'une personne moyenne. Ceci suggère que des gens sont plus sensibles aux effets psi que d'autres.
Deuxièmement ces petites tailles d'effet ne sont pas rare en psychologie (et pour d'autres sciences). Par exemple la moyenne les études de Bem eut pour résultat des tailles d'effets assez petites, mais tout aussi grandes - ou plus grandes - que certains effets bien établis : lien entre l'aspirine et l'empêchement de crise cardiaque, prise de calcium et os améliorés, fumée et cancer du poumon, utilisation de condom et protection du HIV, etc.... Cohen précise que de telles tailles d'effet se produisent plus facilement quand on est dans les premiers stades d'exploration d'une matière, quand les scientifiques commencent juste à découvrir pourquoi l'effet se produit et quand il est le plus susceptible de se produire.
Ainsi si nous prenons ces phénomènes psi comme vrai, comment pouvons nous alors les expliquer sans jeter à la poubelle notre compréhension du temps et de la physique ? Bon, la vérité est que ces effets ressemblent vraiment beaucoup à ce que la physique moderne dit du temps et de l'espace. Par exemple, Einstein a cru que le seul acte d'observer quelque chose pouvait affecter cette chose là, phénomène qu'il appela "spooky action à distance."
De même, la physique quantique moderne a démontré que les particules légères semblent savoir ce qui se trouve en avant d'elles dans le temps et qu'elles ajusteront leur comportement en conséquence, quoique le futur événement ne se soit pas produit encore. Par exemple dans l'expérience classique "de la double fente" les physiciens ont découvert que les particules légères répondent différemment si elles sont observées. Mais en 1999, les chercheurs ont poussé cette expérience plus loin en se demandant "ce qui se produirait si l'observation avait lieu après que les particules légères aient été déployées. "Tout à fait curieusement, ils ont démontré que les particules agissaient de la même manière, comme si elles savaient qu'elles seraient observées plus tard..." même si cela ne s'était pas encore produit.
De tels effets, "dingues", avec le temps semblent contredire le bon sens et essayer de les comprendre peut donner un sacré mal de tête. Mais les physiciens ont simplement appris à l'accepter. Comme disait une fois le Dr. Chiao, physicien de Berkeley, au sujet de la mécanique quantique, "c'est complètement contre intuitif et extérieur à notre expérience journalière, mais nous (les physiciens) y sommes habitués"
Ainsi, alors que les humains perçoivent le temps comme linéaire, cela ne signifie pas nécessairement qu'il en soit ainsi. Donc, en tant que bons scientifiques, nous ne devrions pas nous laisser influencer par les préjugés sur ce que nous étudions, même si ces idées préconçues reflètent nos idées de base sur la façon dont le temps et l'espace fonctionnent.
Le travail du DR. Bem est un provocation pour la pensée, et comme toute science révolutionnaire est censée faire, il apporte plus de questions que de réponses. Si nous mettons entre parenthèses nos croyances sur le temps et acceptons que le cerveau est capable d'une prise sur le futur, la prochaine question est : comment le fait-il ?. Ce n'est pas parce que l'effet semble "surnaturel" que cela signifie que la cause le soit. Beaucoup de découvertes scientifiques furent considérées comme exotiques par le passé, convenant davantage à la science-fiction (par exemple : la terre est ronde, il y a des organismes microscopiques, etc...). Une recherche future est nécessaire pour explorer les causes exactes des effets de ces études
Comme beaucoup de nouvelles explorations en science, les résultats de Bem peuvent avoir un effet profond sur ce que nous savons et avons accepté comme "vrai". Mais pour certains d'entre vous, peut-être que ces effets ne sont pas une si grande surprise, parce que quelque part, profondément à l'intérieur, nous savons déjà que nous en aurions connaissance aujourd'hui !

Auteur: Internet

Info: Fortean Times, Octobre 11, 2010

[ sciences ] [ prémonition ]

 
Mis dans la chaine

Commentaires: 0

exo-contact

Rice News : - Comment un professeur des religions comparées devient-il un expert des OVNIs ? 

JK : - Eh bien, personne n'est expert de ceci. Personne. C'est la première chose à savoir. Pour ma part, je réfléchis et écris sur le phénomène OVNI depuis 2004 environ. J'y ai d'abord été confronté parce que j'y étais obligé :  on le retrouvait tout simplement partout dans les sources historiques et ethnographiques avec lesquelles je travaillais pour une grande histoire des courants spirituels alternatifs dans la contre-culture californienne que j'écrivais à l'époque. Mes propres intérêts ont définitivement commencé là, à l'Institut Esalen.

Les gens supposaient alors couramment que le phénomène OVNI n'était pas sérieux ou qu'il s'agissait d'une sorte de truc "californien". Mais ce n'est tout simplement pas vrai, et ne l'a jamais été. Certaines des rencontres modernes les plus documentées et les plus spectaculaires ont eu lieu autour de sites militaires nucléaires et dans des cultures et des lieux comme le Brésil, la France, le Nouveau-Mexique - au cours de l'été 1945, à quelques kilomètres du site de la bombe atomique Trinity récemment irradiée et une semaine seulement après les bombardements d'Hiroshima et de Nagasaki - et la Nouvelle-Angleterre. Plus récemment on peut voir un grand mélange quant à l'appréciation de cette problématique : par exemple les militant des droits civiques, rien que ça. L'armée et les services de renseignement américains, son exploration spatiale aussi, le colonialisme occidental, les cosmologies indigènes américaines, avec une religion noire importante - la Nation of Islam. Les zones frontalières entre États-Unis et Mexique, l'Amérique latine, les relations américano-soviétiques et maintenant américano-russes, l'OTAN, les industries aérospatiales et aéronautiques, les courants ésotériques et mystiques occidentaux, la littérature de science-fiction et l'histoire des sciences ont tous été impliqués. Et ce n'est qu'un début.

Étudier convenablement le phénomène ovni, c'est en fait étudier à peu près tout. C'est aussi se heurter, durement, à la prise de conscience que l'ordre institutionnel ou universitaire de la connaissance dans lequel nous travaillons et pensons aujourd'hui - un ordre qui sépare effectivement les sciences des humanités - n'est tout simplement pas utile, et ne reflète certainement pas la réalité que nous essayons de comprendre. La difficile vérité est que le phénomène OVNI présente à la fois un aspect "matériel" objectif (pensez aux vidéos et photographies d'avions de chasse, aux prétendus méta-matériaux, aux méthodes de propulsion apparemment avancées et aux marques d'atterrissage) et un aspect "humain" subjectif (pensez aux rencontres rapprochées, aux observations visuelles multiples et coordonnées, aux états de conscience altérés, aux manifestations visionnaires, souvent de type baroque ou science-fictionnel, et aux enlèvements traumatiques ou transcendants vécus). Et les deux côtés - les dimensions matérielles et mentales - sont incroyablement importants pour avoir une idée de l'ensemble du tableau.

Bien sûr, on peut découper le phénomène ovni en deux catégories, "scientifique" et "humaniste", mais on ne le comprendra jamais en procédant ainsi. C'est, en fin de compte, la raison pour laquelle je pense que le sujet est si incroyablement important : il a le pouvoir particulier de défier, ou simplement d'effacer, notre ordre actuel de connaissance et ses divisions arbitraires. Quel que soit ce "ça", il ne se comporte tout simplement pas selon nos règles et hypothèses.  

RN : - Quelle est donc votre évaluation globale de ce nouveau rapport ?

JK : - Eh bien, j'ai un truc positif à dire, avec une forte critique. La chose positive est la suivante : La récente publication, ainsi que la fuite de la vidéo radar datant de décembre 2017 qui a été si efficacement rapportée dans le New York Times par mes collègues Leslie Kean, Ralph Blumenthal et Helene Cooper, a fondamentalement changé la conversation publique autour du sujet. Les chercheurs sérieux ne sont plus regardés avec autant de mépris, et les débunkers dogmatiques n'ont plus le dessus - si jamais ils l'ont vraiment eu.

En outre, et c'est tout aussi important, des gens de tous horizons qui se sont tus jusque-là, sortent maintenant de leur placard et prennent la parole. Pour ne prendre qu'un petit exemple, Miles O'Brien, le correspondant scientifique de PBS, a reconnu devant la caméra il y a quelques jours avoir été témoin d'un OVNI avec un comportement fondamentalement identique à celui des objets rapportés dans le document. Bref le point le plus fondamental de l'interview d'O'Brien est que la publication du gouvernement constitue une sorte de "tournant" dans la conversation publique. 

RN : - OK, quelle est la critique alors ?

JK : - La mauvaise nouvelle concerne la nature de cette "révélation " erratique et classifié de données - le refus du gouvernement de libérer la marchandise, pour ainsi dire, et de donner aux chercheurs sérieux un accès complet à toutes les données. Toutes les données. En procédant de la sorte, ils essaient essentiellement de contrôler le récit. Mon souci peut être résumé par cette sagesse populaire "si vous n'avez qu'un marteau, vous ne verrez que des clous". Dans ce contexte, vu que les données sont collectées par des professionnels de l'armée dont le but premier est de protéger l'État-nation contre les intrus ou les ennemis, le phénomène UAP ou OVNI est inévitablement présenté en termes de "menaces" potentielles. Je veux dire, mon Dieu, les vidéos que nous regardons ont été prises par les systèmes radar d'avions de chasse avancés conçus pour faire une seule chose : abattre un objet ennemi. Faut-il s'étonner que ces objets filmés soient présentés, littéralement et métaphoriquement, comme des menaces ?

RN : - Et sont-ils vraiment des menaces ? Nous n'en avons aucune idée.

JK : - Dans la culture populaire américaine, dans le cinéma et la science-fiction, ce que j'appelle la "mythologie de l'invasion de la guerre froide" a été dominante jusqu'à très récemment. Dans cette mythologie, l'OVNI est considéré comme une invasion "extraterrestre" qui doit être combattue ou à laquelle doivent résister les citoyens patriotes et craignant Dieu. Pensez, par exemple, au roman de 1898 de H.G. Wells "La guerre des mondes", une histoire d'invasion, soit dit en passant, inspirée par le colonialisme britannique. Ou, du côté américain, "Independence Day" en 1996. Ce n'est que récemment que les écrivains et les cinéastes ont commencé à s'éloigner de cette mythologie de l'invasion de la guerre froide pour s'orienter vers quelque chose de beaucoup plus positif, et franchement plus fidèle à ce que nous voyons réellement dans les cas de rencontre et de contact, si nous les étudions vraiment au lieu de simplement supposer des choses à leur sujet. Comme le récent film d'un réalisateur canadien, assez significatif en ce sens - "Arrival" sorti en 2016. 

Ce film frise la profondeur, car il tourne avec amour et contemplation autour de la transformation paranormale de son personnage central, une linguiste humaniste douée, le Dr Louise Banks. En effet, dans les faits historiques, les témoins humains sont souvent radicalement transformés par leurs rencontres, souvent de manière extrêmement positive, mais aussi difficile.

Ces rencontres, par exemple, peuvent être de nature profondément spirituelle, et je ne veux pas dire "bonnes" ou "agréables". Les gens éprouvent de la crainte, de la peur, de l'étrangeté et une terreur absolue ; le psychiatre de Harvard John Mack a appelé cela à juste titre "choc ontologique". Ils font l'expérience, soit pendant l'événement lui-même, soit plus tard, de nouvelles capacités étonnantes - pensez à la télépathie et, oui, à la précognition. Et ils adoptent de nouvelles visions du monde, beaucoup plus cosmiques.

Ainsi, dans le film, le Dr Louise Banks développe la capacité de précognition : Elle se "souvient" de la mort précoce et tragique de sa fille, pas encore née, alors qu'elle apprend progressivement que le temps, comme la grammaire de la langue extraterrestre qu'elle déchiffre, est circulaire et non linéaire. Cette idée de l'espace-temps est d'ailleurs bien connue des humanistes, de la philosophie grecque antique à Nietzsche.

Ce où je veux en venir ? Que nous devrions aborder le phénomène OVNI beaucoup plus comme "Arrival" et beaucoup moins comme "La Guerre des Mondes". Mais nous n'y arrivons pas. Au lieu de cela, nous parlons encore et encore de "menaces" potentielles et promulguons des mesures de sécurité et de secret sans fin. Et ensuite nous nous demandons pourquoi personne ne comprend cela ? En conséquence de ces actions, les témoins humains, leurs observations, leurs transformations et leurs traumatismes sont ignorés avec arrogance et dédaignés comme étant "anecdotiques" et donc indignes d'être étudiés.

J'avoue que je méprise l'aspect narquois de ce mot - anecdotique - et la façon dont il empêche une enquête complète. Toute expérience humaine, après tout, est techniquement "anecdotique". En ce sens, je suis moi aussi une "anecdote". Vous aussi. Nous le sommes tous. Et pourtant, il n'y a pas de science ou de mathématiques, pas de littérature, de langue, d'art ou de religion, et certainement pas d'OVNI, sans ce sujet humain, sans ce témoin anecdotique, ce penseur ou ce voyant. Alors pourquoi ne parlons-nous pas des expériences de ces témoins humains et de la façon dont ce phénomène semble déclencher ou catalyser l'imagination humaine de manière fantastique ? Pourquoi ne voyons-nous pas avec empathie ces drames, soi-disant imaginaires, comme des signes significatifs au lieu de les ignorer avec arrogance comme de l'écume neurologique ? Pourquoi ne parlons-nous pas de ce qu'il advient des pilotes terrifiés, des professionnels de l'armée désorientés, ou des citoyens confus qui voient ces choses, parfois de très près et de manière très personnelle ? Cela ne fait-il pas également partie du phénomène OVNI ? Pourquoi détournons-nous le regard ? Et de quoi ?

RN : - Ce serait le sujet d'une nouvelle conversation. Comment voulez-vous conclure ?

JK : On a jamais fini avec ça. J'aimerais conclure en mettant l'accent sur le fait que la pièce de technologie la plus sophistiquée sur terre pour détecter des présences non humaines ou surhumaines n'est pas un ordinateur quantique ou un système de radar militaire avancé. C'est le corps, le cerveau et l'être humain évolué. Je voudrais également suggérer que l'humain détecte d'étranges présences humanoïdes dans le ciel et l'environnement non pas depuis quelques années ou quelques décennies, mais depuis des millénaires. Tout ce que nous avons à faire est d'ouvrir nos yeux et regarder. Il suffit de ranger notre marteau et de regarder attentivement l'histoire, nos littératures et, surtout, nos religions.

Ainsi au sein de cette nouvelle grande toile humaniste et historique, ce que nous rencontrons dans le ciel et voyons du sol aujourd'hui, pourra prendre des significations fondamentalement nouvelles, et d'autres futurs potentiels. Je ne prétends pas savoir ce que cela impliquera - et ne crois certainement pas non plus aux mythologies régnantes, qu'elles soient politiques, séculaires ou religieuses - mais je parie qu'elles auront très peu à voir avec l'évaluation de ces "menaces". C'est la vieille mythologie de la guerre froide qu'il est temps de dépasser, et bien au-delà.

RN : Vous parlez de l'absence de toute limite.

JK : Oui. Il n'y en a aucune.

Auteur: Kripal Jeffrey

Info: Entretien avec Katharine Shilcut sur " how to think about the UFO phenomenon" http://news.rice.edu/ - June 30, 2021

[ US paranoïa ] [ rencontre du 3e type ]

 

Commentaires: 0

Ajouté à la BD par miguel