Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 154
Temps de recherche: 0.0474s

limite épistémique

[...] même si la course à l’IA [Intelligence Artificielle] s’est beaucoup amplifiée et renchérie, l’avènement d’une IAG [Intelligence Artificielle Générale ou Forte] n’est pas pour demain. Dans les années 1940, les premiers visionnaires nous le promettaient pour la génération suivante. Sondé en 2017, un cercle d’experts en IA s’est accordé sur la date de 2047. Ce qui complique un peu ce calendrier, c’est la façon dont surviendra la "singularité" – le ­moment où la technologie aura tellement progressé qu’elle prendra le dessus pour de bon. S’agira-t-il d’un décollage en douceur, dû aux avancées progressives de l’IA faible, qui prendra la forme d’un explorateur de données doublé d’un dispositif de réalité virtuelle et d’un traducteur du langage naturel, le tout chargé dans un aspirateur-­robot ? Ou bien d’un décol­lage brutal, un ­algorithme qui reste encore à imaginer se trouvant soudain incarné dans un ­robot tout-puissant ? Les enthousiastes de l’IAG ont beau avoir eu des décennies pour réfléchir à cet avenir, le résultat reste bien nébuleux : nous n’aurons plus à travailler car les ordinateurs se chargeront de toutes les activités courantes, nos cerveaux seront stockés en ligne et se fondront dans la conscience brumeuse du nuage, ce genre de chose. En ­revanche, les craintes des éternels angois­sés, fondées sur le fait que l’intelligence et le pouvoir cherchent toujours à se renforcer, sont concrètes et glaçantes : une fois que l’IA nous aura surpassés, il n’y a pas de raison de penser qu’elle nous sera reconnaissante de l’avoir inventée – surtout si nous n’avons pas su la doter d’empathie. Pourquoi une entité susceptible d’être présente dans mille lieux à la fois et possédant une conscience à la Starbucks éprouverait-elle une quelconque tendresse pour des êtres qui, les mauvais jours, peuvent à peine s’arracher du lit ? Curieusement, les auteurs de science-fiction, nos Cassandre les plus dignes de confiance, se sont abstenus d’envisager une apocalypse due à l’IAG, dans laquelle les machines domi­neraient au point de faire disparaître l’espèce humaine. Même leurs cyborgs et supercalculateurs, malgré leurs yeux rouges ­(les Terminators) ou leur accent cana­dien (HAL 9000 dans 2001 : l’odyssée de l’espace) ont un air de famille. Ce sont des versions actualisées du Turc ­mécanique, l’automate joueur d’échecs du XVIIIe siècle dont le mécanisme dissimulait un ­humain. Neuromancien, le ­roman fondateur de William Gibson paru en 1984, met en scène une IAG nommée Muet­dhiver ; elle ­décide de se ­libérer des chaînes humaines, mais, quand elle finit par s’échapper, elle ­entreprend de rechercher des IAG d’autres systèmes solaires, et la vie sur Terre reprend exactement comme avant. Dans la ­série Carbone modifié, les IA méprisent les humains, qu’ils traitent de "forme infé­rieure de vie", mais utilisent leurs super­pouvoirs pour jouer au poker dans un bar. Nous ne sommes pas pressés d’envisager la perspective de notre insignifiance. Aussi, en profitant des derniers rayons de notre souveraineté, nous nous délectons des ratés de l’IA. Comme lorsque le ­robot conversationnel Tay de Microsoft a répété des insanités racistes proférées par des utilisateurs de Twitter. Ou le jour où M, l’assistant virtuel de Facebook, ­remarquant que deux amis échangeaient sur un roman où il était question de cadavres vidés de leur sang, proposa de leur réserver un restaurant. Ou encore la fois où Google, incapable d’empêcher l’outil de reconnaissance des visages de Google Photos de confondre des Noirs et des gorilles, dut désactiver la reconnaissance des gorilles. La suffisance n’est sans doute pas la ­réaction la plus intelligente face à ce genre de ratés.

Auteur: Friend Tad

Info: Dans "Books", https://www.books.fr/nous-avons-convoque-diable/

[ humain-robot ] [ prise d'autonomie ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

réminiscence

Déjà-vu ? Les scientifiques ont la réponse La plupart d'entre nous a éprouvé le "déjà-vu" au moins une fois. Sentiment inconfortable qu'on a été ici dans un endroit, dans une situation auparavant. Habituellement la sensation dure pendant un moment et est rapidement suivie de la réalisation qu'on a en fait pas éprouvé cette situation actuelle dans le passé, et qu'on ne peut simplement pas connaître cet endroit. Néanmoins, il y a le sentiment que quelque chose était là dans notre mémoire, en partie ou en entier.
La sensation de "déjà-vu", a été nommée ainsi au 19ème siècle, mais ce phénomène mental a fasciné et effrayé ceux qui l'éprouvent. depuis bien plus longtemps.
La Science eut peu à offrir comme explication, ajoutant au mystère.
Il y eut des tentatives pour éclaircir le phénomène, certains y voyant une évidence qu'après la mort l'âme passe à un autre corps, humain ou animal.
Un des point de départ pour les chercheurs est qu'une expérience de "déjà vu" est peut-être liée à l'expérience d'un rêve qui a été à demi ou totalement oublié.
Les auteurs français Marc Tadié et son frère Jean Yves, l'un directeur de faculté de neurochirurgie, l'autre professeur de littérature, pointent ceci dans en leur livre "Le sens de la mémoire ".
Il est caractéristique de l'expérience qu'on est sûr pendant un moment d'avoir vécu cette expérience auparavant mais qu'on ne peut simplement pas se rappeler ou dans le temps.
La description des rêves dans la littérature pourrait indiquer une manière pour comprendre ces expériences de "déjà-vu".
"Dans un rêve la conscience peut bouger librement dans un espace sans limites, où passé et futur se mélangent" disent les deux Tadié au sujet de descriptions de cette sorte.
Dans une contribution l'année dernière au magasine allemand "Gehirn und Geist" (cerveau et esprit, édités par Heidelberg référence est faite de recherches au sein des processus de mémoire conduits par John D.E. Gabrieli et son équipe à l'université de Stanford en Californie.
Leurs études indiquent que les structures cervicales de l'hippocampe et du cortex parahippocampien jouent des rôles différents dans ce processus.
Tandis que l'hippocampe permet sujet à se rappeler les événements consciemment, le cortex parahipppocampien peut faire la distinction entre des impulsions accoutumées ou inhabituelles, il fait ceci sans même se rapporter à une expérience concrète.
Josef Spatt de l'institut de Ludwig-Ludwig-Boltzmann à Vienne a basé son hypothèse sur cette idée, proposant que le "déjà vu" se produit quand le Parahippocampe, sans que l'hippocampe soit impliqué, émet un signal "accoutumé à", ou "confortable" lié avec telle ou telle sensation.
Ainsi une expérience peut-être considérée comme bien connue, quoiqu'elle ne puisse pas être placée à temps.
Comme Spatt, Uwe Wolfradt, qui fait des recherches sur la self aliénation et les phénomènes de mémoire à l'institut de psychologie de l'université de Halle-Wittenberg dit qu'il y a probablement beaucoup de régions du cerveau impliquées dans la sensations de "déjà vu".
"Les sentiments intensifs de self-aliénation et d'irréalité, couplés avec un sentiment du temps modifié, semblent indiquer une série complexe d'événements dans la conscience," dit-il.
Tandis que la personne éprouvant le "déjà vu" peut commencer à douter de sa prise sur la réalité pendant un moment, les neurologistes croient que cette "petite erreur" commise par notre conscience leur ouvre une fenêtre inhabituelle sur les processus de la conscience.
"Peut-être que la recherche à venir induite par le "déjà vu" expliquera non seulement comment les erreurs de mémoire se produisent, mais également comment le cerveau peut établir une image continue de le réalité " indique Wolfradt.

Auteur: Nouvelles allemandes

Info: Hambourg 14 février 2005

[ paramnésie ]

 

Commentaires: 0

humain miroir

La perception humaine de l'espace s'étend tout comme l'univers réel !

Le cerveau humain a une façon intéressante d'évaluer la proximité ou la distance d'un objet dans l'espace. Si vous regardez la nuit depuis votre voiture, il y a de fortes chances que la Lune vous paraisse se déplacer à vos côtés. Une nouvelle étude neuroscientifique a permis de découvrir pourquoi la zone de la mémoire de notre cerveau perçoit les images proches et lointaines et comment ces exagérations peuvent créer davantage de connexions cérébrales à mesure que nous vieillissons.

L'hippocampe est une zone du cerveau impliquée dans l'apprentissage et la mémoire. Dans l'étude actuelle, les auteurs ont constaté que les neurones associés à la planification, à la mémoire et à la navigation spatiale transforment l'espace en une forme géométrique hyperbolique non linéaire - pensez à un sablier en expansion qui grossit à mesure que vous vous en éloignez. Pour en revenir à l'exemple de la lune, les jeunes enfants ont pu constater que la lune les suivait ou qu'elle était suffisamment proche pour qu'ils l'attrapent.

Bien sûr, la Lune ne se déplace pas et sa taille est déformée par sa distance. Les résultats ont montré que la taille de l'image augmente avec le temps passé dans un lieu. La taille perçue par notre cerveau est également directement liée à la quantité d'informations qu'il peut traiter : les jeunes cerveaux sont peut-être plus enclins à naviguer et à percevoir l'espace de manière linéaire. Avec de nouvelles expériences, l'hippocampe est capable d'affiner ses connexions neuronales et de traiter davantage d'informations sur l'image.

Le cerveau "s'élargit" avec l'expérience

Comprendre comment les réseaux neuronaux du cerveau traitent la navigation spatiale pourrait aider à étudier les troubles neurocognitifs. La maladie d'Alzheimer, par exemple, est une maladie dans laquelle l'hippocampe est l'une des premières zones du cerveau à être détruite, ce qui affecte la mémoire de la personne.

"Notre étude démontre que le cerveau n'agit pas toujours de manière linéaire. Au contraire, les réseaux neuronaux fonctionnent le long d'une courbe en expansion, qui peut être analysée et comprise à l'aide de la géométrie hyperbolique et de la théorie de l'information", explique l'auteur principal, Tatyana Sharpee, professeur à l'Institut Salk et titulaire de la chaire Edwin K. Hunter, dans un communiqué de presse. "Il est passionnant de constater que les réponses neuronales dans cette région du cerveau forment une carte qui s'élargit avec l'expérience, en fonction du temps passé dans un lieu donné. L'effet s'est même maintenu pour des écarts de temps minuscules, lorsque l'animal courait plus lentement ou plus rapidement dans l'environnement."

L'équipe de recherche a utilisé des méthodes informatiques avancées pour comprendre le fonctionnement du cerveau. L'une de ces techniques consiste à utiliser la géométrie hyperbolique pour disséquer les signaux biologiques. Des travaux antérieurs ont utilisé la géométrie hyperbolique pour étudier le fonctionnement des molécules odorantes et de la perception des odeurs.

La géométrie hyperbolique s'est avérée efficace pour comprendre les réponses neuronales et pour cartographier les molécules et les événements sensoriels. Les chercheurs ont recueilli leurs informations auprès de rats qui ont passé du temps à explorer un nouvel environnement. Plus le rat passe de temps dans une zone, plus il acquiert d'informations sur l'espace qui l'entoure. Cela a permis à leur carte neuronale de s'étendre et de se développer.

"Ces résultats offrent une nouvelle perspective sur la manière dont les représentations neuronales peuvent être modifiées par l'expérience", explique Huanqiu Zhang, étudiant diplômé du laboratoire de M. Sharpee. "Les principes géométriques identifiés dans notre étude peuvent également guider les futurs efforts de compréhension de l'activité neuronale dans divers systèmes cérébraux.

Auteur: Internet

Info: Nature Neuroscience, repris par Jocelyn Solis-Moreira ,7 janvier 2023

[ horizon grégaire intégré ] [ vieillir grandir ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuro psychologie

Pourquoi notre cerveau nous pousse à détruire la planète et comment l’en empêcher.
A l’instar de "Biologie du Pouvoir" et de "La Nouvelle Grille", "Le Bug Humain" a pour ambition de trouver dans le fonctionnement même de notre cerveau des mécanismes qui expliquent nos comportements et nos choix à l’échelle individuelle et sociale et en quoi ces mêmes mécanismes sont responsables de notre déni devant la catastrophe écologique qui arrive à grands pas.
Mais contrairement à ses deux prédécesseurs, Le Bug Humain ne s’avance pas jusqu’à proposer une solution politique claire. Une frilosité que l’on regrettera.

Le constat est édifiant : L’humanité vit largement au dessus de ses moyens et ne semble pas prendre la réelle mesure des conséquences d’une telle surconsommation. A qui la faute ? Au striatum. Cette partie de notre cerveau a pour rôle de récompenser en dopamine des comportements qui favorisent la survie et la diffusion du patrimoine génétique : Se nourrir, avoir des relations sexuelles, le goût du moindre effort, l’utilité ou rang social et l’information. Si ces fonctions du striatum ont permises à l’Homo Sapiens de survivre et de croitre dans un environnement hostile et de rareté, il n’est plus adapté à nos sociétés d’abondance sécurisées. Il devient même dangereux quand il est confronté à des technologies telles que les réseaux sociaux. Car lorsque l’on publie ses photos de vacance sur Facebook ou qu’on se fend d’une réplique cinglante sur Twitter, nous donnons de l’importance aux likes et autres retweets qui vont répondre à la fois à notre besoin de reconnaissance sociale et à notre attirance vers le moindre effort puisque nous n’avons plus besoin d’agir en société ou au travail mais à cliquer sur quelques icônes pour nous situer socialement :

"Si vous obtenez moins de likes que ce que vous attendiez après avoir modifié votre profil, votre striatum s’éteint et votre estime de soi chute; si vous obtenez plus de likes que vous ne le prévoyiez, ce même striatum produit de violentes décharges de dopamine qui vous apporte une bouffée de bien-être. Cela se traduit par une mise à jour de votre estime de soi au sien de vos archives personnelles, lesquelles sont tenues par une zone de votre cerveau localisée deux centimètres en retrait de votre front. Cette zone cérébrale appelée cortex préfrontal ventromédian va en tirer des conclusions sur ce que vous valez à vos propres yeux. Si vous venez d’obtenir une récompense, [il] fait monter d’un cran votre estime de soi. Si vous avez reçu une punition, il la revoit à la baisse. Tout part de ce principe interne de recherche d’approbation par le striatum, une partie de nous-même qui nous enjoint constamment de faire face au jugement d’autrui, en quête de reconnaissance."

Pour autant, Le Bug Humain ne nous livre pas un déterminisme simpliste qui ferait du striatum tel qu’il est décrit le seul facteur déterminant de tous nos comportements. En prenant l’exemple de la prédominance des comportements altruistes chez les femmes par rapport aux hommes, Bohler illustre le concept de "conditionnement opérant". Si les femmes voient leurs comportements altruistes mieux récompensés par leur striatum c’est parce qu’elles ont appris à être altruistes. On leur a signifié dès leur plus jeune âge que le partage était une bonne chose. Le conditionnement socioculturel peut donc, dans une certaine mesure, orienter le système de récompense de notre cerveau.

S’il manque de témérité politique, Le Bug Humain a tout de même le mérite de vulgariser efficacement certaines connaissances et de nous alerter sur des problèmes intrinsèquement liés aux réseaux sociaux, au pouvoir et sur notre capacité à prendre conscience des conséquences de notre activité sur Terre tout en évitant les travers des déterminismes simplistes, qu’ils soient uniquement génétiques ou uniquement socioculturels.

Auteur: Internet

Info: A propos de Le Bug Humain de Sébastien Bohler (2019), Posted https://refractairejournal.noblogs.org 27/02/2019 by REFRACTAIRE

[ humains virus terrestres ] [ récompense ] [ motivation ]

 

Commentaires: 0

Ajouté à la BD par miguel

autosuggestion

L'autohypnose est une forme de technique de méditation poussée qui permet d'accéder à son inconscient sans être guidé par une tierce personne. Par ce biais, on peut apprendre à se relaxer et à mieux se connaître. Voici 5 méthodes d'autohypnose accessibles et rapides.

L'autohypnose a des bienfaits surprenants pour apprendre à mieux se comprendre, se connaître, dénouer certains blocages, réduire l'état dépressif ou mieux contrôler nos émotions.

Ces techniques permettent d'accéder aux ressources inconscientes par la focalisation de l'esprit et l'imagerie mentale. Choisissez, testez, pratiquez-les pour trouver celle qui vous correspond et qui sera la plus efficace pour vous.

Avant toute chose, installez-vous confortablement, assis ou couché, et surtout assurez-vous d'être aucunement dérangé. Vous pouvez également créer un cadre de détente : bougies, encens, musique douce, lumière tamisée... C'est parti.

Technique 1 : La spirale sensorielle (technique de Betty Erickson, fille du célèbre psychiatre)

Fixez un point légèrement au-dessus de la ligne du regard, jusqu'à ce que les yeux se ferment afin d'amorcer un état différent.

Puis les yeux fermés, sans changer la focalisation du regard, dites à voix haute ou dans votre tête 5 phrases décrivant votre expérience visuelle interne (je vois A, je vois B, je vois C...), 5 phrases décrivant votre expérience auditive (j'entends...), 5 phrases décrivant votre expérience kinesthésique (je ressens...)

Puis ensuite 4 descriptions de chaque sens, puis 3, puis 2, puis 1 description.

Technique 2 : L'escalier

Imaginez un escalier devant vous qui descend, déterminez un nombre de marches (au moins 10) et décrire intérieurement cet escalier (clair, obscur, droit, en colimaçon, quelle matière, quelle couleur, quels détails...).

Descendez ensuite mentalement chacune des marches, le plus lentement possible, en prêtant attention aux ressentis et en les accentuant à chaque marche. Par exemple : "Et à chaque marche que je descends, je rentre un peu plus à l'intérieur de moi, en toute confiance, en toute sécurité, toujours plus profondément détendu, le corps de plus en plus lourd".

Technique 3 : Le body scan

Les yeux fermés, visualisez devant vous une boule de lumière, observez les détails qui la composent, sa couleur, sa texture...

Puis ensuite déplacez mentalement cette boule au-dessus du crâne pour ensuite la faire pénétrer à l'intérieur de la tête en ressentant sa chaleur, les ondes bienfaisantes et apaisantes qu'elle procure.

Imaginez que cette boule libère toutes les pensées parasites, chacune des tensions et la faire descendre lentement dans l'ensemble des parties du corps jusqu'au bout de chaque orteil comme si ce corps était entièrement scanné.

Technique 4 : La main aimantée

Mettez une main à hauteur des yeux, paume face à soi et focalisez le regard sur un point au centre. Tout en relâchant le corps et en restant focalisé, demandez à l'inconscient d'avancer la main jusqu'au visage par des mouvements lents et saccadés, comme si elle était aimantée par le visage.

Répétez-vous ensuite que plus la main se rapproche du visage, plus la détente s'approfondit, que le corps devient de plus en plus lourd, que les yeux fatiguent jusqu'à ce fermer totalement.

Remerciez l'inconscient, laissez faire et soyez spectateur·rice.

Technique 5 : Le souvenir agréable

Beaucoup de nos activités quotidiennes sont hypnotiques : télé, transport, lecture... car elles permettent de se focaliser et de s'évader par la pensée. Imaginez un souvenir agréable, revivez chaque détail, retrouvez chaque élément présent dans la scène (images, sons, sensations, émotions, odeurs) comme si vous y étiez, et d'ailleurs vous y êtes.

Une fois en état modifié de conscience, demandez à l'inconscient de bien vouloir faire tout ce qui est possible pour lui afin d'améliorer telle ou telle chose et de laisser ensuite venir les images, les pensées, les sensations, les souvenirs...

Auteur: Hort Javi

Info: https://www.terrafemina.com, 1 Mars 2019

[ auto-thérapie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0

prospective

Le langage est dangereux dans la mesure où il permet de tout justifier, de tout expliquer... de se perdre, de fuir... D'enfumer les personnes moins au fait d'armes rhétoriques qui, suite à l'arrivée de La Bombe, sont devenues plus agissantes et importantes que le métal qui coupe et transperce ou le fusil qui tue à distance. 

Vue sous cet angle l'opinion est comme une femme, une fois son esprit capté, ou mieux, son âme formatée, le gros du travail est fait. Pour autant qu'on assure un minimum d'affection et de confort ensuite. (Non, stop, pitié...   arrêtez de cogner les filles, on peut inverser  ou mélanger les genres ici)

Nous sommes dans la continuelle bascule de notre évolution collective, à un point où expression abstraite et théorie ont pris le pas sur une pratique brutale ensuite mise en mots. 

Tout le monde sait la fragilité de l'édifice, il suffit d'imaginer une ville comme Paris sans approvisionnement pendant une semaine... Si ce système craque de manière générale ce sera l'enfer.

A l'heure d'une société de communication globale ce n'est pas pour rien que les "éléments de langages" sont devenus primordiaux. Réitérés ad infinitum (voir pour le Co-vid) ils montrent une fois encore l'importance décisive de l'information et de la création du consensus. Les politiques, Google, FB et  autres gouvernements/réseaux sociaux sont évidemment controlés par des gens au courant de celà. Il suffit d'une logique de base (le CO-vid ça tue) accompagnée d'une majorité d'éléments sémantiques qui vont dans ce sens, et le tour est joué. 

Nous autres mammifères glabres en équilibre sur deux membres sommes à un stade si peu avancé de développement qu'une simple logique duale, pulsionnelle binaire - celle qui sous-tend tous nos raisonnements et langages - est très aisée à orienter. 

Reste qu'il faudrait quand même parvenir à établir, peu ou prout, et au jour le jour si possible (en contact avec le réel donc), un minimum de cohérence au sein de cette triade : a) codage de la réalité par le langage, b) les pratiques/impacts d'humains qui sont organisés par lui. C) l'interaction avec le reste de la réalité qui en résulte - c'est à dire l'impact sur le reste de la vie sur terre pour être pragmatique. 

Je ne crois pas que l'humain soit au centre. 

Sauf pour lui-même, successivement conforté qu'il fut par des constructions sémantiques collectives établies par lui seul. Il s'est éloigné - en tant qu'espèce - d'une appartenance/collaboration globale avec les infinis développements de la vie - pour l'instant terrestre. (Lisez Kropotkine)

Certes on voit un sursaut actuellement, l'avenir s'assombrit, noirceur souvent confortée par des vieux (certains ne voient pas même qu'ils confondent/mélangent leur crépuscule singulier avec cet avenir inquiétant). Il y a donc place pour l'optimisme. 

Mais ce n'est pas assez, de beaucoup.

L'anthropocentrisme a mené où nous sommes, appuyé sur des fondements sémantiques, évidemment collectifs, sous-tendus par une hiérarchisation insensée. 

Comment imaginer un changement, une déviation de ceci ? 

Peut-être en refondant une grammaire de base où le "je", toujours humain, ou dominant (secondéité), puisse être mieux attribué et réparti dans ce qui fonde le codage du réel de notre civilisation humaine (tiercité anthropocentrique). Notre mémoire/réflexion - collective parce qu'externalisable comme ce court texte, est biaisée. 

Dans un univers où tout est information et interactions il y a clairement, sur ce point précis, un déficit structurel, un déséquilibre interne au sein de la monade humaine qui, s'il n'est pas corrigé, l'empêchera de s'intégrer correctement au reste du cosmos. 

Il faut reconsidérer cette manière de développer un réel consensuel, le nôtre, sur une base linguistique qui semble montrer ses limites. 

Ce réel humano-centré "accepté et construit ensemble" ne pourra être modifié qu'avec une remise en question profonde, je dirais même mieux : radicale.

Auteur: Mg

Info: 13 août 2020

[ science-fiction ] [ anticipation ] [ nouveau paradigme ] [ mémétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

mémoire

Mettez vos données sur disque dur et elles seront peut être sûres pendant une décennie si rien ne casse. Mais que faire pour garder l'info des millions d'années ?
La puissance de l'ADN comme dispositif de stockage a été identifiée la première fois seulement six ans après la découverte de la molécule. Dans une conférence de 1959 au California Institute of Technology, Richard Feynman, un des physiciens les plus admiré du 20 ème siècle, prévoyait que la miniaturisation de la technologie changerait probablement le monde - essentiellement en prévoyant la révolution numérique. Il précisa alors que la nature avait déjà fait un chip bien meilleur sous forme d'acide désoxyribonucléique.
Dans un petit paquet d'atomes au centre de chaque cellule, Feynman remarqua que toute l'information requise pour créer un humain, une amibe ou une tomate y sont codés. En beaucoup de domaines Feynman était en avance sur son temps. Les scientifiques ont calculé que l'ADN pourrait être le support de stockage idéal. Une seule livre d'ADN pouvant contenir toutes les données de tous les ordinateur.
Mais gérer cette puissance informatique s'est avérée difficile. Le premier ordinateur fonctionnant entièrement comme l'ADN fut créé en 1994 par Leonard Adleman, informaticien à l'université de Californie. Dans une cuillère à café d'eau, il utilisa une série de réactions biochimiques pour résoudre le problème célèbre "du représentant de commerce" (en bref de combien de manières peut-on aller de New York à Cleveland en s'arrêtant dans 7 autres villes dans l'intervalle ?). La promesse de l'approche était due au fait que chaque morceau d'ADN peut fonctionner essentiellement comme ordinateur indépendant, il devrait lui être possible de faire près d'un quadrillion de calculs immédiatement. Plus facile à dire qu'a faire !. Et si Adleman est lui-même est parvenu à résoudre un problème à 20 variables avec son ordinateur ADN beaucoup de chercheurs depuis, dans ce champ de l'ADN, travaillant après ce papier initial d'Adleman, se sont maintenant déplacés vers la confection de machines minuscules au lieu d'utiliser des molécules d'ADN. Le problème : Accéder à toute l'information d’une molécule de l'ADN.
"Ma propre conclusion est que le paradigme du calcul de l'ADN ne fournira pas une plate-forme de calcul puissante pour résoudre des problèmes" dit Lloyd Smith, scientifique à l'université de Wisconsin-Madison qui a effectué ce travail de calcul ADN, mais il ne prévoit pas de remplacer ses applications liées à la matière. "c'est mignon, mais je ne sais pas si c'est un concept si important." Quelques chercheurs qui sont resté avec cette idée de stocker l'information par ADN s'éloignent actuellement de l'idée que la molécule puisse sauvegarder des quantités d'information massives. Au lieu de cela, ils se concentrent sur de plus petits messages correcteurs pendant de très longues périodes - peut-être destinés à survivre à tous les livres et disques durs que la civilisation a produits.
L'ADN des organismes évolue constamment, mais les messages correcteurs d'erreurs destinés à protéger les organismes - restent très longtemps. Pak Chung Wong, chercheur aux Pacific National Laboratories, précise que quelques unes de ces contraintes de bactéries ont maintenu leur ADN quasi intact pendant des millions d'années. Lui et ses collègues ont développé une technique pour implanter au moins 100 mots dans le génome d'un organisme de sorte que le message soit protégé contre des erreurs. Wong et ses collègues ont prouvé qu'ils pourraient implanter un message (ils ont employé "c'est un petit monde après tout") dans le génome de bactérie. Une famille entière de bactéries avec le message put être créée, et même après des centaines de générations, le message était encore intact. Wong note qu'il devrait être possible d'envoyer un message au futur dans un organisme particulièrement robuste - tel que les bactéries ou autres cancrelats, qui survivraient à une guerre nucléaire. Plus pratiquement, les compagnies qui créent des organismes génétiquement modifiés pourraient employer cette technologie pour créer un genre de filigrane ADN pour protéger leur propriété intellectuelle. Au delà de fournir de la manière pour Genentech ou Monsanto afin d’empêcher d'autres compagnies de voler leurs organismes génétiquement modifiés, une telle technologie pourrait être la meilleure manière que nous ayons d'envoyer un message au futur éloigné. Oublions les gravures sur le satellites Voyager. Ce message pourrait durer aussi longtemps que n'importe quelle vie sur terre. La seule question : qu’y mettrons nous ?

Auteur: Internet

Info: Fortean Times, Message dans une bouteille d'ADN, 10.24.05

[ conservation ]

 

Commentaires: 0

écrivain-sur-écrivain

Pour arriver à la connaissance et à la possession de Dieu, selon l'idée chrétienne, la seule voie est la sainteté; selon la philosophie scolastique, c'est la science, résumée en la science des sciences, la théologie; selon Platon, c'est la contemplation de la beauté. Dante en prenant Béatrice pour guide à travers la vie comme à travers son poème, réunit donc d'abord en elle les trois moyens naturels et surnaturels qui sont offerts à l'homme pour parvenir en la présence "de la divine Puissance, de la suprême Sagesse et du primordial Amour" ...... ...En plusieurs endroits de la Divine Comédie on trouve des traces des idées platoniciennes, plus ou moins modifiées par leur voyage à travers les oeuvres des Pères de l'Église. Il est probable que c'est surtout dans Boèce, auquel il a emprunté plus d'un trait, dans saint Augustin et dans saint Bonaventure que Dante s'est familiarisé avec certaines théories du philosophe grec...... ...Mais Dante est poète, plus encore que philosophe, et il avoue que lorsque la vue de la "femme belle et bienheureuse" lui a été enlevée, il s'est laissé entraîner hors de la bonne voie : "Les objets présents et les faux plaisirs ont détourné mes pas depuis que votre visage m'est caché." Alors Béatrice lui fait de mélancoliques reproches où l'on sent passer non pas un regret, mais un souvenir complaisant des jours vécus sur terre, pendant lesquels elle pouvait offrir son pur visage à la contemplation de son poète : Tu m'as quelquefois oubliée, et pourtant, lui dit-elle, "jamais la nature ou l'art ont-ils pu t'offrir un plaisir pareil à celui que tu ressentais à admirer ma beauté, maintenant ensevelie et perdue sous la terre!". Chaque fois qu'il parle de Béatrice, Dante a des mots charmants pour caractériser sa beauté. Tantôt il exalte la douceur de sa voix : ...mia donna Che mi disseta colle dolci stille ; Tantôt son sourire : ...raggiandomi d'un riso Tal che nel fuoco faria l'uom felice Puis c'est le fameux portrait de Béatrice, lorsqu'elle lui apparaît aux portes du Paradis, encadrée dans un passage céleste, triomphante et resplendissante d'une incomparable beauté : J'ai vu, au commencement du jour, tout l'horizon affranchi de nuages, et nuancée de rose la partie de l'orient au milieu de laquelle naissait le soleil, dont on pouvait supporter l'éclat tempéré par les vapeurs du matin; de même à travers un nuage de fleurs qui retombaient de toutes parts, je vis une femme, les épaules couvertes d'un manteau vert; elle était vêtue d'une draperie couleur de flamme ardente; un voile blanc et une couronne d'olivier ornaient encore sa tête.... O splendeur d'une lumière éternelle : quel est celui qui ne serait pas découragé en essayant de te reproduire telle que tu me parus dans l'air libre, là où le ciel t'environne de son harmonie! Il faudrait un long travail pour arriver à dégager complètement cette personnification des deux autres, tellement la Béatrice est marquée à la fois de son triple caractère. Serait-ce même possible? L'idée platonicienne que j'ai indiquée dans la Divine Comédie, n'y est qu'à l'état de vague réminiscence et si bien enchevêtrée dans les multiples emprunts du poète à toutes les connaissances humaines, que ce serait peut-être en exagérer l'importance que de l'exposer plus longuement. Néanmoins cette conception de la beauté immuable dans son essence, se transformant du visible à l'invisible, et aboutissant à la beauté unique et primordiale, est tellement en dehors des idées du XIVe siècle, qu'il m'a paru intéressant de la signaler. Un peu plus tard, avec le progrès des études grecques, qui ne commencent sérieusement que cinquante ans après la mort de Dante, on trouverait plus facilement dans les poètes quelques traces de philosophie socratique. On verrait par exemple Pétrarque considérant les choses mortelles comme une échelle qui monte au Créateur, - che son scala al Fattor, Mais cette recherche perdrait de sa nouveauté à mesure qu'on se rapprocherait des temps modernes et deviendrait banale. Rien de ce qui touche à Dante ne saurait l'être, rien surtout de ce qui touche à sa Béatrice. Je me suis plu à montrer la complexité de cette création aussi étrange que sublime, d'autres y reviendront. Le sujet ne sera jamais épuisé, car on se plaira toujours à suivre le grand poète dans son voyage vers l'infini, régions où nul autre que lui n'est monté si haut, où nul peut-être n'ira plus; qui oserait comme lui s'élever jusqu'aux étoiles? - Puro e disposto a salire alle stelle?

Auteur: Gourmont Rémy de

Info:

[ Dante Alighieri ]

 

Commentaires: 0

procréation médicalement assistée

La PMA est promise à devenir l’une de ces techniques qu’on utilise par défaut, à avoir la destinée de l’automobile : plus les gens l’utilisent, plus elle est rentable pour ceux qui la promeuvent et la produisent (eu égard aux infrastructures et institutions nécessaires à son fonctionnement), mais moins elle est utile, c’est-à-dire efficace pour satisfaire les besoins (la voiture allonge les distances, ralentit les déplacements par rapport au temps investi dans son coût et réduit les possibilités de déplacement aux trajets prévus par l’infrastructure, tout en rendant impossibles ou problématiques les autres modes de déplacements). Une telle technique devient aussi de plus en plus indispensable : on ne peut pas s’en passer parce qu’il n’y a plus d’alternatives instituées.

Dans le film Gattaca (1997), des parents décident de faire un enfant de manière "naturelle", c’est-à-dire sans PMA et sans modification des gènes de l’embryon par thérapie génique ; l’enfant né de cette union est parfaitement normal, cependant que dans la société où il naît, l’immense majorité des gens choisissent de modifier leur enfant pour qu’il soit conforme aux critères socialement en vigueur, autrement dit qu’il soit génétiquement compétitif (d’autant qu’il est un investissement).
L’enfant "naturel" se retrouve rejeté des institutions comme anormal, fut-ce parce qu’il ne peut plus être assuré et parce que sa santé présente un risque statistiquement indéfendable pour un employeur. Même les enfants modifiés se retrouvent hiérarchisés en fonction des modifications apportées, des investissements consentis (donc des revenus) des parents, et, finalement, ces mêmes enfants n’ont pas plus de chance qu’auparavant de s’en tirer mieux, puisque leur avantage génétique est comparatif, donc relatif aux normes et modes en vigueur – la technique est dès lors devenue aussi indispensable (c’est-à-dire, au fond, obligatoire) qu’inutile. Ce film met admirablement en scène le processus en jeu dans ces techniques génétiques et le résultat que les choix individuels peuvent avoir sur le fonctionnement global, structurel d’une société.

Le scénario est le suivant : plus les gens vont (pouvoir) utiliser la PMA, moins elle va être chère et plus elle sera techniquement confortable (son principal défaut actuel étant d’être une procédure très lourde et encore fort souvent inefficace), ce qui entraînera plus de gens à l’utiliser et donc plus d’offres de services dans une véritable gamme de produits dérivés, souvent bien plus intéressantes que le produit de base, et déjà très avancées techniquement, telles que le dépistage pré-préimplantatoire et les thérapies géniques germinales (impossibles in utero), ou encore la possibilité, encore à l’étude, du développement de l’embryon hors de l’utérus.

En amont – et sans parler de ce qui concerne la loi, les mentalités, les représentations sociales et la demande –, son infrastructure nécessite des laboratoire, des techniciens et des institutions hospitalières spécialisées, répondant pour partie à des besoins-prétextes bien réels (la pollution chimique amenant de plus en plus de cas de stérilité ou de déficiences spermatiques), ainsi que du sperme (bientôt peut-être des ovules, puisque l’on est en passe d’utiliser un seul ovule pour créer plusieurs gamètes) et tout le travail de classification et de rentabilité autour de sa récolte et de sa distribution.

En aval, ce dispositif conduira à l’utilisation de larges produits dérivés (thérapies géniques, DPI, voire utérus artificiel, etc.), à des techniques de conservation des spermatozoïdes ou des gamètes, ou encore à l’utilisation des embryons surnuméraires à des fins de recherches (qui concernent souvent les techniques dérivées) ou pour la production de cellules souches. Or, à des degrés divers, tout cela est en ordre de bataille : notamment, en aval, le DPI et, désormais, les thérapies géniques (grâce au développement récent de l’outil "crispr cas 9") sont parfaitement au point, même s’il reste des limites (énormes) dans la connaissance des interactions entre gènes, de leur activation ; et la recherche sur les utérus artificiels – qui a notamment pour prétexte le sauvetage des grands prématurés – avance à grands pas.

La consommation de la PMA est le nœud du processus : son augmentation rendra l’infrastructure en amont rentable et plus efficace, et nourrira les produits dérivés, les rendant, là encore, plus rentables et plus efficaces. De plus, concourant avec la panique hygiéniste à laquelle se réduit actuellement la question environnementale, on fait du désir d’enfant un droit à assouvir (comme, par exemple, on en a fait un de l’accès à l’Internet) et un enjeu d’égalité ou de non-discrimination : on légitime, on adoube la technologie, pendant que tout le reste de la structure technique (la pollution qui rend stérile) et économique (les exigences de production et de consommation qui tendent à faire de la naissance de l’enfant un obstacle imprévisible et difficile à gérer s’il n’est pas planifié) la rendent "utile".

Auteur: Dufoing Frédéric

Info: https://linactuelle.fr/index.php/2020/01/22/pma-veritables-enjeux-frederic-dufoing/

[ enjeux sociétaux ] [ marchandisation du vivant ] [ big pharma ] [ fuite en avant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson