Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 200
Temps de recherche: 0.0641s

bon sens

L'utilisation d'armes biologiques était déjà interdite par le protocole de Genève de 1925, un traité international que les États-Unis n'avaient jamais ratifié. C'est alors que Matthew Meselson rédigea un document intitulé "Les États-Unis et le protocole de Genève", dans lequel il expliquait pourquoi ils devaient le faire. Meselson connaissait Henry Kissinger, qui a transmis son document au président Nixon et, à la fin de 1969, ce dernier renonçait aux armes biologiques.

Vint ensuite la question des toxines - poisons dérivés d'organismes vivants. Certains conseillers de Nixon estimaient que les États-Unis devaient renoncer à l'utilisation de toxines d'origine naturelle, mais conserver le droit d'utiliser des versions artificielles des mêmes substances. C'est un autre document de Meselson, "What Policy for Toxins", qui conduisit Nixon à rejeter cette distinction arbitraire et à renoncer à l'utilisation de toutes les armes à toxines.

Sur les conseils de Meselson, Nixon soumis à nouveau le protocole de Genève à l'approbation du Sénat. Mais il alla également allé au-delà des termes du protocole - qui interdit uniquement l'utilisation d'armes biologiques - pour renoncer à la recherche biologique offensive elle-même. Les stocks de substances biologiques offensives, comme l'anthrax que Meselson avait découvert à Fort Detrick, furent détruits.

Une fois que les États-Unis eurent adopté cette politique plus stricte, Meselson se tourna vers la scène mondiale. Lui et ses pairs voulaient un accord international plus fort que le protocole de Genève, un accord qui interdirait le stockage et la recherche offensive en plus de l'utilisation et prévoirait un système de vérification. Leurs efforts aboutirent à la Convention sur les armes biologiques, signée en 1972 et toujours en vigueur aujourd'hui.

"Grâce en grande partie au travail inlassable du professeur Matthew Meselson, le monde s'est réuni et a interdit les armes biologiques, garantissant ainsi que la science toujours plus puissante de la biologie aide l'humanité au lieu de lui nuire. Pour cela, il mérite la profonde gratitude de l'humanité", déclara l'ancien secrétaire général des Nations unies, Ban Ki-Moon.

M. Meselson déclara que la guerre biologique "pourrait effacer la distinction entre la guerre et la paix". Les autres formes de guerre ont un début et une fin - on sait clairement ce qui relève de la guerre et ce qui n'en relève pas. Une guerre biologique serait différente : "On ne sait pas ce qui se passe, ou alors on sait ce qui se passe mais ça se passe sans cesse."

Et les conséquences de la guerre biologique pourraient même être plus importantes que la destruction de masse ; les attaques via l'ADN pourraient modifier fondamentalement l'humanité. La FLI rend hommage à Matthew Meselson pour ses efforts visant à protéger non seulement la vie humaine mais aussi la définition même de l'humanité.

Selon l'astronome Lord Martin Rees, "Matt Meselson est un grand scientifique - et l'un des rares à s'être profondément engagé pour que le monde soit à l'abri des menaces biologiques. Il s'agit là d'un défi aussi important que le contrôle des armes nucléaires - et bien plus difficile à relever. Ses efforts soutenus et dévoués méritent pleinement une plus large reconnaissance."

Le 9 avril 2022, le Dr Matthew Meselson a reçu le prix Future of Life, d'une valeur de 50 000 dollars, lors d'une cérémonie organisée dans le cadre de la conférence sur les affaires mondiales de l'université de Boulder. Le Dr Meselson a été l'une des forces motrices de la Convention sur les armes biologiques de 1972, une interdiction internationale qui a empêché l'une des formes de guerre les plus inhumaines que connaisse l'humanité. Le 9 avril a marqué la veille du 47e anniversaire de la convention.

La longue carrière de M. Meselson est jalonnée de moments forts : la confirmation de l'hypothèse de Watson et Crick sur la structure de l'ADN, la résolution du mystère de l'anthrax de Sverdlovsk, l'arrêt de l'utilisation de l'agent orange au Viêt Nam. Mais c'est surtout son travail sur les armes biologiques qui fait de lui un héros international.

"Par son travail aux États-Unis et au niveau international, Matt Meselson a été l'un des principaux précurseurs de la convention sur les armes biologiques de 1972", a déclaré Daniel Feakes, chef de l'unité de soutien à la mise en œuvre de la convention sur les armes biologiques. "Le traité interdit les armes biologiques et compte aujourd'hui 182 États membres. Depuis lors, il n'a cessé d'être le gardien de la BWC. L'avertissement qu'il a lancé en 2000 sur le potentiel d'exploitation hostile de la biologie a préfiguré bon nombre des avancées technologiques dont nous sommes aujourd'hui témoins dans les sciences de la vie et les réponses qui ont été adoptées depuis."

M. Meselson a commencé à s'intéresser aux armes biologiques dans les années 60, alors qu'il travaillait pour l'Agence américaine de contrôle des armements et du désarmement. C'est lors d'une visite de Fort Detrick, où les États-Unis fabriquaient alors de l'anthrax, qu'il a appris ce qu'il en éltait du développement des armes biologiques : elles étaient moins chères que les armes nucléaires. M. Meselson fut frappé, dit-il, par l'illogisme de ce raisonnement : diminuer le coût de production des ADM serait un risque évident pour la sécurité nationale.

"Aujourd'hui, la biotechnologie est une force du bien dans le monde, associée au fait de sauver plutôt que de prendre des vies, parce que Matthew Meselson a contribué à tracer une ligne rouge claire entre les utilisations acceptables et inacceptables de la biologie", ajoute Max Tegmark, professeur au MIT et président de la FLI. "C'est une source d'inspiration pour ceux qui veulent tracer une ligne rouge similaire entre les utilisations acceptables et inacceptables de l'intelligence artificielle et interdire les armes autonomes létales".

Auteur: Internet

Info: https://futureoflife.org/2019/04/09

[ sagesse ] [ responsabilité scientifique ] [ savants responsables ] [ gratitude ]

 

Commentaires: 0

Ajouté à la BD par miguel

science mystique

Science de l'ADN, ce que les chercheurs russes ont découvert de manière surprenante...

Des scientifiques russes pensent pouvoir reprogrammer l'ADN humain à l'aide de mots et de fréquences.

La science de l'ADN semble enfin expliquer des phénomènes auparavant mystérieux tels que la clairvoyance ... l'intuition ... la guérison mains libres ... la lumière et les auras "surnaturelles" ... et bien d'autres choses encore. Ces découvertes sont à mettre au crédit de chercheurs russes, qui se sont aventurés sur le terrain de l'ADN que les chercheurs occidentaux n'avaient pas envisagé. Les scientifiques occidentaux limitant leurs études aux 10 % de notre ADN responsables de la construction des protéines. Cela signifie qu'ils ont considéré les 90 % restants de l'ADN comme des "déchets" (junk).

AInsi, une équipe russe innovante, dirigée par le biophysicien et biologiste moléculaire Pjotr Garjajev, a refusé d'accepter qu'une si grande majorité de l'ADN puisse n'avoir aucune valeur pour la recherche. Pour percer les mystères de ce terrain inconnu, ils ont associé des linguistes à des généticiens dans le cadre d'une étude non conventionnelle visant à tester l'impact des vibrations et du langage sur l'ADN humain. Ce qu'ils ont découvert est tout à fait inattendu : notre ADN stocke des données comme le système de mémoire d'un ordinateur. De plus, notre code génétique utilise des règles de grammaire et une syntaxe qui reflètent étroitement le langage humain ! Ils ont également constaté que même la structuration des paires ADN-alcaline suit une grammaire régulière et des règles établies. Il semble que toutes les langues humaines soient simplement des verbalisations de notre ADN.

Modifier l'ADN en prononçant des mots et des phrases

Le plus étonnant, c'est que l'équipe a découvert que l'ADN humain vivant peut être modifié et réorganisé via des des mots et des phrases. La clé de la modification de l'ADN par des mots et des phrases réside dans l'utilisation de la bonne fréquence. Grâce à l'application de fréquences radio et lumineuses modulées, les Russes ont pu influencer le métabolisme cellulaire et même remédier à des défauts génétiques. L'équipe a obtenu des résultats incroyables en utilisant les vibrations et le langage. Par exemple, ils ont réussi à transmettre des modèles d'information d'un ensemble d'ADN vers un autre.

Ils ont même réussi à reprogrammer des cellules pour qu'elles adoptent un autre génome : ils ont transformé des embryons de grenouille en embryons de salamandre sans utiliser le moindre scalpel ou faire une seule incision. Les travaux des Russes prouvent scientifiquement pourquoi les affirmations et l'hypnose ont des effets si puissants sur les êtres humains. Notre ADN est intrinsèquement programmé pour réagir au langage.

Les enseignants ésotériques et spirituels le savent depuis longtemps. Toutes les formes d'affirmations et de "pouvoir de la pensée" découlent en partie de ce principe sous-jacent. La recherche russe permet également d'expliquer pourquoi ces techniques ésotériques n'ont pas le même succès pour tous ceux qui les utilisent. Étant donné qu'une "communication" claire avec l'ADN nécessite une fréquence correcte, les personnes dont les processus intérieurs sont plus développés seront plus à même de créer un canal de communication conscient avec l'ADN. Les personnes dont la conscience est plus développée auront moins besoin d'un quelconque appareil (pour appliquer des fréquences radio ou lumineuses). Les spécialistes de cette science pensent qu'avec la conscience, les gens peuvent obtenir des résultats en utilisant uniquement leurs propres mots et pensées.

ADN et intuition : Comment fonctionne l'"hypercommunication" et pourquoi l'homme pourrait être en mesure de la récupérer

Les scientifiques russes ont également trouvé une base ADN en rapport avec le phénomène de l'intuition - ou "hypercommunication". L'hypercommunication est le terme utilisé pour décrire les situations dans lesquelles une personne accède soudainement à des informations hors de sa base de connaissances personnelle. À notre époque, ce phénomène est devenu de plus en plus rare. Cela est probablement dû au fait que les trois principaux facteurs qui empêchent l'hypercommunication (le stress, l'anxiété et l'hyperactivité cérébrale) sont devenus très répandus. Pour certaines créatures, comme les fourmis, l'hypercommunication fait partie intégrante de l'existence quotidienne. Saviez-vous que lorsqu'une reine est physiquement retirée de sa colonie, ses sujets continuent à travailler et à construire selon le plan prévu ? En revanche, si elle est tuée, le but du travail des fourmis disparait et leur activité en ce sens s'arrête instantanément. Apparemment, tant que la reine est en vie, elle peut accéder à la conscience de groupe de sa colonie grâce à l'hypercommunication.

Maintenant que les Russes tentent de démêler les fondements biologiques de l'hypercommunication, les humains pourraient être en mesure de retrouver l'usage de cette compétence. Ils ont découvert que notre ADN peut produire des "vortex magnétisés". Ces vortex magnétisés sont des versions miniatures des ponts qui se forment près des étoiles en fin de vie (nommés ponts d'Einstein-Rosen). Les ponts d'Einstein-Rosen relient différentes zones de l'univers et permettent la transmission d'informations en dehors de l'espace et du temps. Si nous étions capables d'activer et de contrôler consciemment ces connexions, nous pourrions utiliser notre ADN pour transmettre et recevoir des informations du réseau de données de l'univers. Nous pourrions également entrer en contact avec d'autres participants au réseau. Les découvertes de la science et de la recherche russes sur l'ADN sont si révolutionnaires qu'elles paraissent vraiment incroyables. Pourtant, nous disposons déjà d'exemples isolés d'individus qui ont maîtrisé les techniques nécessaires, au moins à un certain niveau. Les personnes qui ont réussi à pratiquer la guérison à distance et la télépathie sont des exemples à prendre en considération. Selon de nombreuses personnes qui s'intéressent activement à ces recherches russes sur l'ADN, ces résultats reflètent les changements majeurs qui se produisent sur notre Terre, dans notre soleil et dans notre galaxie. Ces changements affectent l'ADN humain et élèvent la conscience d'une manière que nous ne comprendrons peut-être que dans un avenir lointain.   

Auteur: Internet

Info: https://undergroundhealthreporter.com, july 2023

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

biochimie

La découverte d'une nouvelle activité électrique au sein des cellules pourrait modifier la façon dont les chercheurs envisagent la chimie biologique.

Le corps humain est fortement tributaire des charges électriques. Des impulsions d'énergie semblables à des éclairs traversent le cerveau et les nerfs, et la plupart des processus biologiques dépendent des ions électriques qui voyagent à travers les membranes de chaque cellule de notre corps.

Ces signaux électriques sont possibles, en partie, en raison d'un déséquilibre entre les charges électriques présentes de part et d'autre d'une membrane cellulaire. Jusqu'à récemment, les chercheurs pensaient que la membrane était un élément essentiel pour créer ce déséquilibre. Mais cette idée a été bouleversée lorsque des chercheurs de l'université de Stanford ont découvert qu'un déséquilibre similaire des charges électriques pouvait exister entre des microgouttelettes d'eau et d'air.

Aujourd'hui, des chercheurs de l'université Duke ont découvert que ces types de champs électriques existent également à l'intérieur et autour d'un autre type de structure cellulaire appelée condensats biologiques. Comme des gouttelettes d'huile flottant dans l'eau, ces structures existent en raison de différences de densité. Elles forment des compartiments à l'intérieur de la cellule sans avoir besoin de la limite physique d'une membrane.

Inspirés par des recherches antérieures démontrant que les microgouttelettes d'eau interagissant avec l'air ou des surfaces solides créent de minuscules déséquilibres électriques, les chercheurs ont décidé de voir s'il en était de même pour les petits condensats biologiques. Ils ont également voulu voir si ces déséquilibres déclenchaient des réactions d'oxygène réactif, "redox"*comme dans ces autres systèmes.

Publiée le 28 avril dans la revue Chem, leur découverte fondamentale pourrait changer la façon dont les chercheurs envisagent la chimie biologique. Elle pourrait également fournir un indice sur la manière dont les premières formes de vie sur Terre ont exploité l'énergie nécessaire à leur apparition.

"Dans un environnement prébiotique sans enzymes pour catalyser les réactions, d'où viendrait l'énergie ?" s'interroge Yifan Dai, chercheur postdoctoral à Duke travaillant dans le laboratoire d'Ashutosh Chilkoti, professeur émérite d'ingénierie biomédicale.

"Cette découverte fournit une explication plausible de l'origine de l'énergie de réaction, tout comme l'énergie potentielle communiquée à une charge ponctuelle placée dans un champ électrique", a déclaré M. Dai.

Lorsque des charges électriques passent d'un matériau à un autre, elles peuvent produire des fragments moléculaires qui peuvent s'apparier et former des radicaux hydroxyles, dont la formule chimique est OH. Ceux-ci peuvent ensuite s'apparier à nouveau pour former du peroxyde d'hydrogène (H2O2) en quantités infimes mais détectables.

"Mais les interfaces ont rarement été étudiées dans des régimes biologiques autres que la membrane cellulaire, qui est l'une des parties les plus essentielles de la biologie", a déclaré M. Dai. "Nous nous sommes donc demandé ce qui pouvait se passer à l'interface des condensats biologiques, c'est-à-dire s'il s'agissait également d'un système asymétrique.

Les cellules peuvent construire des condensats biologiques pour séparer ou piéger certaines protéines et molécules, afin d'entraver ou de favoriser leur activité. Les chercheurs commencent à peine à comprendre comment fonctionnent les condensats** et à quoi ils pourraient servir.

Le laboratoire de Chilkoti étant spécialisé dans la création de versions synthétiques de condensats biologiques naturels, les chercheurs ont pu facilement créer un banc d'essai pour leur théorie. Après avoir combiné la bonne formule d'éléments constitutifs pour créer des condensats minuscules, avec l'aide de Marco Messina, chercheur postdoctoral dans le groupe de Christopher J. Chang, les chercheurs ont pu créer un banc d'essai pour leur théorie. Christopher J. Chang à l'université de Californie-Berkeley, ils ont ajouté au système un colorant qui brille en présence d'espèces réactives de l'oxygène.

Leur intuition était la bonne. Lorsque les conditions environnementales étaient réunies, une lueur solide est apparue sur les bords des condensats, confirmant qu'un phénomène jusqu'alors inconnu était à l'œuvre. Dai s'est ensuite entretenu avec Richard Zare, professeur de chimie à Stanford (Marguerite Blake Wilbur), dont le groupe a établi le comportement électrique des gouttelettes d'eau. Zare a été enthousiasmé par le nouveau comportement des systèmes biologiques et a commencé à travailler avec le groupe sur le mécanisme sous-jacent.

"Inspirés par des travaux antérieurs sur les gouttelettes d'eau, mon étudiant diplômé, Christian Chamberlayne, et moi-même avons pensé que les mêmes principes physiques pourraient s'appliquer et favoriser la chimie redox, telle que la formation de molécules de peroxyde d'hydrogène", a déclaré M. Zare. "Ces résultats expliquent pourquoi les condensats sont si importants pour le fonctionnement des cellules.

"La plupart des travaux antérieurs sur les condensats biomoléculaires se sont concentrés sur leurs parties internes", a déclaré M. Chilkoti. "La découverte de Yifan, selon laquelle les condensats biomoléculaires semblent être universellement redox-actifs, suggère que les condensats n'ont pas simplement évolué pour remplir des fonctions biologiques spécifiques, comme on le pense généralement, mais qu'ils sont également dotés d'une fonction chimique essentielle pour les cellules.

Bien que les implications biologiques de cette réaction permanente au sein de nos cellules ne soient pas connues, Dai cite un exemple prébiotique pour illustrer la puissance de ses effets. Les centrales de nos cellules, appelées mitochondries, créent de l'énergie pour toutes les fonctions de notre vie grâce au même processus chimique de base. Mais avant que les mitochondries ou même les cellules les plus simples n'existent, il fallait que quelque chose fournisse de l'énergie pour que la toute première fonction de la vie puisse commencer à fonctionner.

Des chercheurs ont proposé que l'énergie soit fournie par des sources thermales dans les océans ou des sources d'eau chaude. D'autres ont suggéré que cette même réaction d'oxydoréduction qui se produit dans les microgouttelettes d'eau a été créée par les embruns des vagues de l'océan.

Mais pourquoi pas par des condensats ?

"La magie peut opérer lorsque les substances deviennent minuscules et que le volume interfacial devient énorme par rapport à leur volume", a déclaré M. Dai. "Je pense que les implications sont importantes pour de nombreux domaines.

Auteur: Internet

Info: https://phys.org/news/2023-04, from Ken Kingery, Université de Duke. *réactions d'oxydoréduction. **les condensats biomoléculaires sont des compartiments cellulaires qui ne sont pas délimités par une membrane, mais qui s'auto-assemblent et se maintiennent de façon dynamique dans le contexte cellulaire

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Attention ce texte implique plusieurs pensées croisées.

Comme chacun sait, nous sommes formatés par notre éducation, l'environnement et ainsi de suite. Un peu comme les phrases, chapitres... livres...  peuvent être les niveaux d'échelles qui structurent les mots et la pensée de nos langages et de la littérature.

Comment en sortir ? Ensemble peut-être.

En termes de "réflexion personnelle commune" il semble que l'humain est, de manière générale, limité au niveau de la phrase ou de la formule. Tout simplement parce que la survie le demande. Dans l'action animale le cause-effet de la situation se passe vite, trop vite pour que l'individu isolé puisse développer sa réflexion.

Maintenant les hommes, touchons du bois, sont semble-t'il passés au-delà de l'individu et de sa survie immédiate. Ils ont pris le temps de réfléchir, ils développent ; voilà les philosophes et... le langage. Et, grâce à Internet, il est devenu possible de le faire de manière collective. Même si d'aucuns avancent que le langage, forcément anthropocentrique, nous éloigne de fait de la nature matrice source, ce que nous pensons aussi.

Qu'est-ce alors qu'une intelligence ensemble ? Carl Friedrich von Weizsäcker donne un début de réponse.

"La raison pratique sert la perception de ses propres intérêts, La raison théorique profonde celle de l'intérêt général."

Au départ de cette compilation FLP nous nous intéressions aux formules courtes (disons 5 mots en moyenne). Ensuite sont venus des extraits plus longs plus "littéraires", un peu comme l'a écrit Claudio Magris :

"L'Histoire dit les événements, la sociologie décrit les processus, la statistique fournit les chiffres, mais c'est la littérature qui les fait toucher du doigt, là où ils prennent corps et sang dans l'existence des hommes."

C'est ainsi que le langage écrit, témoignage par les mots de la réalité humaine, est maintenant mis en "réflexivité collective" via les "likes" et autres remarques que proposent d'innombrables web spots. Avec ce site nous tentons donc d'aller un peu plus loin puisque nous faisons en sorte qu'il se nourrisse de citations (étiquetées) par les surfeurs, ajouts modérés avant leur publication.

Aussi, développement supplémentaire, les participants inscrits peuvent lier certaines citations, ce qui permet souvent de comparer différentes formulations de la même idée (équation ?) et de ses varations.

Plus avant FLP offre la possibilité de développer des "chaines", ("Oh les beaux enfants") et même des chaines collectives. Voilà comment les choses avancent depuis plusieurs années.

Résultat évident à ce stade de cette expérience collective : "Plus une pensée courte est populaire, plus elle tient de l'axiome. Plus elle est longue, plus elle témoigne de la singularité de son auteur." 

Récapitulons :

Les formules/extraits sont tagués sur deux niveaux :

1) tag-chapitre, "catégorie" supposé être le plus généraliste, ce qui est déjà délicat à définir ! Il y a déjà ici une piste que nous allons développer pour le tag chapitre "catégorie" : établir sa pertinence via une auto-modération des participants. Nous y reviendrons.

2) tag simple, qui précise et oriente.

Ici aussi tout un chacun peut demander à modifier un étiquetage dont la pertinence pourra être discutée via une modération pyramidale.

3) les auteurs sont intégrés à la base de donnée avec 6 paramètres séparés (qui rendent "plus intelligente" la BD" et permettent de préciser une recherche)

A ce stade des "Fils de la pensée" on incitera le participant a déjà s'amuser à faire des recherches en combinant tags, auteurs, longueurs, périodes historiques, etc., ce qui est déjà énorme et complexe, mais surtout lui donnera une idée de comment "répond" le système.

Il faut aussi savoir qu'il y eut rapidement besoin d'améliorer l'indexage, ce qui amena à créer des tags/concepts moins imprécis : fond-forme, causes-effets, homme-machine, femmes-hommes, théorie-pratique, etc. Et aussi ensuite d'utiliser des mots/tags qui n'existent pas en français, nommés et recensés ici comme "intraduisibles".

Malgré tout, même précisé, un mot-tag reste porteur de plusieurs sens (terme-carrefour, métonymie) et peut signifier tout et son contraire en fonction du contexte et de l'agencement des phrases.

Apparraissent alors ce que nous nommons "méta-tags", une troisième catégorie, un peu à l'image du terme "Livre" dans la hiérarchie d'une bibliothèque, apparitions répétées de certaines combinaisons de tags. Combinaisons qui délimitent mieux une réflexion dont le champ est précisé, s'affinant, quand tout va bien, au sens philosophique du terme, avec les collaborations des participants.

Ainsi s'est établie une liste de doublons ou de triplettes de tags-mots-concepts, pistes qui se sont dessinées par répétition des passages (sont-ils des équations ) . En voici quelques exemples.

mort - omniprésence

conclure - illusion

amour - temps

mauvaise nouvelle - efficacité

survie - éthique

musique - langage

réconfort - ordre

enfance - imagination

protéger - affaiblir

être humain - quête

lecture - miroir

non-voyant - témoignage

femmes-par-femmes - amour etc., etc...

Exemples de triplettes :

complexité - vie - bouillonnement

humain - animal - particulier

réveil - naitre - réintégration

mentir - fuite - beaux-arts

motivation - transgression - jeunesse etc., etc...

On pourra bien évidemment complexifier à loisir tout ce qui précède mais il vaut mieux faire ici une pause. Il semble que c'est d'abord en se mettant d'accord via une modération (des participants actuellement, pyramidale bientôt ?) sur la moins mauvaise pertinence des mots-tags-chapitres d'une formule-citation, que nous établirons une base commune, un peu plus solide et moins aléatoire, pour avancer.

Pour l'instant ce sont les chaines et, dans une moindre mesure, les citations liées, qui clarifient un peu plus un mot-idée-concept - ou une phrase.

Ensuite, une fois ce groupe de réflexion collective mis en place, pourra peut-être venir le temps d'établir des "méta-tags" selon des critères à définir. Mais là nous sommes dans de la musique d'avenir. Concluons par trois questions dont les réponses, possibles sujets-chaines au sein même d'un telle tentative de réflexion collective, nous semblent importantes.

- Peut-on mélanger et structurer nos pensées et nos échelles de pensées "ensemble" sans faire ressortir de froides et imbéciles statistiques d'une société de consommation productiviste ?

- Comment éviter que la technologie ne conduise l'homme à se spécialiser dans l'humain, mais au contraire à l'aider à développer sa sagesse-tolérance et son ouverture aux autres espèces vivantes pour qu'il tente de trouver une plus juste place dans la réalité ?

- Avec la disparition du travail, comment conserver une motivation forte chez les individus si la problématique de survie immédiate disparaît ?

Auteur: Mg

Info: 2012, 2013, 2014, 2015, 2016, 2017, 2021, 2022

[ quête ] [ classification ] [ structuration ] [ taxinomie ] [ ranger ] [ taxonomie ] [ langage consensus vs singularités biologiques ] [ objectivités vs subjectivités ]

 

Commentaires: 0

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

polémique évolutionniste

L'épigénétique, qui existe depuis 50 ans, n'est pas un nouvel acteur majeur de l'évolution. Dans la mesure où son importance avérée est d'ordre génétique. L'évolution culturelle et comportementale est un phénomène réel, mais ce n'est pas une évolution biologique.

Synthèse moderne

La variation génétique est aléatoire. Les mutations qui se produisent n'améliorent pas nécessairement la condition physique. Si les mutations donnent lieu à des caractéristiques qui améliorent la capacité des organismes à survivre et à prospérer, il s'agit d'un simple hasard.

Synthèse évolutionniste élargie (Laland)

La variation phénotypique n'est pas aléatoire. Les individus se développent en réponse aux conditions locales, de sorte que les nouvelles caractéristiques qu'ils possèdent sont souvent bien adaptées à leur environnement.

Presque toute l'évolution est finalement due à une mutation d'une sorte ou d'une autre. Nombreux sont ceux qui pensent que le hasard des mutations est le thème dominant de l'évolution. L'affirmation concernant la synthèse moderne est parfaitement correcte, en première approximation. (On peut ergoter sur les détails.)

L'idée que les phénotypes changent en fonction des conditions locales - par exemple, l'opéron lac s'exprime en présence de lactose - n'est guère révolutionnaire et n'exige pas de changement dans notre compréhension de la théorie moderne de l'évolution.

Synthèse moderne

L'évolution se produit généralement par le biais de multiples petites étapes, conduisant à un changement graduel. C'est parce qu'elle repose sur des changements progressifs provoqués par des mutations aléatoires.

Synthèse évolutive élargie (Laland)

L'évolution peut être rapide. Les processus de développement permettent aux individus de répondre aux défis environnementaux ou aux mutations par des changements coordonnés dans des ensembles de traits.

Est-il possible que Kevin Laland ignore totalement le débat sur le gradualisme, l'hybridation, la symbiose, le transfert horizontal de gènes, les mutations homéotiques, la saltation et les macromutations ? Est-il possible qu'il n'ait jamais pensé aux équilibres ponctués et à la théorie hiérarchique ?

Il est vrai que les vues démodées d'Ernst Mayr et compagnie ("Synthèse moderne") rejetaient toutes ces idées, mais l'évolution a évolué depuis les années 1950. Elle ne se limite plus à de petites étapes graduelles.

Les "révolutionnaires" pensent que les mutations peuvent être dirigées dans un but ultime. L'idée de base d'une augmentation des taux de mutation dans certaines conditions est débattue activement depuis très longtemps (avant 1996). On ne pense pas qu'il s'agisse d'une caractéristique majeure de l'évolution, sauf dans le sens d'une augmentation du taux de mutations "aléatoires".

Synthèse moderne

La perspective est centrée sur les gènes : l'évolution nécessite des changements dans la fréquence des gènes par le biais de la sélection naturelle, de la mutation, de la migration et de la perte aléatoire de variantes génétiques.

Synthèse évolutionniste élargie

La perspective est centrée sur l'organisme, avec des conceptions plus larges des processus évolutifs. Les individus s'adaptent à leur environnement au fur et à mesure qu'ils se développent et modifient les pressions de sélection.

Cette description de la synthèse moderne est la seule fois où j'ai vu Kevin Laland mentionner quelque chose qui ressemble à la dérive génétique aléatoire. Cela ne fait manifestement pas partie de sa vision normale du monde.

Je reconnais que la théorie moderne de l'évolution est "centrée sur les gènes" à cet égard. C'est parce que nous DÉFINISSONS l'évolution comme un changement dans la fréquence des allèles au sein d'une population. Je ne sais pas ce que cela signifie de passer à un point de vue "centré sur l'organisme" comme le décrit Laland. Il est certainement vrai que les cyanobactéries individuelles s'adaptent à leur environnement au fur et à mesure qu'elles grandissent et se développent, et il est certainement vrai qu'elles peuvent modifier l'environnement. Dans le cas présent, elles ont provoqué une augmentation des niveaux d'oxygène qui a affecté toutes les espèces vivantes.

Les cyanobactéries ont évolué pour s'adapter à leur environnement par le biais de mutations aléatoires et de changements dans la fréquence des allèles au sein de la population, en partie sous l'effet de la sélection. Beaucoup d'entre elles se sont éteintes. En quoi est-ce un changement dans notre vision de l'évolution ?

Synthèse moderne

Les processus micro-évolutifs expliquent les schémas macro-évolutifs. Les forces qui façonnent les individus et les populations expliquent également les changements évolutifs majeurs au niveau des espèces et au-delà.

Synthèse évolutionniste élargie

D'autres phénomènes expliquent les changements macro-évolutifs en augmentant l'évolutivité, c'est-à-dire la capacité à générer une diversité adaptative. Il s'agit notamment de la plasticité du développement et de la construction de niches.

L'un des principes de base de la synthèse moderne était que la macroévolution peut être expliquée efficacement comme étant simplement une multitude de microévolutions cumulatives. Les manuels modernes de biologie évolutive abordent d'autres caractéristiques de la macroévolution qui nécessitent un apport supplémentaire, notamment en ce qui concerne la spéciation. La vieille idée selon laquelle la microévolution suffit à expliquer la macroévolution n'est plus un axiome en biologie évolutive, et ce depuis plusieurs décennies [voir Macroévolution].

Les manuels modernes traitent de toutes sortes de choses qui influencent l'histoire à long terme de la vie (= macroévolution). Des éléments tels que les extinctions massives, la stase, la spéciation allopatrique, les contraintes, etc. L'évolutivité a été activement débattue pendant un demi-siècle et elle est bien couverte dans la plupart des manuels. (Voir Futuyma, 2e édition, p. 599). L'évolutivité n'est pas une idée nouvelle qui va révolutionner la théorie de l'évolution. En fait, le consensus, après de nombreux débats et discussions, est que l'évolutivité échoue sur les bancs de la téléologie. La théorie ne résiste tout simplement pas à un examen approfondi.

La sélection organisationnelle pour des caractéristiques qui confèrent un succès reproductif différentiel dans le moment écologique ne peut tout simplement pas générer, de manière active ou directe, un ensemble de caractéristiques qui n'acquièrent une importance évolutive qu'en conférant une flexibilité pour des changements dans un avenir lointain. Nous ne pouvons pas nier que ces caractéristiques d'évolutivité "comptent" profondément dans l'histoire des lignées ; mais comment des avantages pour l'avenir peuvent-ils découler d'un processus causal ici et maintenant ? (Gould, 2002 p. 1274)

Il est malhonnête de laisser entendre, dans un article destiné au lecteur moyen, qu'un sujet comme l'évolutivité est récent et n'a pas été examiné en profondeur, et rejeté, dans la littérature théorique sur l'évolution. Il en va de même pour les concepts de plasticité et de construction de niche. Ce ne sont pas des concepts nouveaux. Les experts compétents en matière d'évolution - ceux qui ont lu et écrit les manuels - ont examiné ces idées et les ont rejetées en tant que facteurs majeurs de la théorie de l'évolution.

Kevin Laland peut ne pas être d'accord avec ces analyses, mais en tant que scientifique, il a l'obligation de les mentionner au moins lorsqu'il écrit des articles promouvant un changement radical de la théorie de l'évolution. Il a la responsabilité de déclarer sa partialité.

Mais je fais une supposition qui n'est peut-être pas justifiée. Peut-être ne sait-il pas que ses opinions ont déjà été débattues, discutées et, pour la plupart, rejetées. Dans ce cas, son omission n'est pas due au fait qu'il induit délibérément ses lecteurs en erreur au sujet de la controverse. Il y a une autre raison.

1. L'accent mis sur les changements héréditaires (allèles) fait partie de la définition minimale actuelle de l'évolution. Elle est très différente de la perspective du "gène égoïste" défendue par Richard Dawkins. Ceux qui ne voient pas la différence ne sont tout simplement pas attentifs.

2. Je me demande comment "l'évolution culturelle" fonctionne chez les cyanobactéries et les érables ? Les principaux participants à la réunion de la Royal Society ont un penchant extrême pour l'évolution des organismes multicellulaires complexes - essentiellement des animaux et surtout des mammifères. Cela influence grandement leur point de vue sur l'évolution. Ils ont tendance à utiliser des exemples qui ne s'appliquent qu'à l'espèce qui les intéresse comme des leviers pour faire basculer l'ensemble de la théorie de l'évolution.

King, J. L., et Jukes, T. H. (1969) Non-darwinian evolution. Science, 164:788-798. PDF (en anglais)

Auteur: Moran Laurence A.

Info: A propos de la nouvelle vision de l'évolution de Kevin Laland, 4 décembre 2016

[ tâtonnements ] [ biogénétique ] [ auto-domestication ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

L'esprit pourrait affecter les machines selon les sexes
Pendant 26 ans, des conversations étranges ont eu lieu dans un laboratoire du sous-sol de l'université de Princeton. On utilise des ordinateurs au rendement aléatoire et les expériences font se concentrer des participants sur le contrôle d'une ou de plusieurs machines. Après plusieurs million d'épreuves on peut détecter de petits signes "statistiquement significatifs" comme quoi les esprits semblent pouvoir agir sur les machines. Cependant les chercheurs font attention à ne pas annoncer que les esprits ont cet effet ou qu'ils connaissent la nature de cette communication.
Les services secrets, la défense et les agences de l'espace ont également montré de l'intérêt pour cette recherche. Le premier support que les chercheurs ont employé était un bruit aléatoire à haute fréquence. Les chercheurs ont branché des circuits au dispositif pour traduire ce bruit en code binaire. Chaque participant, après un protocole pré-enregistré, devait développer une intention dans son esprit pour faire que le générateur ait plus ou moins de zéros. Les effets furent faibles mais mesurables. Depuis les mêmes résultats se sont reproduits avec d'autres expériences, telles qu'en impliquant un pendule relié à un mécanisme commandé par ordinateur. Quand la machine libère le pendule pour qu'il se balance, les participants se concentrent sur modifier le taux avec lequel le pendule ralentit. D'autres expériences impliquent une machine à tambour que les participants essayent de commander et une machine de cascade mécanique dans laquelle un dispositif laisse tomber des milliers de petites boules noires de polystyrène, le but est que ces boules tombent dans une rangée de fentes. Les participants essayent alors de les diriger pour les faire tomber d'un côté de ou de l'autre. Au final les participants ont pu "diriger " un bit sur 10.000 issus des données mesurées dans tous les essais. Ce qui pourrait sembler petit, mais le doyen Radin, scientifique à l'institut des sciences de Noetic et ancien chercheur aux laboratoires Bell et de AT&T, dit que c'était prévisible. Radin compare l'état actuel de cette recherche avec celui où les scientifiques commencèrent à étudier l'électricité statique et ne surent pas, au début, que les niveaux d'humidité pouvaient affecter la quantité de l'électricité statique produite.
Les chercheurs ne comprennent pas grand-chose sur ce phénomène, mais ils savent que les résultats ne sont pas affectés par la distance ou le temps. Les participants, par exemple, peuvent avoir le même impact sur une machine de l'extérieur de la salle ou d'ailleurs dans le pays. Ils peuvent également avoir le même effet s'ils ont une intention avant qu'elle soit allumée ou même s'ils lisent un livre ou écoutent la musique tandis alors que la machine fonctionne. Les conditions environnementales - telles que la température ambiante - n'importent pas, mais l'humeur et l'attitude des gens qui contrôlent l'appareil oui. Cela aide, si par exemple le participant croit qu'il peut affecter la machine. Jahn dit que la résonance avec la machine est un autre facteur important. Il la compare à ce qui se produit quand un grand musicien semble faire un avec son violon. Le sexe importe aussi. Les hommes tendent à obtenir des résultats assortis à leurs intentions, bien que le degré de l'effet soit souvent petit. Les femmes tendent à obtenir un plus grand effet, mais pas nécessairement celui qu'elles prévoient. Par exemple, elles voudraient diriger des boules dans la machine aléatoire de cascade pour une chute vers la gauche, mais elles tombent plutôt vers la droite. Les résultats qui sont également plus grands si un mâle et une femelle travaillent ensemble, les couple de même sexe ne produisent aucun résultat significatif. Les couple de sexe opposé qui sont impliqué de manière romantique donnent de bien meilleurs résultats - souvent sept fois plus grands que quand les mêmes individus sont examinés seuls.
Brenda Dunne, psychologue développementaliste et directrice du laboratoire dit que dans ces cas les résultats reflètent souvent le styles des deux modèles de sexes. Les effets sont plus grands, en accord avec ce que seule la femelle tendrait à produire, et plus ciblés, en accord avec ce que seul le mâle produirait.
"C'est presque comme si il y avait deux modèles ou deux variables et qu'elles étaient complémentaires" dit Dunne." le modèle masculin est associé à l'intention, le modèle féminin est plus associé à la résonance."
Que signifie tout ceci ? Personne ne le sait. Radin et Jahn indiquent que ce n'est pas parce qu'il y a une corrélation entre l'intention du participant et les actions de la machine que cela signifie qu'un cause l'autre. " Il y a une inférence (qui les deux sont connexes) mais aucune évidence directe" dit Radin qui indique que le phénomène pourrait être semblable à l'indétermination d'Heisenberg dans lequel deux particules séparées l'une de l'autre semblent être reliées sans qu'on sache comment... sous quelle forme de communication.
"la différence est nous ne parlons pas en envoyant des signaux du cerveau à la machine par un circuit" dit Jahn au sujet de ces essais. "quoi qu'il se passe, se passe par un itinéraire que nous ne connaissons pas. Nous savons seulement quelque chose au sujet des conditions qui la favorisent.." Bien que les effets produits dans ces expériences soient faibles, ils ont toujours été répétés, cependant pas toujours de façon prévisible. Un participant peut avoir un effet un jour et répéter l'expérience le jour suivant sans résultats.
Le laboratoire a beaucoup de détracteurs qui pointent sur des défauts de la méthode et écartent ce travail le traitant de divertissement, comparant ses résultats aux automobilistes qui souhaitent qu'une lumière rouge passe au vert et pensent que le changement de lumière est causé par eux.
Stanley Jeffers, professeur de physique à l'université d'York à Toronto, a tenté des expériences semblables, mais il ne put pas répliquer les résultats. Les chercheurs de deux laboratoires allemands, fonctionnant en coopération avec Pegg, ne purent également pas répliquer ces résultats à l'aide du même équipement utilisé par Pegg.
"Si leurs annonces veulent être prises au sérieux par la science elles doivent être répliquées" dit Jeffers. "Si elles ne peuvent pas être répliquées, cela ne signifie pas qu'elles sont fausses, mais la science y perdra rapidement son intérêt."
Dunne, psychologue développementaliste dit que Pegg a répété ses propres expériences et a obtenu des résultats significatifs. Et ces méta-analyses - une douzaine - faites depuis les années 80 ont donné une base pour les résultats de Pegg dans les expériences faites par d'autres chercheurs. La Méta-analyse utilise de grands stocks de données à travers de beaucoup d'expériences et les combine statistiquement pour voir si les effets répètent la même combinaison. "Nous analysons les déviations statistiques par rapport à la chance au travers de cette batterie d'expériences" dit Jahn... "quand on fait assez de ces expériences, les effets analysés ont un poids statistique. Il n'y a aucun doute sur la validité de ces effets."
Radin, qui n'est pas affilié au Pegg, écarte les critiques qui disent que ce groupe ne pratique pas de science solide. "Ce domaine a reçu bien plus d'examen minutieux et critique que beaucoup d'autres, ordinaires... les personnes qui font ce genre de recherche sont bien conscientes du fait que leur recherche doit être faite au mieux. Le laboratoire de Pegg a pris les meilleurs principes de science rigoureuse et s'est appliqué a des questions extrêmement difficiles et a proposé quelques jolies réponses intéressantes."
Jahn pense que les critiques s'attendent à ce que les phénomènes suivent les règles habituelles de la cause et de l'effet. Au lieu de cela, il pense qu'ils appartiennent à la catégorie de ce que Karl Jung a appelé "des phénomènes acausal," qui incluent des choses comme la synchronicité. "Cela se joue par des règles plus compliquées, plus lunatiques, évasives... ... mais cela joue." dit Jahn
Jeffers est sceptique " cela ne peut se passer de deux manières - dire qu'on est des scientifiques honorables et avoir des affirmations pour un effet particulier dans des conditions contrôlées, et ensuite quand les résultats ne marchent pas, dire que les méthodes scientifiques rigoureuses ne s'appliquent pas." Mais Jahn dit que justement que puisque que les scientifiques ne peuvent pas expliquer ces phénomènes cela ne signifie pas qu'ils ne sont pas vrais. "si ces choses existent... je pense que notre société a le droit de demander à la science d'y faire attention et de fournir un certain outillage pour avoir affaire avec de manière constructive.

Auteur: Zetter Kim

Info: Juillet 2005, Fortean Times

[ mâles-femelles ] [ vus-scientifiquement ] [ parapsychologie ] [ femmes-hommes ]

 

Commentaires: 0

géopolitique

L’Allemagne était [au début du 16e siècle] un pays sans unité : voilà l’essentiel. Il y avait, nombreux, forts, actifs, des Allemands, beaucoup d’Allemands parlant des dialectes voisins les uns des autres, ayant dans une large mesure des mœurs, des usages, des façons d’être et de penser communes. Ces Allemands formaient une "nation" au sens médiéval du mot. Ils n’étaient point groupés, tous, solidement, dans un État bien unifié et centralisé, corps harmonieux aux mouvements commandés par un unique cerveau.

Dans une Europe qui, partout, s’organisait autour des rois, l’Allemagne restait sans souverain national. Il n’y avait pas de roi d’Allemagne, comme il y avait, et depuis bien longtemps, un roi de France, un roi d’Angleterre, riches, bien servis, prestigieux, et sachant rallier aux heures de crise toutes les énergies du pays autour de leur personne et de leur dynastie. Il y avait un empereur, qui n’était plus qu’un nom, et un Empire qui n’était plus qu’un cadre. Dans ce cadre démesuré, le nom, le trop grand nom écrasait de son poids un homme faible, un homme pauvre — parfois un pauvre homme — qu’un vote, disputé comme un marché de foire, élevait finalement à la dignité suprême, mais impuissante.

En un temps où se révélait la valeur de l’argent, au temps décrit dans le livre classique d’Ehrenberg, l’empereur en tant que tel était un indigent. De son Empire il ne tirait plus rien de substantiel. La valeur d’une noisette, disait Granvelle — moins que, de leur évêché, certains évêques allemands. Fondus, les immenses domaines impériaux qui avaient fait la force des Saxons et des Franconiens. Concédés, aliénés, usurpés les droits régaliens, les droits de collation, tout ce qui aurait pu nourrir un budget régulier. Et cependant, plus que tout autre souverain de son temps, le prince au titre retentissant mais à qui les diètes, s’ingéniant, refusaient tout subside, aurait eu pour agir besoin d’être riche. Car, titulaire d’une dignité éminente et qui ne se transmettait pas, comme un royaume, par hérédité ; né d’un vote en faveur d’un prince chrétien qui n’était pas plus obligatoirement allemand que le pape n’était forcément italien   — l’empereur, courbé sous le poids d’une couronne lourde d’un trop lourd passé, devait courir partout, et veiller au monde en même temps qu’à l’Allemagne. Si, dans ce pays, son autorité de jour en jour périclitait — c’est que sa grandeur même empêchait d’agir ce souverain d’un autre âge. Elle le tenait enchaîné devant les véritables maîtres des pays germaniques : les princes, les villes.

Les princes avaient sur l’empereur une grande supériorité. Ils étaient les hommes d’un seul dessein. Et d’une seule terre. Ils n’avaient pas de politique mondiale à suivre, eux — pas de politique "chrétienne" à conduire. L’Italie ne les sollicitait pas. Ils ne dédaignaient point, certes, d’y faire de temps à autre un voyage fructueux. Mais ils n’allaient point là-bas, comme les empereurs, poursuivre des chimères vieillies ou d’illusoires mirages. Tandis que les Césars fabriqués à Francfort par les soins diligents de quelques-uns d’entre eux, se ruinaient en de folles et stériles aventures, une seule chose tenait les princes en souci : la fortune de leur maison, la grandeur et la richesse de leur dynastie. Précisément, à la fin du XVe siècle, au début du XVIe siècle, on les voit opérer un peu partout, en Allemagne, un vigoureux effort de concentration politique et territoriale. Plusieurs d’entre eux, profitant de circonstances favorables, de hasards heureux, s’employaient à constituer des états solides, moins morcelés qu’auparavant. Dans le Palatinat, en Wurtemberg, en Bavière, en Hesse, dans le Brandebourg et le Mecklembourg, ailleurs encore, la plupart des maisons qui, à l’époque moderne, joueront dans l’histoire allemande un rôle de premier plan, affirment dès le début du XVIe siècle une vigueur nouvelle et unifient leurs forces pour de prochaines conquêtes.

On va donc vers une Allemagne princière. On y va seulement. N’ayant point à sa tête de chef souverain vraiment digne de ce nom, l’Allemagne paraît tendre à s’organiser sous huit ou dix chefs régionaux, en autant d’états solides, bien administrés, soumis à un vouloir unique. Mais cette organisation, elle n’existe point encore. Au-dessus des princes il y a toujours l’empereur. Ils ne sont souverains que sous sa souveraineté. Et au-dessous d’eux, ou plutôt, à côté d’eux, il y a (pour ne point parler des nobles indisciplinés et pillards), les villes.

Les villes allemandes au seuil du XVIe siècle : une splendeur. Et telle, que les étrangers ne voient qu’elles lorsqu’ils visitent l’Allemagne, comme si l’éclat des cités éblouissait leurs yeux. Vingt capitales, chacune possédant en propre ses institutions, ses industries, ses arts, ses costumes, son esprit. Celles du Sud : l’Augsbourg des Fugger, porte d’entrée et de sortie du trafic italo-germain, préface pittoresque avec ses maisons peintes à fresque, du monde ultramontain. Mieux encore, Nuremberg, la patrie de Durer, de Fischer, d’Hans Sachs, de Martin Behaim, assise au pied de son Burg à mi-chemin entre Main et Danube. Mais celles du Nord aussi : l’industrieuse et réa-iste Hambourg, légère de scrupules et commençant sa magnifique ascension ; Lübeck, reine déjà déclinante de la Hanse ; Stettin, la ville du blé, et, tout au loin, Dantzig, ses vastes édifices, ses grandes églises de brique, enseignes d’une propriété sans défaillance. Sur le front oriental, Francfort-sur-l’Oder, entrepôt du trafic polonais ; Breslau, porte naturelle de la Silésie. Et à l’Ouest, sur le grand fleuve fougueux, la brillante pléiade des villes rhénanes, de Cologne à Bâle ; par-derrière, l’énorme marché francfortois ; et par-derrière encore Leipzig, un carrefour, au vrai cœur de cette Allemagne multiple. 

[…] Implantées au milieu des domaines princiers, elles [les villes] les trouent, les déchiquettent, limitent leur expansion, les empêchent de se constituer fortement. Elles-mêmes, peuvent-elles s’étendre ? Non. Se fédérer ? Non plus. Autour de leurs murailles, le plat pays : des campagnes soumises à un droit dont le droit de la ville est la négation. Là, sous des maîtres avides, des paysans incultes et grossiers, parfois misérables, prêts à se révolter et grondant sous le joug, étrangers en tout cas à la culture urbaine, si particuliers que les artistes peintres et graveurs ne se lassent pas de décrire leurs aspects sauvages, leurs mœurs primitives. Les villes veulent-elles s’entendre, collaborer ? Ce ne peut être que par-dessus de larges étendues, de vastes territoires hétérogènes qui contrastent avec elles, vigoureusement, en tout. Ces civilisations urbaines, si prestigieuses : des civilisations d’oasis. Ces villes : des prisonnières, vouées à l’isolement, et que guettent les princes, et qui se guettent l’une l’autre.

Leurs ressources, leurs richesses, à quoi vont-elles ? Aux arsenaux dont elles s’enorgueillissent, mais qui les ruinent. Aux canonniers, techniciens exigeants, qu’il faut payer très cher. Aux remparts, aux bastions sans cesse à réparer, parfois à modifier de fond en comble... Et encore, ces ressources, elles vont aux ambassades, aux missions diplomatiques lointaines, aux courriers sans cesse sur les hauts chemins et pour quelles randonnées furieuses ! Villes libres, elles payent leur liberté : trop cher. Car malgré tous les sacrifices, elles sont faibles, à la merci du prince qui s’installe sur le fleuve, en amont, en aval, pour barrer le trafic ; à la merci du hobereau qui les détrousse et les nargue, du haut de son nid d’aigle imprenable pour des milices bourgeoises, à la merci de la cité rivale, qui, rompant les accords, se retourne contre la voisine jalousée.

Faiblesse, sous des apparences de prospérité ; surprenante faiblesse politique contrastant avec tant de puissance économique. Ces cités si brillantes et qui offusquent de leur éclat nos villes françaises du temps, comme leurs bourgeois sont loin de ce sens national, de ce sens politique qui, aux époques de crise, groupe autour du roi toutes les bonnes villes de France empressées à maintenir Louis XI contre les hommes du Bien public, ou, contre les princes, Charles VIII ! Parties d’un tout bien ordonné, les cités françaises d’où la culture rayonne sur les campagnes qu’elles "urbanisent" à leur image. Les villes allemandes : des égoïsmes furieux, en lutte sans répit contre d’autres égoïsmes.

D’une telle situation, si fiers de leurs fortunes, de leur sens des affaires, de leurs belles réussites, les Allemands souffraient. Ils souffraient de ne former qu’un pays divisé, fait de pièces et de morceaux, sans chef, sans tête : un amalgame confus de villes autonomes et de dynasties plus ou moins puissants.

Auteur: Febvre Lucien

Info: Un destin : Martin Luther, PUF, 1968, pages 64 à 67

[ historique ] [ teutons ] [ renaissance ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson