Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 134
Temps de recherche: 0.0697s

médecine

Comment le cerveau participe au cancer

Des neurones voient le jour au sein même du microenvironnement tumoral, contribuant au développement du cancer. Ces cellules nerveuses dérivent de progéniteurs provenant du cerveau et sont acheminés via la circulation sanguine. Cette découverte étonnante ouvre la voie à tout un nouveau champ de recherche, relatif au rôle du système nerveux dans le développement des cancers et aux interactions entre les systèmes vasculaires, immunitaires et nerveux dans la tumorigenèse.

La production de nouveaux neurones est un événement plutôt rare chez l'adulte, cantonné à deux régions particulières du cerveau: le gyrus denté dans l'hippocampe et la zone sous-ventriculaire. Mais voilà que l'équipe Inserm Atip-Avenir dirigée par Claire Magnon* à l'Institut de Radiobiologie Cellulaire et Moléculaire, dirigé par Paul-Henri Roméo (CEA, Fontenay-aux-Roses), vient de montrer que ce phénomène se produit également en dehors du système nerveux central: dans les tumeurs !

En 2013, cette chercheuse avait déjà mis en évidence, dans des tumeurs de la prostate, que l'infiltration de fibres nerveuses, issues de prolongements d'axones de neurones préexistants, était associée à la survenue et à la progression de ce cancer. Depuis, d'autres études ont permis de confirmer le rôle inattendu, mais apparemment important, des fibres nerveuses dans le microenvironnement tumoral de nombreux cancers solides.

Soucieuse de comprendre l'origine du réseau neuronal tumoral, Claire Magnon a une idée surprenante: et si le réseau nerveux impliqué dans le développement des tumeurs provenait de nouveaux neurones se formant sur place ? Et dans ce cas, comment pourrait être initiée cette neurogenèse tumorale ?

Des cellules neurales souches dans les tumeurs
Pour tester cette hypothèse, Claire Magnon a étudié les tumeurs de 52 patients atteints de cancer de la prostate. Elle y a découvert des cellules exprimant une protéine, la doublecortine (DCX), connue pour être exprimée par les cellules progénitrices neuronales, lors du développement embryonnaire et chez l'adulte dans les deux zones du cerveau où les neurones se renouvellent. De plus, dans les tumeurs étudiées, la quantité de cellules DCX+ est parfaitement corrélée à la sévérité du cancer. "Cette découverte étonnante atteste de la présence de progéniteurs neuronaux DCX+ en dehors du cerveau chez l'adulte. Et nos travaux montrent qu'ils participent bien à la formation de nouveaux neurones dans les tumeurs", clarifie-t-elle.

Une migration du cerveau vers la tumeur
Pour déterminer l'origine de ces progéniteurs neuronaux, Claire Magon a utilisé des souris transgéniques, porteuses de tumeurs. Elle a quantifié les cellules DCX+ présentes dans les deux régions du cerveau où elles résident habituellement. Elle a alors constaté que, lors de l'établissement d'une tumeur, leur quantité est réduite dans l'une d'elles: la zone sous-ventriculaire. "Il y avait deux explications: soit les cellules DCX+ mourraient dans cette région sans qu'on en connaisse la cause, soit elles quittaient cette zone, ce qui pouvait expliquer leur apparition au niveau de la tumeur".

Différentes expériences ont montré que cette seconde hypothèse était la bonne avec la mise en évidence du passage des cellules DCX+ de la zone sous-ventriculaire du cerveau dans la circulation sanguine et de l'extrême similarité entre les cellules centrales et celles retrouvées dans la tumeur. "En pratique, nous constatons des anomalies de perméabilité de la barrière hématoencéphalique de la zone sous-ventriculaire chez les souris cancéreuses, favorisant le passage des cellules DCX+ dans le sang. Rien ne permet pour l'instant de savoir si ce problème de perméabilité précède l'apparition du cancer sous l'effet d'autres facteurs, ou si elle est provoquée par le cancer lui-même, via des signaux issus de la tumeur en formation.

Quoi qu'il en soit, les cellules DCX+ migrent dans le sang jusqu'à la tumeur, y compris dans les nodules métastatiques, où elles s'intègrent au microenvironnement. Là, elles se différencient en neuroblastes puis en neurones adrénergiques producteurs d'adrénaline. Or, l'adrénaline régule le système vasculaire et c'est probablement ce mécanisme qui favorise à son tour le développement tumoral. Mais ces hypothèses restent à vérifier".

Une piste thérapeutique
En attendant, cette recherche ouvre la porte à une nouvelle piste thérapeutique: De fait, des observations cliniques montrent que les patients atteints de cancer de la prostate qui utilisent des bêtabloquants (qui bloquent les récepteurs adrénergiques) à des fins cardiovasculaires, présentent de meilleurs taux de survie. "Il serait intéressant de tester ces médicaments en tant qu'anticancéreux" estime la chercheuse. Deux essais cliniques allant dans ce sens ont récemment ouvert aux Etats-Unis. De façon plus générale, "l'étude de ce réseau nerveux dans le microenvironnement tumoral pourrait apporter des réponses sur le pourquoi des résistances à certains traitements et favoriser le développement de nouveaux médicaments", conclut-elle.

Auteur: Internet

Info: www.techno-science.net, 17 mai 2019. *Laboratoire de Cancer et Microenvironnement, Equipe Atip-Avenir, UMR967 Inserm/IBFJ-iRCM-CEA/Université Paris 11/Université Paris Diderot, Fontenay-aux-Roses

 

Commentaires: 0

Ajouté à la BD par miguel

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

greenwashing

La découverte climatique de Zeller-Nikolov utilise les données officielles de la NASA pour quantifier les températures moyennes des corps satellites à surface dure en orbite autour de notre Soleil. La formule n’est pas applicable aux planètes gazeuses: Jupiter, Saturne, Uranus et Neptune. Zeller et Nikolov déclarent pouvoir déterminer la température moyenne à long terme de Vénus, de la Terre, de Mars, de Titan (une lune de Saturne) et de Triton (une lune de Neptune) en utilisant seulement deux valeurs informatives: leur distance au Soleil. et leur pression atmosphérique.

Zeller et Nikolov ont constaté que la composition gazeuse des atmosphères n’était pas essentielle pour déterminer les températures moyennes à long terme. Par exemple, l’atmosphère de Vénus est composée à 96,5% de dioxyde de carbone, alors que l’atmosphère terrestre ne contient que 0,04% de dioxyde de carbone, mais ces différences considérables n’ont aucune incidence sur les calculs mathématiques nécessaires pour déterminer les températures moyennes. Cette preuve mathématique nous dit que même si Vénus a 2412 fois plus de dioxyde de carbone que la Terre, mesurée en pourcentage de son atmosphère, le CO2 n’a aucun effet mesurable sur sa température moyenne à long terme. Zeller et Nikolov affirment que le dioxyde de carbone et tous les autres gaz atmosphériques ne contribuent à la température que par leur masse physique et la pression atmosphérique résultante.

La découverte de Zeller-Nikolov signifie que l’atmosphère de la Terre nous maintient au chaud grâce à un chauffage par compression de gaz sous le poids de l’atmosphère de la Terre, d’une épaisseur d’environ 300 milles, et non par effet de serre. Une serre réelle est entourée d’un mur de verre. La Terre n’a pas d’enceinte et est ouverte sur l’espace. Les deux scientifiques suggèrent donc de remplacer le terme "effet de serre" par "rehaussement thermique atmosphérique". La chaleur est créée en comprimant les gaz atmosphériques sous l’effet de la gravité. De même, dans un moteur diesel, un piston est utilisé pour comprimer les gaz afin de générer suffisamment de chaleur pour éliminer le besoin d’une bougie d’allumage. L’attraction gravitationnelle énorme exercée sur la masse énorme de l’atmosphère terrestre combinée au rayonnement solaire réchauffe notre planète suffisamment pour permettre aux formes de vie à base de carbone de s’épanouir.

Si le dioxyde de carbone était le puissant catalyseur de gaz à effet de serre que les alarmistes prétendent, les calculs de Vénus devraient être radicalement différents de ceux de la Terre, mais ils sont identiques. Cela nous indique que le CO2 n’a pas d’effet direct mesurable sur la température de la planète, ce qui est parfaitement logique puisque la Terre a connu de graves périodes glaciaires lorsque les niveaux de CO2 dans l’atmosphère étaient bien plus élevés qu’aujourd’hui.

La théorie des gaz à effet de serre basée sur le dioxyde de carbone Le scientifique suédois Svante Arrhenius, proposé pour la première fois en 1896, n’a jamais été prouvée valide par des tests empiriques. Les idées de Svante semblaient plausibles, alors les gens les acceptèrent sans preuve. Plus récemment, des politiciens américains ont littéralement ordonné au GIEC de dépenser des sommes énormes en dollars des contribuables en concoctant des projections farfelues et fantaisistes de modèles informatiques fondées sur les hypothèses de Svante. Comme le dit le vieil adage de la programmation informatique, "garbage in, garbage out" (GIGO).

Toutes les prévisions climatiques catastrophiques du GIEC ont échoué, en dépit des efforts de nos médias fortement biaisés pour déformer et exagérer. Les vagues de chaleur estivales ordinaires et les tempêtes hivernales ont été faussement décrites comme des précurseurs de la fin du monde, ce qui ne se produira certainement pas si nous n’élisons plus de démocrates. Les gourous du climat continuent à repousser la date de la catastrophe dans l’avenir parce que la catastrophe mondiale qu’ils continuent de prédire n’arrive jamais. Ce qui est arrivé, ce sont des fluctuations ordinaires et attendues du climat de la Terre depuis sa formation. Demandez-vous quand le climat de la Terre était plus agréable et bénéfique pour l’homme que le climat actuel. La réponse honnête est simplement jamais .

Malgré les nombreuses revues techniques effectuées par des scientifiques du monde entier, personne n’a trouvé d’erreur dans les formules mathématiques et les calculs spécifiques de Zeller et Nikolov. Les objections soulevées contre leur découverte portent en grande partie sur le fait que cela ne correspond pas aux théories climatiques acceptées, qui sont populaires sur les plans professionnel et politique. La science du climat est devenue un outil de pouvoir politique orwellien et une énorme activité lucrative pour les scientifiques, les professeurs, les universités, les employés des gouvernements fédéral et des États et de mille et une entreprises écologiques. Il suffit de penser aux milliards de dollars consacrés au "réchauffement de la planète" et aux faux remèdes prescrits. Aucun malheur n’équivaut à aucun recours coûteux ni à aucun profit pour ceux qui vendent la peur.

Auteur: Internet

Info: La terre du futur, https://www.laterredufutur.com/accueil/la-decouverte-climatique-de-zeller-nikolov-pourrait-bouleverser-le-monde/

[ climatosceptique ] [ cycle naturel ] [ catastrophisme ] [ lobbyisme écologique ] [ Gaïa ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

palier évolutif

L’explosion cambrienne déclenchée par plusieurs transgressions marines ?

Il y a 542 millions d'années apparaissaient, durant une période de quelques dizaines de millions d'années seulement, les grandes lignées d'animaux multicellulaires, comme les vertébrés et les arthropodes. Les lignées végétales et bactériennes se sont elles aussi diversifiées. 

Quel fut le déclencheur de cet événement planétaire ? 

La libération massive d'ions dans les océans, due à une érosion devenue intense, affirme une équipe américaine. Les organismes marins auraient utilisé ces polluants pour fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.

Les premières formes de vie seraient apparues sur Terre il y a 3,5 milliards d'années. Curieusement, ces êtres restèrent en grande majorité unicellulaires (vivant parfois en colonies) jusqu'à l'explosion cambrienne survenue il y a seulement 542 millions d'années. Cet événement vit alors naître de nombreux organismes pluricellulaires et des structures biominérales (par exemple des coquillages) en seulement quelques millions d'années, preuve d'une accélération soudaine de l'évolution (comme en témoignent par exemple les schistes de Burgess). Mais quel fut le facteur déclenchant ? Cette question taraude de nombreux scientifiques depuis longtemps car peu d'hypothèses convaincantes ont été apportées.

Il existe pour la même époque une autre grande curiosité, mais cette fois d'ordre géologique, clairement observable dans le Grand Canyon. L'analyse des couches stratigraphiques de cette région révèle l'histoire de la Terre sur près de 2 milliards d'années, ou presque, car il reste plusieurs discordances chronologiques. Ainsi, il n'y a pas de trace de roches datant de l'époque de l'explosion cambrienne. Des sédiments âgés de 525 millions d'années reposent directement sur des roches métamorphiques de 1.740 millions d'années et des couches sédimentaires inclinées âgées de 1.200 à 740 millions d'années. Des roches sédimentaires "jeunes" provenant de mers peu profondes recouvrent donc de "vieilles" roches sans aucune continuité logique. Mais une question se pose : a-t-on vraiment perdu des informations sur l'évolution de la Terre pendant 215 millions d'années à cause de cette inconformité géologique ?

Il semble bien que non. Selon Shanan Peters de l'université de Wisconsin-Madison, cette absence de données géologiques permettrait d'expliquer le mécanisme déclencheur de l'explosion cambrienne. Les résultats obtenus par l'équipe de ce chercheur sont présentés dans la revue Nature. L'inconformité résulterait d'une succession d'événements géologiques ayant causé la libération massive d'ions dans les océans. Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation. Cette dernière changea alors radicalement le cours de l’évolution, tant les avantages qu'elle apporte sont nombreux.

(Illustration - Le Grand Canyon s'étend sur 450 km de long et possède une profondeur moyenne de 1.300 mètres. Les strates visibles permettent littéralement de lire l'histoire géologique du continent nord-américain - L’explosion cambrienne serait liée à un trop plein d'ions)

Ces explications font suite à l'analyse des propriétés géochimiques de plus de 20.000 échantillons de roches prélevés en Amérique du Nord.

Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d'anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l'air et à l'eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d'ions calcium, potassium, fer et silice. La chimie de l'eau fut alors profondément modifiée.

Un dernier retour des mers il y a 525 millions d'années provoqua le dépôt de sédiments plus jeunes. De nombreuses traces géologiques confirment ces événements - couches de glauconite et d'autres roches particulièrement riches en potassium, fer et silice.

(ici un schéma montre la brutale accélération de l'évolution au Cambrien avec apparition de beaucoup de genres d'espèces vivantes - diversité.

Des minerais pour évacuer le trop plein d’ions

Chaque organisme vivant maintient un équilibre ionique avec le milieu. L'arrivée massive d'ions dans l'environnement marin a dû profondément perturber cette balance. Plusieurs espèces se seraient mises à stocker leurs excédents en ions calcium, potassium, fer et silice sous forme de minerais afin de rétablir l'équilibre. Cette stratégie a deux avantages : les effets des particules chargées sont limités et elles ne sont pas rejetées dans le milieu où elles pourraient à nouveau jouer un rôle néfaste.  

Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l'explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur "squelette" siliceux.

Les avantages évolutifs procurés par ces minéraux sont conséquents puisqu'ils sont utilisés pour la conception de coquilles et d'épines (rôle de protection), de squelettes (rôle de soutien) et de griffes ou dents (rôle dans la prédation). Leur apparition permet de mieux comprendre le changement soudain du cours de l'évolution. 

Ce que certains qualifiaient de "trou" dans les enregistrements de l'histoire de la Terre se révèle en réalité être une source d'information d'une valeur inestimable. La "grande inconformité" (en anglais Great Unconformity) révèle ainsi un mécanisme probable du déclenchement de l'explosion radiative du Cambrien.

Auteur: Internet

Info: Quentin Mauguit, Futura-sciences.com, 24/04/2012

[ animal-minéral ] [ paléontologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

être humain

Les chimpanzés s'entretuent-ils sous l'influence de l'homme ? Quand, en 1960, celle qui va devenir une primatologue de renommée mondiale, la Britannique Jane Goodall, s'installe sur le site tanzanien de Gombe, au bord du lac Tanganyika, pour étudier les chimpanzés sur le terrain, elle ne se doute pas qu'elle va changer à tout jamais le regard que nous portons sur nos cousins primates. Au fil du temps, ses observations de Pan troglodytes étonnent le petit monde de la zoologie (au point que certains ne la croiront pas) et le rapprochent étrangement d'Homo sapiens : on découvre que les chimpanzés fabriquent des outils, mangent de la viande, rient... et s'entretuent parfois.

Chez les primates, rares sont les espèces où l'on tue ses congénères. Le comportement meurtrier des chimpanzés a donc troublé les éthologues qui ont échafaudé deux hypothèses pour tenter de l'expliquer. La première nous met en cause, qui dit que les agressions mortelles se développent là où l'homme agresse le singe, soit directement, en le braconnant, soit indirectement, en détruisant son habitat via la déforestation. A Gombe, il a aussi été noté que l'approvisionnement par l'homme des communautés de chimpanzés, action a priori bienveillante, pouvait avoir des conséquences perverses : ne plus avoir à chercher de la nourriture sédentarisait les singes et faisait grimper le nombre d'agressions. La seconde hypothèse est d'ordre évolutionniste. Selon elle, le meurtre serait une tactique grâce à laquelle le tueur accroît à peu de frais son territoire, son accès à la nourriture et à la reproduction.

Dans une étude publiée ce mercredi 17 septembre par Nature, une équipe internationale a voulu mettre ces deux scénarios à l'épreuve, voir si l'on retrouvait sur le terrain les présupposés qui les sous-tendent. Pour ce faire, les chercheurs ont analysé les statistiques et observations réalisées depuis des décennies auprès de 18 communautés de chimpanzés et de 4 communautés de bonobos, l'autre espèce de chimpanzés. Chez les premiers, le meurtre s'est avéré une pratique courante, présente dans 15 des 18 communautés étudiées. Au cours des 426 années d'études accumulées, les éthologues ont observé directement 58 meurtres, en ont déduit 41 autres d'après les blessures retrouvées sur les cadavres et ont recensé 53 disparitions suspectes. Chez les bonobos, en revanche, aucun meurtre n'a jamais été observé et seul un cas suspect de disparition est connu. Cela s'explique probablement en grande partie par le fait que ces singes ont un mode de gestion et de résolution des conflits très efficace, qui passe par... le sexe.

Chez les chimpanzés, on préfère faire la guerre plutôt que l'amour. Leur organisation sociale prévoit une fragmentation de la communauté en groupes qui cherchent de la nourriture sur le territoire. Si un groupe tombe sur un individu isolé venant d'une autre communauté, il n'est pas rare qu'un assaut brutal soit lancé, avec pour conséquence de graves blessures quand ce n'est pas la mort de l'intrus.

L'étude de Nature n'a pas trouvé de lien de corrélation positive entre la présence humaine et les moeurs assassines. Le plus haut taux d'agressions létales a été enregistré dans une zone où l'homme est quasiment absent. A l'inverse, sur le site qui subit le plus de pression de la part d'Homo sapiens, aucun meurtre entre chimpanzés n'a été commis. C'est donc la seconde hypothèse que ces chercheurs privilégient, celle d'un comportement issu de l'évolution naturelle, où tuer un congénère donne un avantage, en termes de ressources, à l'individu meurtrier ou au groupe auquel il appartient. Rien d'étonnant, donc, à ce que les communautés qui s'adonnent le plus à cette pratique soient aussi celles où la compétition pour les ressources s'avère la plus âpre, où les mâles sont nombreux et où la densité de population est élevée. 

La conclusion de cette étude a de quoi surprendre, qui nous dit, pour schématiser, que les chimpanzés tuent à peu près pour les mêmes raisons que l'homme. Comme si - sans vouloir faire de la philosophie à la petite semaine - le meurtre faisait partie de leur nature comme il fait, hélas, partie de la nôtre. Je me rappelle ce que m'avait dit Jane Goodall lorsque, début 2006, j'étais allé la rencontrer chez elle afin de faire son portrait pour Le Monde. Elle me dépeignait la guerre à laquelle elle avait assisté chez les chimpanzés, à ces mâles patrouillant entre les arbres et massacrant leurs voisins avec une brutalité inouïe. "Tristement, m'avait-elle dit, cela les rendait encore plus humains." 

Les auteurs ont sans doute conscience que leur travail peut choquer à plusieurs titres : pour ce qu'il dit du comportement meurtrier, envisagé comme un résultat naturel de l'évolution, et parce qu'il modifie encore un peu plus la façon dont nous voyons nos plus proches cousins. Dans l'article d'éclairage qu'elle écrit dans le même numéro de Nature, l'anthropologue américaine Joan Silk (université de l'Arizona) résume parfaitement cela :

"La manière dont on perçoit le comportement des primates non-humains, et particulièrement des chimpanzés, est souvent déformée par l'idéologie et l'anthropomorphisme, qui prédisposent à croire que des éléments moralement désirables, comme l'empathie et l'altruisme, sont profondément enracinés dans l'évolution, tandis que les éléments indésirables, tels que la violence en réunion ou les rapports sexuels contraints, ne le sont pas. Cela reflète une forme naïve de déterminisme biologique. (...) Les données nous disent que, pour les chimpanzés, il y a des circonstances écologiques et démographiques dans lesquelles les bénéfices d'une agression mortelle surpassent les coûts, rien de plus."

Auteur: Barthélémy Pierre

Info:

[ homme-animal ] [ comparaison ] [ sciences ] [ question ] [ calcul matérialiste ] [ pouvoir ] [ criminalité ]

 

Commentaires: 0

extraterrestres

Q - Revenons sur les recherches faisant intervenir le dédoublement. Comment travaillez-vous et à partir de quelles hypothèses ?
R - Nous travaillons avec des sensitifs accoutumés à cette pratique. Il arrive fréquemment que plusieurs d'entre eux se projettent simultanément sur un même lieu ou vers une même époque pour nous permettre de vérifier les informations par recoupement. Un sensitif comme Raymond Réant, qui est un des membres actifs de la Fondation Ark'All, emploie le dédoublement physique, c'est-à-dire s'extériorise sous la forme d'une substance qui reste toutefois reliée au corps par une sorte de filament dont la rupture entraînerait la mort immédiate. C'est ce que les occultistes appellent le corps astral et le " cordon d'argent ". Le dédoublement mental, qu'emploient par exemple David et Samuel Franeric, est moins dangereux puisqu'il repose sur la clairvoyance.
Mais qu'est-ce que le dédoublement lui-même ? Nous retrouvons la notion d'Objet Fractal. L'être humain appartient à deux univers : celui où les formes apparaissent et celui où elles s'engendrent. Ces deux univers sont en dualité dynamique, à la manière du Yin/Yang de la pensée chinoise. Mais notre pensée scientifique brise cette dualité dynamique en ne considérant que les formes apparentes au détriment des Formes constituantes. Le dédoublement rétablit la relation entre les deux univers. Le sensitif passe de l'un à l'autre et les structures qui s'échangent ainsi entre l'univers apparent et celui des Formes constituent un Objet Fractal, dont nous avons vu les propriétés en matière de délocalisation et de dé temporalisation. Nous pouvons donner à l'Objet Fractal ainsi créé des propriétés plus précises grâce aux arithmétiques dont j'ai parlé : il suffit de transposer les propriétés de Champ ou d'État du système que nous voulons étudier pour construire le modèle de notre Objet Fractal. Le sensitif qui se projette au moyen de cet Objet Fractal atteindra ainsi les domaines, lieux ou époques, planètes ou galaxies, qui nous intéressent.
(...)
Q - Vous tenez là une méthode qui pourrait résoudre bien des polémiques entre historiens ou archéologues. Ainsi d'ailleurs qu'entre partisans et détracteurs du phénomène par exemple...
R - On peut comprendre ce que sont les OVNIS à partir des notions que je viens de développer. Nous avons vu que dans certaines conditions, le passage par un Objet Fractal notamment, l'être humain peut se projeter du Local dans le Global ou faire éclater le Global pour en faire surgir certaines réalités, personnalisées ou non.
Allons un peu plus loin. A toute réalité de notre monde local, correspond dans le Global un modèle qui est à la fois ensemble et élément : c'est ce que nous appelons un Enel. Les choses localisées sont des répliques de l'Enel qui existe pour elles dans le Global.
Q - Les Enel seraient des sortes d'archétypes ou d'hyper-objets dont le Local ne détiendrait que des copies plus ou moins fidèles ?
R - Et parfois même de véritables caricatures ! C'est exactement ce que sont les OVNIS, comme nous l'ont montré nos recherches aussi bien sur des photos que sur des lieux ou des personnes " contactées ". Le phénomène OVNIS s'accompagne d'ailleurs d'États du type " K Sh Ph " extrêmement dangereux et les brûlures, troubles psychiques et autres symptômes chez ceux qui ont approché un OVNIS procèdent d'Émissions dues aux Formes et de Champs de Taofel que nous connaissons bien. Vous remarquerez d'ailleurs le nombre de témoignages faisant état de délocalisations. Les sujets disent avoir été entraînés à l'intérieur de l'OVNIS et transportés " sur une autre planète ", etc. En fait ils ont tout simplement été pris dans la structure d'Objet Fractal de l'OVNIS
Q - Mais qui manipule l'Objet Fractal et de quoi les OVNIS sont-ils la caricature ?
R - Le manipulateur inconscient n'est autre que la collectivité humaine et les OVNIS sont les répliques déformées des Objets techniques de notre civilisation.
Chaque époque connaît des OVNIS différents qui " Imitent " la civilisation elle-même. (Gravure de Gavarni pour les " Voyages de Gulliver ", de Swift). Les Objets techniques sont, par définition, des Formes non-naturelles, voire parfois anti-naturelles. L'accumulation de ces objets crée dans notre espace des cumulo-décalaires par lesquels certaines de nos réalisations technologiques se délocalisent et sont projetées dans le Global. Par ébranlement de l'Enel correspondant à l'Objet Technique délocalisé, le Global renvoie dans notre espace, cette fois en passant par des anti-décalaires, des " singeries " de notre technologie actuelle : ces OVNIS dont les caractéristiques et les performances sont celles de nos propres engins mais amplifiées et même outrées. De même que les Grands Initiés obtenaient du Global des entités surhumaines, divines ou infernales selon l'esprit de celui qui activait les Champs de Taofel et passait dans l'Objet Fractal, de même la saturation technologique de notre époque fait surgir du Global ces phénomènes dangereux et ironiques que sont les OVNIS
Q - Chaque époque connaît d'ailleurs des OVNIS différents, qui " imitent " les Objets Techniques du moment, mais en transforment les fonctionnalités. Si les OVNIS reflètent la finalité de notre technologie, les caractéristiques d'Émissions et d'État que vous leur prêtez ne sont guère rassurants...
R - Nous connaissons suffisamment cet État " K Sh Ph " avec Shin renversé, qui est celui des OVNIS, pour que le doute ne soit plus permis.
Mais je dois préciser que ce n'est pas l'Objet Technique en lui-même qui est à remettre en question. Ce sont les fonctionnalités antinaturelles que nous assignons à ces objets, leur surnombre aussi, qui rendent impossible leur intégration aux cycles et aux systèmes de la Nature. Les fonctionnalités qui ne peuvent être intégrées et harmonisées dans le monde naturel sont projetées dans le Global qui nous renvoie...

Auteur: Ravatin Jacques

Info: entretien en 1978, revue3emillenaire.com/blog/les-emissions-dues-aux-formes

[ ésotérisme ] [ sciences ] [ spéculation ] [ parapsychologie ]

 

Commentaires: 0

spéculation

Expérience religieuse et cerveau.
Une étude relie certaines expériences religieuses, ou de changement de vie, comme la renaissance (born again), avec une atrophie de l'hippocampe.
L'article "Facteurs religieux et atrophie hippocampale en fin de vie" d'Amy Owen et ses collègues de Duke University présente une avance importante pour notre compréhension croissante du rapport entre cerveau et religion. L'étude a montré une plus grande atrophie de l'hippocampe chez les individus qui s'identifient avec des groupes religieux spécifiques, de même que pour ceux que ceux sans affiliation religieuse. C'est un résultat étonnant, sachant que beaucoup d'études antérieures ont montré que la religion avait des effets potentiellement bénéfiques sur les fonctions du cerveau, l'inquiétude et la dépression.
Un certain nombre d'études ont évalué les effets aigus des pratiques religieuses, telles que la méditation et la prière, sur le cerveau humain. Un plus petit nombre d'études ont évalué les effets à plus long terme de la religion sur le cerveau. De telles études, comme celle-ci, se sont concentrées sur des différences du volume du cerveau ou de certaines fonctions du cerveau chez les personnes fortement impliquée dans la méditation ou les pratiques spirituelles, par comparaison avec celles qui ne le sont pas.
Mais très peu d'études ont exploré les effets longitudinaux de la pratique de la méditation ou des activités spirituelles en évaluant des sujets en deux points temporels différents.
Ici, Owen et les autres ont utilisé le MRI pour mesurer le volume de l'hippocampe, une structure centrale du système limbique, impliquée dans l'émotion aussi bien que pour la formation de la mémoire. Ils ont évalué le MRI de 268 hommes et femmes agés de 58 et plus, recrutés à l'origine pour les résultats Neuro Cognitifs sur la dépression lors d'une ancienne étude. Les gens testés avaient également répondu à plusieurs questions concernant leur croyance et affiliations religieuses. L'étude d'Owen et ses collègues est unique parce qu'elle se concentre spécifiquement sur des individus religieux en les comparant à des gens non-religieux. Cette étude a également séparé les individus entre ceux qui qui "born again" ou ceux qui ont eu leur vie changée par une expérience religieuse.
Les résultats ont montré une atrophie hippocampale sensiblement plus grande chez les individus ayant rapporté une expérience religieuse de "born again". En outre, ils ont montré une atrophie hippocampale sensiblement plus grande chez les protestants, les catholiques avec ceux sans affiliation religieuse, comparée aux protestants ne s'identifiant pas comme born again.
Les auteurs présentent l'hypothèse que l'atrophie hippocampal plus grande dans les groupes religieux choisis pourrait être liée au stress. Ils arguent du fait que certains individus d'une minorité religieuse, ou ceux qui luttent avec leur croyance, expériencent des niveaux plus élevés de stress. Ceci causant un plus grand dégagement d'hormones d'effort, connues pour diminuer le volume de l'hippocampe avec le temps. Ceci pourrait également expliquer le fait que tout aussi bien les les non-religieux que quelques religieux aient de plus petits volumes hippocampals.
Cette hypothèse intéresse. Beaucoup d'études ont montré les effets positifs de la religion et de la spiritualité sur la santé mentale, mais il y a également abondance d'exemples d' impacts négatifs. Il y a une évidence que les membres de groupes religieux qui sont persécutés, ou dans une minorité, pourraient avoir plus de stress et d'inquiétude quand ils doivent naviguer dans la société. D'autres fois, une personne pourrait percevoir Dieu comme celui qui punit et donc avoir un stress significatif face à une lutte religieuse. D'autres éprouvent un conflit religieux en raison d'idées contradictoires entre leur tradition religieuse et/ou leur famille. Même une expérience très positive de changement de vie pourrait être difficiles à incorporer dans une système religieux donné pour la croyance de l'individu et ceci pourrait également mener à l'effort et à l'inquiétude. Les transgressions religieuses perçues peuvent causer une angoisse émotive et psychologique. Il peut être difficile de distinguer cette douleur "religieuse" et "spirituelle" de la douleur physique pure. Et tous ces phénomènes peuvent avoir des effets potentiellement négatifs sur le cerveau.
Ainsi, Owen et ses collègues posent certainement une hypothèse plausible. Ils citent également certaines des limitations de leurs trouvailles, tels que la petite dimension de l'échantillon testé. Plus important la relation causale entre ces découvertes dans le cerveau avec la religion reste très difficile à établir. Est il possible, par exemple, que les personnes avec de plus petits volumes hippocampals, soient plus prédestinées à avoir un tropisme religieux spécifique, dessinant la flèche causale dans l'autre direction ? De plus, il se pourrait que les facteurs amenant aux événements de "Changement de vie" sont importants et non pas simplement l'expérience elle-même.
Puisque l'atrophie de cerveau reflète tout qui arrive à une personne jusqu'à ce point, on ne peut pas définitivement conclure que l'expérience la plus intense était en fait la chose qui a eu pour conséquence l'atrophie du cerveau. Il y a donc beaucoup de facteurs potentiels qui pourraient mener aux résultats rapportés. (Ils est également quelque peu problématique que l'effort lui-même ne se soit pas corrélé avec les volumes hippocampal puisque c'est une des hypothèses potentielles proposées par les auteurs. Ce qui de fait parait miner les conclusions.) L'on pourra alors se demander s'il est possible que les gens qui sont plus religieux souffrent d'un plus grand stress inhérent, mais que leur religion les aide à se protéger d'une certaine manière. La religion est fréquemment citée comme un important mécanisme pour faire face au stress et à l'effort.
Cette nouvelle étude est intrigante et importante. Elle nous incite à réfléchir davantage sur la complexité du rapport entre religion et cerveau. Ce champ d'étude, désigné sous le nom du neuro théologie, pourrait faire avancer notre compréhension de la religion, de la spiritualité et du cerveau. D'autres études à venir sur les effets aigus et chroniques de la religion avec le cerveau seront très intéressantes pour valider certaines de ces idées. Pour l'instant, nous pouvons être certains que la religion affecte le cerveau - mais nous ne savons pas comment.

Auteur: Newberg Andrew

Info: Scientific American, 31 mai 2011

[ biologie ] [ esprit ]

 

Commentaires: 0

homme-animal

"Voyageons un peu dans le passé et transportons-nous à Falaise, petite ville de Normandie, à la fin du mois de janvier 1386.

Une truie, maladroitement costumée en habits féminins, est rituellement conduite à l’échafaud, puis pendue et brûlée. Qu’avait-elle fait ? Renversé le berceau d’un nourrisson mal surveillé et commencé à lui dévorer le visage.

Capturée, emprisonnée, conduite au tribunal, défendue par un avocat peu efficace, elle est condamnée à mort par le juge-bailli de Falaise qui l’estime responsable de ses actes. Son propriétaire, en revanche, n’écope d’aucune peine ni amende.

Aujourd’hui, de telles pratiques nous font rire, de même que nous nous esclaffons devant les questions que l’on se pose à la même époque en milieu clérical ou universitaire : peut-on faire travailler les animaux le dimanche ? Doit-on leur imposer des jours de jeûne ? Où vont-ils après la mort ? En Enfer ou au Paradis ? Que de croyances absurdes ? Que de superstitions grotesques ! Quels ramassis d’imbéciles tous ces médiévaux !

Nous avons tort de réagir ainsi. En jugeant le passé à l’aune des savoirs, des morales et des sensibilités du présent, nous montrons que nous n’avons rien compris à ce qu’était l’Histoire. En outre, nous oublions aussi que nos propres comportements sont tout aussi ridicules, qu’ils feront pareillement sourire nos successeurs dans quelques siècles, et qu’ils sont souvent plus atroces et beaucoup plus dangereux que ceux de nos ancêtres. Dangereux pour toutes les espèces vivantes, dangereux pour l’avenir de la planète.

Qui parmi nous a déjà visité une porcherie industrielle ? Je suis normand d’origine et breton de cœur, je n’ai aucune animosité envers les éleveurs de porcs, je ne milite dans aucune société protectrice des animaux ; je suis simplement historien, spécialiste des rapports entre l’homme et l’animal. Or l’honnêteté m’oblige à dire que ces porcheries industrielles sont des lieux abominables, constituant une sorte d’enfer sur terre pour les animaux qui s’y trouvent. Les truies sont enfermées par centaines dans des espaces qui leur interdisent de se déplacer. Leur vie durant, elles ne voient jamais la lumière du soleil, ne fouillent jamais le sol, sont nourries d’aliments chimiques, gavées d’antibiotiques, inséminées artificiellement. Elles doivent produire le maximum de porcelets en une seule portée, avoir le maximum de portées dans les quelques années de leur misérable vie, et lorsqu’elles ne sont plus fécondes, elles partent à l’abattoir. Les porcelets eux-mêmes doivent engraisser le plus vite possible, produire le maximum de viande, et tout cela, bien sûr, au moindre coût. Ces crétins du Moyen-Âge qui pensaient que les cochons étaient des êtres sensibles, qu’ils avaient une âme et qu’ils pouvaient comprendre ce qu’était le Bien et le Mal, n’avaient certainement jamais pensé à cela : martyriser des porcs pour gagner de l’argent !

Récemment, un directeur de porcherie industrielle située dans les Côtes d’Armor à qui je venais de faire part de mon indignation m’a répondu d’une manière sordide : "Mais, Cher Monsieur, pour les poulets c’est bien pire". De fait, dans des établissements carcéraux du même genre, les poulets ne peuvent pas poser leurs deux pattes au sol en même temps : il y circule un courant électrique qui les oblige, à longueur de vie, à poser au sol une patte après l’autre. Pourquoi un tel supplice ? Pour faire grossir leurs cuisses, bien sûr, et les vendre ainsi plus cher. La cupidité de l’être humain est devenue sans limite.

Où sont passés les cochons de nos campagnes ? Où peut-on encore les voir gambader autour de la ferme, jouer les uns avec les autres, se faire caresser par les enfants, partager la vie des paysans. Nulle part ! Nous avons oublié que les cochons – mais cela est vrai de tous les animaux de la ferme - étaient des êtres vivants et non pas des produits. Qui, dans la presse, évoque leur sort pitoyable, leur vie de prisonniers et de condamnés lorsque l’actualité parle du prix de la viande de porc et du mécontentement des éleveurs ? Qui a le courage de rappeler qu’avant d’être un produit de consommation le cochon était un animal vivant, intelligent, sensible, anatomiquement et physiologiquement cousin très proche de l’être humain ? A ma connaissance, personne. De même, à propos des débats autour des cantines scolaires, qui s’interroge sur les raisons qui font que certains peuples mangent du porc et d’autres non ? C’est pourtant un dossier passionnant, l’occasion de s’instruire et de rappeler les nombreuses hypothèses qui ont été avancées depuis le Moyen-Âge pour expliquer les rejets et les tabous qui entourent cet animal.

Les animaux domestiques n’ont plus d’histoire, plus de mythologie, plus de symbolique. Ils ne suscitent plus aucune curiosité, aucune interrogation, aucune nostalgie. Ils n’ont même plus droit à une vie simplement animale. Ce sont des produits ! Comme tels, ils doivent participer au "redressement productif" de notre pays (cette expression est en elle-même absolument répugnante) et générer du profit. Un profit ironiquement bien mince, voire inexistant pour les éleveurs de porcs, ce qui rend encore plus aberrante et intolérable l’existence de ces porcheries industrielles, inhumaines, "inanimales" même, si l’on peut oser un tel néologisme. Elles polluent l’air, la terre, les eaux des rivières et celles de la mer. Dans mon petit coin de Bretagne, des sangliers sont morts à cause du rejet dans la nature du lisier produit par l’élevage intensif de leurs cousins domestiques. Un comble ! À la cupidité s’ajoute l’absurdité.

L’être humain est devenu fou. Il tue non seulement ses semblables mais tout ce qui vit autour de lui. Il rêve même d’aller sur Mars ou ailleurs vérifier si la vie existe et, si c’est le cas, y semer la mort. Tout en donnant des leçons à l’univers entier et en paradant à la COP 21, 22, 23, 24.

Protéger la nature, défendre l’environnement, sauver la planète ? Certes. Mais pour quoi faire ? Pour sauver une humanité barbare et suicidaire, cruelle envers elle-même, ennemie de tous les êtres vivants ? Le mérite-t-elle vraiment ? Le souhaite-t-elle réellement ? Il est permis d’en douter."

Auteur: Pastoureau Michel

Info: France Inter, carte blanche du 21 oct 2019

[ historique ]

 
Commentaires: 2
Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel