Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 708
Temps de recherche: 0.0488s

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

visionnaires

Le philosophe publie Autodafés : l’art de détruire les livres (Presses de la Cité), qui rassemble ses analyses publiées dans le Point sur quelques penseurs hétérodoxes récents.

Il paraît que des abonnés se seraient retirés de cette excellente revue qu’est Front Populaire au prétexte de la position très lucide et humainement irréfutable de Michel Onfray en faveur de la vaccination.

Je n’ai pas la prétention de les faire revenir mais j’aimerais au moins tenter ma chance parce que Michel Onfray vient de publier aux Presses de la Cité un étincelant essai, qui est aussi un pamphlet dévastateur, dont le titre Autodafés, et le sous-titre : L’art de détruire les livres, révèlent bien la substance.

Celle-ci consiste à dénoncer la manière dont des ouvrages capitaux pour la compréhension de la société et du monde, géniaux à cause de l’anticipation des dangers, salubres pour la révélation des horreurs ignorées ou occultées par l’idéologie, ont été longtemps interdits, censurés, étouffés pour la simple et triste raison qu’ils disaient tous la vérité.

Qu’on en juge : Simon Leys pour les Habits neufs du président Mao, Soljenitsyne et l’Archipel du Goulag, Paul Yonnet contre un certain antiracisme dans Voyage au centre du malaise français, Samuel Huntington prophétisant Le Choc des civilisations, la mise à bas du mythe d’un islam civilisateur de l’Occident dans Aristote au mont Saint-Michel de Sylvain Gouguenheim et enfin, sous la direction de Catherine Meyer, Le Livre noir de la psychanalyse la ridiculisant.

Exercices de démolition

Michel Onfray ne se contente pas de décrire brillamment le bienfaisant scandale que ces bombes ont créé lors de leur publication mais, avec une cruauté jouissive, accable le milieu germanopratin, un mélange prétendument progressiste de philosophes égarés, d’écrivains énamourés, de journalistes perdus, de sociologues confus et d’idéologues aveugles parce qu’ils souhaitaient plus que tout être aveuglés. Pour qui est familier de l’univers de Michel Onfray et de son style qui s’adapte au genre que son infinie curiosité aborde, on devine avec quelle talentueuse et acerbe impétuosité il s’est livré dans ces exercices de démolition qui sont un régal.

Lorsqu’il regrette qu’il n’y ait jamais eu “le Nuremberg du marxisme-léninisme”, il déplore, selon une magnifique formule, que “les atrocités léninistes, trotskistes, staliniennes, bénéficient d’une extraterritorialité morale” avec la jurisprudence qui s’ensuit : on peut avoir pensé, voulu et validé le pire dans l’extrême gauche sous toutes ses latitudes et avec les honteuses complaisances qu’il est facile d’imaginer, ce ne sera jamais “un obstacle dirimant pour faire carrière”! Contrairement à ceux de l’autre bord extrême, nazis, fascistes, pétainistes, franquistes et autres, soutiens de régimes autoritaires, qui, et “c’est heureux”, seront stigmatisés à vie.

Ce qu’énonce Michel Onfray est une évidence mais son expression fait tellement peur qu’il faut lui savoir gré de la proclamer. De même d’ailleurs qu’il ne faut pas manquer d’un vrai courage intellectuel pour affirmer le délétère et malfaisant compagnonnage, malgré les apparences cherchant à sauver la mise de tel ou tel, entre Marx, Lénine, Staline et Trotski.

Michel Onfray blacklisté par France Inter

À lire Autodafés, il ne faut plus que Michel Onfray s’indigne, ou même s’étonne, de ne pas être convié sur certaines radios, par exemple France Inter où le vrai pluralisme et l’authentique liberté intellectuelle sont aussi absents que l’esprit de ses humoristes. Comment l’espace médiatique incriminé, qui n’aura aucun mal à se reconnaître, pourrait-il, avec une tolérance qui serait proche du masochisme, accueillir à bras ouverts, à intelligence curieuse, Michel Onfray qui a dressé un fulgurant acte d’accusation contre les turpitudes d’une époque où de manière indigne on vilipendait des héros de la vérité pour lesquels la littérature était un moyen de se sauver et de nous protéger.

J’aime aussi particulièrement que Autodafés batte en brèche la réputation de narcissisme et d’autarcie que des malintentionnés, des ignorants lui ont faite alors que son livre démontre le contraire. Puisqu’il le consacre à défendre des causes détachées de l’actualité, fondamentales parce qu’elles ont eu des enjeux de haute portée historique, philosophique et politique, et des personnalités qui ont honoré la pensée, le courage, la liberté et la vérité. Je n’imagine pas BHL – et de fait je ne l’ai jamais vu adopter une telle posture – se dépenser dans tous les sens du terme pour de tels combats ne rapportant rien médiatiquement et politiquement, seulement destinés à réparer des injustices anciennes, à promouvoir d’autres écrivains que lui, à rappeler leurs audaces qui n’étaient pas celles (à couvert) des champs de bataille mais infiniment plus périlleuses puisqu’elles avaient pour ennemi essentiel l’immense et étouffante chape d’idéologies que la bienséance interdisait de questionner.

Pourtant ces auteurs, que Michel Onfray a mis à l’honneur, l’ont fait et il convenait qu’avec superbe ils soient sublimés et leurs adversaires dégradés.

J’entends déjà le reproche : encore Michel Onfray, toujours Michel Onfray ! Ce n’est pas ma faute s’il a écrit Autodafés. Je ne pouvais pas me passer de lui rendre cet hommage, lui qui a su si bien se mettre au service du génie intrépide de quelques autres.

Auteur: Bilger Philippe

Info: Causeur, 2 sept 2021. Michel Onfray revient sur quelques crimes de la pensée

[ épuration ] [ damnatio memoriae ] [ baillonnés ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

"Percer les secrets du vivant grâce à la biologie quantique"

En primeur pour notre magazine, Birgitta Whaley, qui dirige le Berkeley Quantum Information and Computation Center de l'université de Californie, a accepté d'expliquer en quoi les "mécanismes quantiques à l'oeuvre chez les organismes vivants" pouvaient révolutionner le monde. D'autant qu'ils ne sont qu'une cinquantaine de scientifiques à travers la planète à poursuivre ces travaux fondamentaux.

Sciences et Avenir : Quand on évoque l’information quantique, on pense en premier lieu à la physique et aux particules de matière ou de lumière. Or, vous travaillez sur le vivant ?

Birgitta Whaley : Nous étudions tout un éventail d'organismes, des plantes vertes aux bactéries, qu'il s'agisse d'unicellulaires ou de feuilles. Mais aussi des oiseaux ou d'autres animaux. Nous voulons apporter la preuve qu'il existe un comportement quantique chez ces organismes vivants, à toute petite échelle, impliquant des "grains de lumière" (photons).

Avez-vous découvert ce comportement quantique ? Oui, il est tout à fait évident que des effets quantiques sont au coeur, en particulier, de ce qu’on appelle la photosynthèse. Nous les observons dans les premiers stades de ce mécanisme essentiel à la vie qui permet l’absorption de la lumière, puis sa transformation en énergie électronique, les électrons déclenchant ensuite les réactions chimiques qui permettent la formation de glucides [constituants essentiels des êtres vivants].

Outre la connaissance fondamentale, pourquoi est-ce important de comprendre ce mécanisme ?

Parce qu’il est essentiel à la production de nourriture et donc à notre vie. Mais imaginez aussi que nous parvenions à réaliser une photosynthèse artificielle qui capture l’énergie solaire aussi bien que le font les plantes, dont le processus a été hautement optimisé après 3,6 milliards d’années d’évolution. Ce ne serait plus 15 % de rendement que l’on obtiendrait, comme cela se pratique avec le photovoltaïque aujourd’hui, mais presque 100 % !

Qu’ont donc réussi à faire les plantes, et pas nous ?

Chez les plantes vertes, des récepteurs composés de chlorophylle sont capables d’absorber des photons alors même que la lumière reçue est très faible. Chacun d’eux ne reçoit en moyenne qu’un photon toutes les dix secondes. Il faut que la plante soit vraiment très efficace pour réaliser cette absorption avec si peu de lumière. Il y a même des bactéries marines qui n’absorbent qu’un photon (dans l’infrarouge) toutes les vingt minutes.

Qu’est-il important de mesurer ?

Les détails de ce processus d’absorption, en particulier sa dynamique… Nous connaissons très bien la chlorophylle, nous savons quelle partie de la molécule absorbe le photon et à quel niveau. Le problème vient de ce que cette chlorophylle est enchâssée dans un échafaudage complexe de protéines- pigments qui se mettent à leur tour à vibrer, à entrer en rotation… Nos expériences suggèrent fortement que ces vibrations oeuvrent en conjonction avec l’excitation électronique déclenchée par l’arrivée du photon. Elles aident au transfert des électrons qui déclencheront ultérieurement des réactions chimiques. Ce mécanisme d’absorption, facilité par des effets quantiques, peut avoir jusqu’à 99 % d’efficacité. Un photon arrive, un électron est produit. Finement réglé, il répond à une nécessité de survie de l’organisme.

Quel genre d’appareillages utilisez-vous pour les mesures ?

Nous employons des faisceaux laser pulsés, qui permettent de préciser la dynamique d’excitation des molécules. Par exemple, avec trois pulses qui se succèdent [arrivée de photons d’une certaine fréquence], nous pouvons voir, lors du premier, la molécule réceptrice amorcer son passage vers un état " excité", puis, lors du deuxième pulse, la molécule devenir entièrement excitée, le troisième pulse permettant d’apporter des précisions sur la durée de cette excitation.

Cela ne semble pas évident…

En biologie, vous ne savez pas où s’arrête le système quantique et où commence son environnement. La plupart des spécialistes haussent les épaules en disant que tout cela est trop compliqué, qu’ils ne veulent même pas en entendre parler !

Dans combien de temps pensez-vous comprendre ce qui se passe ?

Peut-être dans vingt ans… Mais d’ici à dix ans, grâce à la biologie synthétique, nous devrions pouvoir élaborer une structure qui fasse progresser notre compréhension.

"COMPORTEMENT. La fascinante intelligence spatiale des oiseaux.

La migration des oiseaux et leur capacité à déterminer la bonne direction à prendre sont aussi un domaine "très tendance" en biologie quantique ! Birgitta Whaley le trouve d’autant plus fascinant que "les effets quantiques ne sont pas du tout évidents. Est peut-être impliquée ici ce qu’on nomme l’intrication quantique" [deux objets qui peuvent être spatialement séparés mais doivent être traités globalement, comme un seul]. La lumière est en effet absorbée par une molécule à l’arrière de la rétine de chaque oeil de l’oiseau, qui produit puis transfère un électron. On se demande alors quel est le comportement quantique des deux électrons (entre eux) qui pénètrent dans le cerveau de l’oiseau, ce qui lui délivre un message particulier. Mais il ne s’agit pour l’instant que "d’une belle hypothèse et il nous faudrait des données expérimentales".)

Auteur: Internet

Info: www.sciencesetavenir.fr, Dominique Leglu, 7.11.2016

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

technologie

Comment Internet modifie le cerveau
L'écran aspire-t-il notre cerveau ?
À force de passer des milliers d'heures à naviguer sur Internet, Nicholas Carr en est arrivé à une conclusion : Internet modifie l'esprit. Dans son dernier livre, Internet rend-il bête ?*, le journaliste et écrivain américain constate, comme de nombreux " travailleurs de l'écran ", qu'il a de plus en plus de mal à se concentrer sur une tâche complexe, ou même à ne faire qu'une seule chose à la fois. La vie en mode zapping fait des dégâts. " J'ai le sentiment désagréable que quelqu'un, ou quelque chose, bricole avec mon cerveau ", explique-t-il. Amoureux du Net, l'auteur a d'autant plus de difficultés à en dire du mal : Internet " est un si bon serviteur qu'il serait déplacé de remarquer qu'il est aussi notre maître ", s'amuse-t-il.
Ce qui importe, selon Nicholas Carr, ce n'est pas tant le contenu diffusé par les médias que la façon de les diffuser. " Les médias opèrent leur magie, ou leurs méfaits, sur le système nerveux lui-même ", explique-t-il. Notre cerveau est enfermé dans la boîte crânienne, ce qui nous laisse penser - à tort - qu'il serait insensible aux événements extérieurs ; qu'il les capterait et les analyserait sans en subir les influences. Mais " le cerveau est et sera toujours un chantier en cours ", rappelle l'auteur.
L'esprit devient affamé
Reprenant la thèse selon laquelle l'activité du cerveau le modèle et le façonne en permanence, comme l'eau qui coule dans le sable crée des chemins qu'elle empruntera toujours par la suite, Nicholas Carr tire la sonnette d'alarme. Les " médias électriques " ont changé notre façon de percevoir le monde. Radio, télévision, Internet : tous nous crient l'urgence de les consulter, au contraire des journaux papier et des " livres poussiéreux " d'antan, qui nous chuchotaient qu'on avait tout le temps pour les consulter au calme.
Résultat : "Le plongeur qui, naguère, explorait l'océan des mots, en rase maintenant la surface à la vitesse de l'éclair." Dans un clin d'oeil à Descartes, Nicholas Carr affirme même que " nous devenons ce que nous pensons ". L'effet est pire sur les jeunes, qui sont nés avec Internet. Selon une étude citée dans l'ouvrage, certains enfants trop habitués aux pages web ne sauraient plus vraiment lire une page de haut en bas et de gauche à droite. L'addiction est aussi présente : " Mon esprit n'était pas seulement à la dérive, il avait faim. Il demandait à être alimenté comme le Net le nourrit - et plus il était nourri, plus il avait faim. " La " surcharge cognitive " est telle que la capacité à réfléchir est menacée.
Nouvelle ère
Un constat alarmant ? Pas forcément. Nicholas Carr entrevoit une nouvelle ère pour la pensée, qui nous sortirait définitivement des Lumières et du rationalisme. En jeu, de nouveaux mécanismes cognitifs, dont on ne sait pas encore s'ils sont meilleurs ou moins bons que ceux que nous avions tous il y a encore vingt ans.
L'habitude du zapping, par exemple, permet de traiter plusieurs tâches à la fois de façon plus efficace, mais réduit la capacité à résoudre des problèmes complexes, et à mémoriser des souvenirs. Autre exemple : la généralisation du guidage GPS atrophie la partie du cerveau chargée de l'orientation dans l'espace, mais libère du temps et des neurones pour d'autres activités. Pour le moment, nous savons simplement que nous avons " sacrifié des parties de notre cerveau " au profit d'autres apports, que nous commençons tout juste à entrevoir. Reste à savoir si nous serons perdants. Le bilan semble négatif aujourd'hui, mais Carr veut être optimiste : peut-être l'homme apprendra-t-il bientôt a tirer profit de sa nouvelle capacité à ne jamais se concentrer...
Commentaire : Euh... pardon? Sa "nouvelle capacité"?
Demain, tous transformés
Ceux qui passent des heures sur leur écran et qui, le soir venu, se demandent ce qu'ils ont fait de leur journée, se reconnaîtront bien dans le livre de Nicholas Carr. Certains passages les feront sourire, notamment le récit de sa tentative de désintoxication durant la rédaction du livre. " Le démantèlement de ma vie en ligne ne s'est pas fait sans douleur [...] De temps en temps, je m'offrais une journée entière d'orgie sur le Net ", raconte-t-il.
Seul regret, la traduction depuis l'anglais du vocabulaire technique n'est pas toujours parfaite. Par exemple, le sigle ISP, qui signifie " Internet Service Provider ", c'est-à-dire fournisseur d'accès à Internet, n'est ni expliqué ni traduit. L'abonnement (account) qui va avec est traduit par " compte ". Quelques lignes plus loin, c'est la connexion broadband (haut-débit) qui est traduite par " large bande ". Mais ces petits détails ne sont pas gênants pour la compréhension. Internet rend-il bête ? n'en est pas moins un ouvrage ambitieux, qui essaie de cerner les évolutions du cerveau et de la pensée à l'ère numérique, et de nous préparer à ce qui nous attend dans le monde encore plus connecté de demain. Un livre à recommander à tous les forçats du Web !

Auteur: Internet

Info: Science de l'Esprit, Le Point 10 novembre 2011

[ sociologie ] [ lecture ]

 

Commentaires: 0

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

sémiotique postmoderne

Le dossier actualisé

La prise de conscience que l'expérience humaine, étant avant tout une expérience animale, ne commence pas simplement avec l'ens reale mais avec un monde d'objets qui sont normalement (au moins dans les temps historiques, sinon préhistoriques) constitués de façon prédominante par l'entia rationis (et incluent l'entia realia formellement reconnue comme telle seulement comme une dimension virtuelle et indistincte de ses particularités) n'est pas sans précédent dans l'histoire de la philosophie. Mais la thématisation intégrale de cette prise de conscience est sans précédent, on peut donc dire qu'elle constitue l'essence de la postmodernité dans la mesure où nous devons la concevoir comme une époque philosophique distincte dans le sillage du développement philosophique principal qui va de Descartes au XVIIe siècle à Wittgenstein et Husserl au vingtième siècle. Heidegger a souligné la nécessité d'une telle thématisation sous la rubrique classique de l'"être", mais il n'est allé que jusqu'à poser la question à laquelle la sémiotique commence à répondre. Pourquoi, se demandait-il, dans les termes d'une intersémioticité qui résonne avec celle de von Uexküll, que les humains expérimentent les êtres comme présents à portée de main plutôt que prêt-à-l'emploi, ce qui est plus "proche" de nous et tout à fait comment les êtres sont donnés en grande proximités pour la plupart?  La réponse se trouve dans la différence, dans ce qui est distinctif, d'un Umwelt vécu sur la base d'un Innenwelt ayant le langage comme composante dans sa formation de représentations.  

Le monde extérieur est une espèce de représentation spécifiquement humaine. La quasi-erreur provient de la confusion systématique entre objets et "choses", ce qui conduit à une confusion de la "réalité extérieure". (comme c'est devenu habituel dans la philosophie) avec la notion plus fondamentale d'ens reale, qui n'est pas identique au "monde extérieur", ni le point de départ en tant que tel de la connaissance spécifique à l'espèce humaine, mais simplement une dimension reconnaissable vécue dans son objectivité. Le "monde extérieur" ne se trouve pas en dessous ou en dehors de la pensée et du langage, comme ont a eu tendance à imaginer, mais il est précisément donné, dans quelque mesure que ce soit, au sein de l'expérience objective, comme nous l'a appris la sémiotique dès les 30 premières années. 

Sebeok aimait citer, tout en la réévaluant constamment, l'affirmation de Bohr selon laquelle "Nous sommes suspendus dans le langage de telle manière que nous ne pouvons pas dire ce qui est en haut et ce qui est en bas" (French & Kennedy, 1985, p.302). Selon moi, c'est une affirmation dont la justesse et son interprétation la meilleure dépendentent du fait que nous sommes des animaux linguistiques et pas seulement des animaux perceptifs comme je l'ai l'ai soutenu assez longuement (Deely, 2002). 

En tant qu'animaux linguistiques, nous pouvons prendre conscience non seulement de la différence entre une chose et un objet, entre le monde objectif et l'environnement physique, mais aussi de la différence entre les deux. 

Nous pouvons également prendre conscience du statut du langage en tant que système de signes, et de sa dépendance envers d'autres signes dans la constitution des objets. Ce sont ces objets et leurs interconnexions qui, ensemble, forment notre expérience de la "réalité" (jusqu'ici semblable à celle de n'importe quel autre animal) ; mais dans cette sphère d'expérience objective, grâce au langage, nous pouvons aussi nous faire une idée de la "réalité" par l'établissement d'un sens intelligible qui n'est pas simplement donné dans la perception, mais qui est atteint à travers la sensation.  Et avec cette idée ainsi fondée expérimentalement, peut-être seulement avec cette idée, que l'animal humain commence à s'éveiller à son humanité. Notre espèce est attirée par cet sortrie de l' aborigène pour se lancer sur la longue route de la philosophie et de la science, pour finalement rencontrer - assez tard dans ce périple - ce carrefour dont l'une des bifurcations est la Voie des Signes. À ce moment-là, l'animal humain se rend compte que, si tous les animaux et peut-être toute la nature sont sémiosiques, l'animal humain seul est un animal sémiotique ; et dans cette prise de conscience, que peu ou personne n'a fait plus que Sebeok, inaugure, en philosophie du moins, la culture intellectuelle postmoderne- en fait, elle prend  ici son envol. La quasi-erreur du monde extérieur n'a plus besoin de nous tromper ou de nous déconcerter, car sa nature et son origine ont été exposées par la clarification  même de cette ouverture de la Voie des Signes. Nous voyons maintenant que nous avons mis au jour  un chemin qui mène "partout dans la nature, y compris dans les domaines où les humains n'ont jamais mis les pieds ", mais aussi vers une compréhension de laquelle la sémiotique nous donne les moyens d'y tendre plus intégralement. Appelons cela l'horizon interprétatif postmoderne, peut-être même la "coïncidence de la communication avec l'être" (Petrilli & Ponzio, 2001, p. 54). C'est le cœur de la sémiotique, qui défend contre la modernité cette conviction médiévale que la science moderne n'a jamais totalement abandonnée, malgré les philosophes : ens et verum convertuntur, "lcommunication et être sont coextensifs". Être pour la nature, c'est être intelligible pour l'animal dont le destin est de comprendre.

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam, conclusion. Trad Mg

[ sémiotique vs sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel

extensibilité FLP

Le langage, si on approfondit la connaissance qu'on en a, révèle et circonstancie la priméité de C.S. Peirce. C'est à dire qu'on grandit avec et en lui, tout comme le monde extérieur dont nous sommes issus se développe et se définit via une science qui en dévoile petit à petit les détails au fur et à mesure de ses progrès et affinements. Malgré le différentiel de complexité inouï qui existe entre langages-vocabulaires et sciences-rationalismes. Pour s'en rendre compte amusons nous simplement à prendre exemple sur les millions de protéines différentes recensées de nos jours, et comparer ce très partiel et scientifique listing protéique de notre réel avec nos vocabulaires.  

Il y a le premier livre... et le second. Le second se divisant dans notre idée en deux parties 1) Linguistique subjective et 2) scientifico-informatique objective.

Il n'en reste pas moins que mots et langages afférents développent suffisamment de méandres et de complications pour que n'importe qui qui s'y intéresse puisse, via la lecture, la recherche, le plaisir, l'écriture, etc. y développer sa propre idiosynchrasie. Comme l'arbre qui s'intégre à sa forêt : "la nature individualise et généralise en même temps". Processus orthogonal susceptible d'augmenter et intégrer la variété - en favorisant le développement personnel de chacun au sein du corpus des savoirs verbalisés humains.

Et puis est récemment arrivée l'informatique, cybernétique post-leibnizienne, avec ses divers traitements automatiques du langage. Outils numériques qui permettent l'études des idiomes et dialectes sur trois axes en constante évolution :

a) Le langage du "maintenant présent" que le dictionnaire Internet permet de désambiguer sans cesse. 

b) Le langage devenu métadonnées, telles que manipulées-étudiées-utilisées par les traitements automatique des langues (TAL) ou "machine learning" ou Machine-homme. Avec maintenant Bard et/ou ChatGpt, sortis en mars de cette année,  agents conversationnels apte au compendium d'immenses données et qui peuvent répondre à des questions précises en partant de n'importe quelle idée qu'on leur soumet ; gérant et "précisant" points de vue et réponses en fonction d'algorithmes et autres "transformers" de plus en plus efficaces .

Outils très intéressants, mais aussi extrêmement limités puisqu'il s'agit de compilateurs, (qui donc peuvent difficilement donner leurs sources - ou pas du tout ) et qui ne fonctionnent in fine qu'avec la latence d'un certain a postériori. Agents dialogueurs qui "rebondissent" sur questions et propositions, en fonction des instructions humaines de ses programmateurs. Reste qu'il faut reconnaitre que la puissance perspectiviste de ces bots, et leurs facultés à éviter pas mal de biais humains grâce aux transformers, est assez bluffante. 

On mettra ici aussi l'accent sur les profondes différences sémantiques du terme "intelligence" en français (ensemble des fonctions mentales apte à connaître, comprendre et à s'adapter facilement sur une base rationelle) et en anglais (collecte d'informations ayant une valeur militaire ou politique, tout autant que : capacité d'acquérir et d'appliquer des connaissances et des compétences.) Mais stop.

c) Le langage tel que FLP veut l'aborder, c'est à dire un traitement "Homme-machine", continu, qui propose à des participants qui aiment lire et réfléchir !!!  Oui oui - de faire émerger collectivement (et maintenir à flot) - un dictionnaire intriqué susceptible de développer une réflexion naturelle, organique... humaine collective. Le tout en conservant un minimum de précision sémantique consensuelle. 

Processus FLP francophone qui part évidemment du "terme simple", pour immédiatement s'intéresser aux premières combinaisons, à 2 mots - ou radicaux de mots - et aller vers "plus long et plus complexe" via une incessante quête de compréhension et de partage du consensus sémantique et syntaxique des participants. On pourra parler ici de tropisme vers un genre de logique formelle ensemble. Logique formelle qui recherche l'ouverture puisque ce "monde humain verbalisé" n'a d'autre limite que "le sens contextualisé des mots et des phrases", que ce soit dans le rationnel, la littérature, la poésie, le religieux ou pur imaginaire... ou même la fantaisie potache.

Au passage et pour l'anecdote il y a aussi cette piste "théologico-scientifique" ou "mystico-rationnelle", plutôt d'ordre ludique et maniaque et issue des Dialogue avec l'ange, qui veut s'inspirer et relier les septénaires tels que les recherches et classification humaines ont pu les discerner - et les faire apparaitre à tous niveaux-endroits et échelles possibles.

Partant de l'idée que le sept au-delà de tous les symboles culturels et cognitifs humains, porte en lui une inouie complexité dans la mesure où ce nombre peut s'apprécier géométriquement comme le mélange du cercle et du carré. Mélange, une fois utilisé comme mètre dans le rythme musical, qui nous apparait comme un carrousel infini

Le sept pourra-t'il éventuellement être corrélé un jour de manière plus générale, via par exemple une AI perspectiviste suffisamment puissante pour le faire ? Qui établira plus profondément et formellement un multidimensionnel maillage du réel de la cognition humaine sous cet angle septénaire après l'avoir comparé à d'autres maillages possibles (par 12, ou 5, ou autre).

En attendant de rencontrer - et pouvoir communiquer - avec une autre race, extraterrestre si possible, histoire de voir si pareil angle de perception est éventuellement partagé. 

Si tel est le cas nous pourrons alors parler d'exo-spiritualité ...ou de religion cosmique.

Hon hon hon hon hon hon hon...

Auteur: Mg

Info: avril-mai 2023 *on pourra presque dire ici que la matière nous parle

[ gnose ] [ polydipsique curiosité ] [ théologico-humoristico-mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Les scientifiques qui étudient le cerveau ont découvert que cet organe opère simultanément jusqu'à 11 dimensions différentes, créant des structures multivers qui présentent "un monde que nous n'avions jamais imaginé".

En utilisant un système mathématique avancé, les chercheurs ont pu montrer des structures architecturales qui apparaissent lorsque le cerveau doit traiter l'information, avant de se désintégrer et disparaitre. Leurs résultats, publiés dans la revue Frontiers in Computational Neuroscience, révèlent les processus extrêmement complexes impliqués dans la création de structures neuronales, ce qui pourrait aider à expliquer pourquoi le cerveau est si difficile à comprendre et à associer sa structure à sa fonction.

L'équipe, dirigée par des scientifiques de l'EPFL en Suisse, effectuait des recherches dans le cadre du projet Blue Brain, une initiative visant à créer une reconstruction biologiquement détaillée du cerveau humain. En travaillant d'abord sur les cerveaux des rongeurs, l'équipe a utilisé des simulations de supercalculateurs pour étudier les interactions complexes dans différentes de ses régions. Dans cette dernière étude, les chercheurs ont pu approfondir les structures du réseau neuronal du cerveau en utilisant la topologie algébrique - un système utilisé pour décrire des réseaux avec des espaces et des structures en constante évolution.

C'est la première fois que cette branche des mathématiques est appliquée aux neurosciences. "La topologie algébrique est comme un télescope et un microscope en même temps. Elle peut zoomer dans les réseaux pour trouver des structures cachées - les arbres dans la forêt - et voir les espaces vides - les clairières - tout en même temps", précise Kathryn Hess. Dans l'étude, les chercheurs ont effectué de multiples tests sur le tissu cérébral virtuel pour découvrir des structures cérébrales qui n'apparaitraient jamais par hasard. Ils ont ensuite effectué les mêmes expériences sur des tissus cérébraux réels afin de confirmer leurs résultats virtuels. Ils ont découvert que lorsqu'on présente un stimulus au tissu virtuel, des groupes de neurones forment une clique. Chaque neurone se connecte à tous les autres neurones de manière très spécifique pour produire un objet géométrique précis. Plus il y a de neurones dans une clique, plus les dimensions sont élevées. Dans certains cas, les chercheurs ont découvert des cliques avec jusqu'à 11 dimensions différentes.

Les structures s'assemblent en des enceintes qui forment des trous à haute dimension que l'équipe a nommé cavités. Une fois que le cerveau a traité l'information, la clique et la cavité disparaissent.

Multivers du cerveau. "L'apparition de ces cavités high-dimensionnelles lorsque le cerveau traite des informations signifie que les neurones du réseau réagissent aux stimuli d'une manière extrêmement organisée", a déclaré l'un des chercheurs, Ran Levi. "C'est comme si le cerveau réagit à un stimulus en construisant puis en rasant une tour de blocs multidimensionnels, en commençant par des tiges (1D), des planches (2D), puis des cubes (3D), puis des géométries plus complexes avec 4D, 5D, etc. La progression de l'activité à travers le cerveau ressemble à un château de sable multidimensionnel qui se matérialise hors du sable puis se désintègre ", a-t-il déclaré. Henry Markram, directeur de Blue Brain Project, avance que les résultats pourraient aider à expliquer pourquoi le cerveau est si difficile à comprendre. "Les mathématiques appliquées habituellement aux réseaux d'étude ne peuvent pas détecter les structures et les espaces à grande dimension que nous voyons maintenant clairement", a-t-il déclaré. "Nous avons découvert un monde que nous n'avions jamais imaginé. Il y a des dizaines de millions de ces objets, même dans un petit segment du cerveau, à travers sept dimensions. Dans certains réseaux, nous avons même trouvé des structures allant jusqu'à onze dimensions". Les résultats indiquent que le cerveau traite les stimuli en créant ces cliques et cavités complexes, de sorte que la prochaine étape sera de savoir si notre capacité à effectuer des tâches compliquées nécessite ou non la création de ces structures multidimensionnelles.

Dans une interview par courrier électronique avec Newsweek, Hess dit que la découverte nous rapproche de la compréhension d' "un des mystères fondamentaux de la neuroscience: le lien entre la structure du cerveau et la façon dont elle traite l'information". En utilisant la topologie algébrique l'équipe a pu découvrir "la structure hautement organisée cachée dans les modèles de tir apparemment chaotiques des neurones, une structure qui était invisible jusqu'à ce que nous l'examinions avec ce filtre mathématique particulier". Hess dit que les résultats suggèrent que lorsque nous examinons l'activité du cerveau avec des représentations à faible dimension, nous n'observons que l'activité réelle qui se déroule. Cela signifie que nous pouvons voir des informations, mais pas l'image complète. "Alors, dans un sens, nos découvertes peuvent expliquer pourquoi il a été si difficile de comprendre la relation entre la structure et la fonction du cerveau", explique-t-elle.  

"Le schéma de réponse stéréotypique que nous avons découvert indique que le circuit répond toujours aux stimuli en construisant une séquence de représentations géométriques commençant dans des dimensions faibles et en ajoutant des dimensions progressivement plus élevées, jusqu'à ce que l'accumulation s'arrête soudainement et s'effondre: une signature mathématique pour les réactions à stimuli. "Pour le travail futur, nous avons l'intention d'étudier le rôle de la plasticité - le renforcement et l'affaiblissement des connexions en réponse aux stimuli - avec les outils de topologie algébrique. La plasticité est fondamentale pour le processus mystérieux d'apprentissage, et nous espérons que nous pourrons donner un nouvel aperçu de ce phénomène", a-t-elle ajouté.

Auteur: Internet

Info: https://www.newsweek.com/brain-structure-hidden-architecture-multiverse-dimensions-how-brain-works-6243006/12/17 by Hannah Osborne - Ici FLP regrette sa volonté réitérée de ne pas insérer d'images dans les textes. Elles sont ici très parlantes.

[ simultanéïté ] [ réfléchir ] [ réflexion humaine modélisée ]

 

Commentaires: 0

évolution biologique

Une nouvelle étude de Yale sur la levure montre comment des facteurs non génétiques sont impliqués dans l'évolution en temps réel.

Dans l'étude, publiée dans la revue Cell Reports du 27 octobre, des chercheurs de l'Institut de biologie systémique de Yale ont montré comment les mécanismes épigénétiques - des modifications du phénotype d'un organisme non causées par des altérations de sa séquence d'ADN - contribuent à l'évolution du réseau de gènes chez la levure qui est responsable de la régulation de l'utilisation du sucre galactose. L'étude a montré qu'un changement épigénétique dans l'activité des gènes se transmettait à travers des centaines de générations de levure, et elle a des implications plus larges concernant le rôle de l'épigénétique dans l'évolution.

"La nature est futée", a déclaré Murat Acar, auteur principal de l'article et professeur associé de biologie moléculaire, cellulaire et du développement, ainsi que de physique. "Elle trouve toujours une solution chaque fois qu'elle est mise au défi par quelque chose. Vous voulez avoir une sorte de gagnant parmi votre population pour surmonter cet environnement difficile".

Jusqu'à récemment, l'explication de l'évolution reposait uniquement sur des mutations génétiques spontanées stimulant des adaptations avantageuses dans les organismes, selon David Moreno Fortuno, associé postdoctoral à l'Institut de biologie des systèmes et l'un des co-auteurs de l'article. Il a expliqué que cette théorie est connue sous le nom de néodarwinisme parce que la nature des gènes n'avait pas encore été découverte à l'époque de Darwin.

La théorie darwinienne de l'évolution contraste avec l'idée de Jean-Baptiste Lamarck, autrefois largement discréditée, selon laquelle l'évolution consiste à transmettre de petits changements qui sont acquis au cours de la vie d'un organisme, selon le PBS. Lamarck a publié sa théorie au début du 19ème siècle en France, et l'exactitude de cette théorie est toujours débattue aujourd'hui, surtout au vu de la résurgence, au cours des deux dernières décennies, de l'étude des influences épigénétiques - ou pas - sur l'évolution.

Les chercheurs ont utilisé un marquage fluorescent dans les cellules de levure pour suivre l'expression des gènes codant du galactose, des cellules plus brillantes correspondant à une plus grande expression de ces gènes. Ils ont observé les niveaux de fluorescence sur une période de sept jours et ont sélectionné à plusieurs reprises les cellules les plus faibles de la population. Les chercheurs nomment cette séparation des cellules plus faibles de la population générale de "pression sélective". Par rapport à la population de levure d'origine, ils ont constaté une diminution dans le temps de la quantité d'expression de ces marqueurs au sein de la population expérimentale.

 "Cette diminution s'est maintenue, même lorsque  la pression sélective fut supprimée pendant plus de 200 générations", a déclaré M. Fortuno.

Du fait que le génome de la levure soit si petit - seulement 12 millions de paires de bases contre 3 milliards pour l'homme - l'analyse de l'ensemble du génome de l'organisme pour les mutations génétiques est beaucoup plus facile à réaliser dans les cellules de levure.

Certaines des cellules de levure qui avaient modifié l'expression du gène codant pour le galactose ne présentèrent aucune mutation dans le réseau de gènes spécifié. Les chercheurs ont donc pu exclure les contributions génétiques à leurs observations.

"En fin de compte, nous avons vu que les théories darwiniennes de l'évolution génétique ne sont pas en mesure d'expliquer ces résultats par elles-mêmes", a déclaré M. Acar. "Il est nécessaire d'y inclure la théorie évolutionniste lamarckienne pour expliquer tout le spectre de nos résultats".

M. Fortuno a abordé les implications potentielles de l'étude, en prédisant que les cellules cancéreuses malignes sont similaires aux cellules de levure dans la mesure où les deux types de cellules sont en "évolution constante". Il a ajouté que la compréhension du rôle des mécanismes épigénétiques dans les génomes des cellules de levure pourrait ouvrir des pistes de recherche pour développer des traitements contre le cancer ou déterminer le stade du cancer dont souffre un patient.

Il note également que certains scientifiques pensent que la culture est un mécanisme épigénétique. Bien que la culture soit non génétique, il est possible qu'elle ait un impact mesurable sur nos marques épigénétiques si ces experts ont raison.

Le document indique également que les mécanismes génétiques et épigénétiques "n'ont pas à s'exclure mutuellement". 

"En réponse à une condition environnementale particulière, les deux types de mécanismes peuvent jouer un rôle et se compléter l'un l'autre", peut-on lire dans le document.

Le document explique également que les mécanismes épigénétiques peuvent provoquer des adaptations plus rapides à un environnement changeant, ils agissent généralement sur une échelle de temps plus courte que les mécanismes génétiques. À l'inverse, les mécanismes génétiques sont en jeu sur des périodes plus longues et entraînent des changements plus permanents dans un organisme.

M. Acar souligne que cette étude n'est qu'une première étape vers une meilleure compréhension du rôle des facteurs épigénétiques et qu'il attend avec impatience de voir des expériences similaires être réalisées sur d'autres organismes.

"Ce n'est qu'alors que nous verrons si ces résultats peuvent être généralisés, qu'ils soient darwiniens, lamarckiens ou hybrides - une théorie unifiée de l'évolution régissant l'évolution des organismes", a-t-il déclaré.

Les cellules de levure se reproduisent de manière asexuée toutes les 90 à 100 minutes.

Auteur: Jalbert Jonathan

Info: https://yaledailynews.com/ NOV 12, 2020

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel