Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 77
Temps de recherche: 0.0518s

perception visuelle

J'ai mis au jour les illusions d'optique qui créent l'impression d'une forme géométrique inexistante à partir d'éléments simples. L'une des figures les plus connues qui porte mon nom est celle du triangle de Kanizsa, qui est formé par trois triangles blancs disposés en triangle, avec un cercle noir au centre de chaque triangle. L'illusion créée est celle d'un triangle blanc plus grand dont les côtés sont formés par les bords des triangles blancs et les bords des cercles noirs. 

Mes travaux ont eu une influence importante sur la compréhension de la perception visuelle et ont contribué au développement de la psychologie cognitive.

Ce fameux triangle imaginé est un exemple de contour subjectif. Un contour subjectif est un contour perçu qui n'est pas réellement présent dans l'image puisque'il montre bien la façon dont notre cerveau peut compléter des informations manquantes en utilisant les informations disponibles dans l'image pour créer une image complète et cohérente.

Ce qui nous aide à comprendre comment notre cerveau construit une image du monde qui nous entoure et nous apprend plusieurs choses importantes sur la façon dont nous percevons le monde : 

1. Notre perception est active et constructive. Elle  construit une image du monde en complétant les informations manquantes. Dans ce cas, notre cerveau complète l'image en créant un triangle blanc qui n'est pas réellement présent. 

2. Notre perception est influencée par nos attentes, qui influencent la façon dont nous interprétons l'image. C'est pourquoi nous percevons un triangle blanc, même si celui-ci n'est pas réellement présent.

3. Notre perception est subjective puisque ce que nous  percevons dépend de notre propre expérience et de nos propres interprétations. Il est possible que deux personnes regardant la même image ne perçoivent pas la même chose.

4. Notre perception est influencée par le contexte. Si nous sommes entourés d'autres images de triangles blancs, nous sommes plus susceptibles de percevoir un triangle blanc dans l'image du triangle de K. 

En résumé notre cerveau est actif et il construit une image du monde en complétant les informations manquantes, en tenant compte de nos attentes, de nos expériences et du contexte dans lequel nous nous trouvons.

Cet effet est utilisé par les illusionnistes. Par exemple, on place un objet sur une table, puis on le recouvre d'une feuille de papier. On peut peut ensuite dessiner les contours d'un triangle sur la feuille, de sorte qu'un objet semble à l'intérieur du triangle. 

Les artistes peuvent aussi utiliser l'illusion du triangle de Kanizsa pour créer des œuvres qui sont à la fois belles et déroutantes.

Auteur: Kanizsa Gaetano

Info:

[ prestidigitation ]

 

Commentaires: 0

Ajouté à la BD par miguel

jungle primaire

Vous n’avez sans doute jamais entendu parler de la Białowieża Puszcza. Mais pour peu que vous ayez grandi dans la zone tempérée qui couvre une bonne partie de l’Amérique du Nord, du Japon, de la Corée, de la Russie et de plusieurs anciennes républiques soviétiques, ainsi que certaines parties de la Chine, de la Turquie et d’Europe de l’Est et de l’Ouest – îles Britanniques comprises –, alors quelque chose en vous en garde le souvenir. Si vous êtes né dans la toundra ou le désert, les régions subtropicales ou tropicales, la pampa ou la savane, il existe quand même des endroits sur Terre associés à cette Puszcza qui sauront stimuler votre mémoire.

Puszcza est un vieux mot polonais signifiant " forêt vierge ". À cheval entre la Pologne et la Biélorussie, le demi-million d’acres de la forêt de Bialowiesa renferme les derniers fragments européens de forêt à l’état primitif. Souvenez-vous de la forêt mystérieuse et embrumée que vous imaginiez quand on vous lisait un conte de Grimm. Ici, les frênes et les tilleuls culminent à quarante-cinq mètres de hauteur, et couvrent de leur ombre un enchevêtrement humide de charmes, de fougères, d’aulnes rugueux et de gros champignons. Les chênes, tapissés d’un demi-millénaire de mousse, sont tellement immenses qu’ils servent de garde-manger aux pics épeiches : ceux-ci creusent le tronc à sept centimètres de profondeur pour y entreposer des pommes d’épicéa. L’air, épais et frais, se pare d’un silence que seuls viennent briser les cris brefs du casse-noix, le sifflement grave d’une chevêchette d’Europe, ou la plainte d’un loup.

(...) Quel choc que de se dire que l’Europe entière ressemblait jadis à cette Puszcza. On se rend compte, en y pénétrant, que la plupart d’entre nous n’ont jamais connu qu’une pâle copie du programme originel de la nature. Ces sureaux aux troncs de deux mètres de large, ou ces gigantesques épicéas sans âge, devraient nous sembler aussi exotiques que l’Amazone ou l’Antarctique, à nous qui avons grandi près des bois de deuxième génération, chiches en comparaison, qui parsèment l’hémisphère Nord. Eh bien non, ce n’est pas le cas. Au contraire, on s’y sent en terrain connu. Une impression de plénitude en émane, au niveau cellulaire.

Étudiant en sylviculture à l’université de Cracovie, Andrzej Bobiec avait appris la gestion des forêts dans une optique productiviste maximale, notamment en se débarrassant de la couche organique " excessive ", de crainte qu’elle n’abrite scolytes et autres nuisibles. Quand il découvrit la forêt de Bialowiesa, il fut stupéfait d’y trouver dix fois plus de biodiversité que dans toutes les forêts qu’il connaissait.

Auteur: Weismann Joseph

Info: Homo disparitus, 2007

[ nature ] [ native ] [ végétale matrice ] [ Bialovèse ] [ Belovej ]

 

Commentaires: 0

Ajouté à la BD par miguel

recherche extrême

Si le déni du signifiant chez le dépressif rappelle le mécanisme de la perversion, deux remarques s’imposent.

D’abord, dans la dépression, le déni est d’une puissance supérieure à celle du déni pervers, qui atteint l’identité subjective elle-même et non seulement l’identité sexuelle mise en cause par l’inversion (homosexualité) ou la perversion (fétichisme, exhibitionnisme, etc.). Le déni annihile jusqu’aux introjections du dépressif et lui laisse le sentiment d’être sans valeur, "vide". En se dépréciant et en se détruisant, il consume toute possibilité d’objet, ce qui est aussi un moyen détourné de le préserver... ailleurs, intouchable. Les seules traces d’objectalité que conserve le dépressif sont les affects. [...] Aussi l’affect dépressif – et sa verbalisation dans les cures, mais aussi dans les œuvres d’art – est-il la panoplie perverse du dépressif, sa source de plaisir ambiguë qui comble le vide et évince la mort, préservant le sujet aussi bien du suicide que de l’accès psychotique.

Parallèlement, les diverses perversions apparaissent, dans cette optique, comme l’autre face du déni dépressif. [...] Ces actes et relations avec des objets partiels préservent le sujet et son objet d’une destruction totale et procurent, avec l’homéostase narcissique, une vitalité qui contrecarre Thanatos. La dépression est ainsi mise entre parenthèses, mais au prix d’une dépendance souvent vécue comme atroce vis-à-vis du théâtre pervers où se déploient les objets et les relations omnipotentes qui évitent l’affrontement à la castration et font écran à la douleur de la séparation pré-œdipienne. La faiblesse du fantasme qui est évincé par le passage à l’acte témoigne de la permanence du déni du signifiant au niveau du fonctionnement mental dans les perversions. Ce trait rejoint l’inconsistance du symbolique vécue par le dépressif ainsi que l’excitation maniaque par des actes qui ne deviennent effrénés qu’à condition d’être considérés insignifiants.

[...] Le déni dépressif [...] atteint jusqu’aux possibilités de représentation d’une cohérence narcissique et prive, par conséquent, le sujet de sa jubilation auto-érotique, de son "assomption jubilatoire". Seule demeure alors la domination masochique des replis narcissiques par un surmoi sans médiation qui condamne l’affect à rester sans objet, fût-il partiel, et à ne se représenter à la conscience que comme veuf, endeuillé, douloureux. Cette douleur affective, résultante du déni, est un sens sans signification, mais elle est utilisée comme écran contre la mort. Lorsque cet écran cède aussi, il ne reste comme seul enchaînement ou acte possible que l’acte de rupture, de dés-enchaînement, imposant le non-sens de la mort : défi pour les autres ainsi retrouvés au titre de rejetés, ou bien consolidation narcissique du sujet qui se fait reconnaître, par un passage à l’acte fatal, comme ayant toujours été hors du pacte symbolique parental, c’est-à-dire là où le déni (parental ou le sien propre) l’avait bloqué.

Auteur: Kristeva Julia

Info: Dans "Soleil noir", éditions Gallimard, 1987, pages 60-61

[ conjonction impossible ] [ absurde ] [ suicide ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

imagination

Quelle structure cérébrale est impliquée dans la compréhension visuelle de la causalité ? Aucune: c'est notre système visuel et non un mécanisme cognitif complexe qui nous permet de comprendre qu'un objet bouge à cause d'un autre objet (par exemple lorsqu'une boule de billard se déplace parce qu'une autre boule de billard l'a poussée). C'est ce que vient de découvrir une équipe internationale de chercheurs. A tout moment, nous réalisons des jugements visuels rapides de causalité - une balle renverse un verre sur une table -, de reconnaissance (entre par exemple une chose inerte ou vivante), ou de compréhension des intentions d'autrui. Ces raisonnements sont complexes, c'est pourquoi la plupart des scientifiques pensent que des structures cognitives importantes sont nécessaires pour les réaliser. D'un autre côté, ils se font tellement rapidement et sans effort, qu'ils pourraient finalement être "intuitifs". Les équipes de Patrick Cavanagh (Université Paris Descartes, CNRS), Rolfs, (Université Humboldt de Berlin), Michael Dambacher (Université de Constance) ont mis fin à cette question: la causalité peut être interprétée seulement par le système visuel. "Nous avons démontré que nos yeux peuvent évaluer rapidement une situation de cause à effet sans l'aide de notre système cognitif", explique Patrick Cavanagh, professeur dans le laboratoire de psychologie de la perception (Université Paris Descartes, CNRS, ENS). Deux composantes sont nécessaires pour définir une situation de causalité, par exemple une boule de billard en touche une autre qui se déplace ensuite. Les événements doivent se succéder rapidement et nécessitent généralement un contact. De plus, ils doivent être perçus comme un seul événement: plutôt que de voir un objet bouger puis s'arrêter et un autre objet se déplacer par lui-même, il y a une continuité du mouvement qui est transféré du premier objet au second. Pour tester comment le cerveau détermine la causalité, les scientifiques ont utilisé un procédé dit d'adaptation, souvent utilisé dans les études du mécanisme neuronal impliqué dans les facultés visuelles. Une expérience optique de ce type est bien connue: en fixant une tâche rouge, pendant quelques secondes, puis un mur blanc, on voit une tâche verte, l'oeil s'est "adapté" à la tâche rouge. Les chercheurs ont constaté qu'après une exposition répétée à des événements de causalité - ici collisions de deux objets - les épreuves test apparaissent comme ayant moins de lien de causalité. A l'inverse, l'adaptation avec des événements non-causals a eu peu d'effet. Cela indique que certains jugements de causalité seraient déterminés par le système visuel et ne feraient pas appel à des mécanismes cognitifs complexes. De plus, le test bouge quand les yeux bougent, exactement comme pour la tâche verte qui apparaît suite à l'exposition à une tâche rouge. Seul le processus visuel et non un mécanisme cognitif peut expliquer cette spécificité. "Il reste à distinguer les types de jugements qui demandent un processus cognitif particulier de ceux qui ne font appel qu'au système visuel" précise Martin Rolfs, professeur à l'Université Humboldt de Berlin.

Auteur: Dambacher Michael

Info: Visual Adaptation of the Perception of Causality, current Biology, 10 January 2013. Ecrit avec Martin Rolfs et Patrick Cavanagh

[ réflexion ] [ penser ] [ sciences ]

 

Commentaires: 0

physique photonique

Quantifier la quantification : un projet mathématique "d'une immense beauté".

Les chercheurs mettent au point une méthode pour déterminer le degré de quantification de l'état d'un système.

Tout grand objet : balle de base-ball, véhicule, planètes, etc, se comporte conformément aux lois classiques de la mécanique formulées par Sir Isaac Newton. Les petits, comme les atomes et les particules subatomiques, sont régis par la mécanique quantique, où un objet peut se comporter à la fois comme une onde et comme une particule.

La frontière entre le domaine classique et le domaine quantique a toujours été d'un grand intérêt. Les recherches rapportées dans AVS Quantum Science par AIP Publishing, examinent la question quant à savoir ce qui fait qu'une chose est "plus quantique" qu'une autre. Existe-t-il un moyen de caractériser la "quanticité" ? Les auteurs indiquent qu'ils ont trouvé une approche pour le faire.

Le degré de quanticité est important pour des applications telles que l'informatique et la détection quantiques, qui offrent des avantages que l'on ne trouve pas dans leurs équivalents classiques. Pour comprendre ces avantages, il faut à son tour comprendre le degré de quanticité des systèmes physiques concernés.

Plutôt que proposer une échelle dont les valeurs seraient associées au degré de quanticité, les auteurs de cette étude examinent les extrêmes, à savoir quels sont les états les plus, ou les moins... quantiques. Selon l'auteur Luis Sanchez-Soto, l'idée de cette étude est venue d'une question posée lors d'une réunion scientifique.

"Je donnais un séminaire sur ce sujet lorsque quelqu'un m'a posé la question suivante : 'Vous, les gars de l'optique quantique, vous parlez toujours des états les plus classiques, mais qu'en est-il des états les plus quantiques?'", 

On a compris depuis longtemps que les états dits cohérents peuvent être décrits comme quasi-classiques. Ils se produisent, par exemple, dans un laser, où la lumière provenant de plusieurs sources de photons est en phase, par conséquence dans un état très peu quantique.

Un tel système quantique peut être représenté mathématiquement par des points, plus ou moins nombreux, que l'on répartit sur une sphère, souvent en les intriquant sur spectre de couleurs pour avoir une meilleure représentation de ce qu'on appelle en général "constellation de Majorana". Pour les états cohérents, la constellation est simplement un point unique. Par conséquent ceux qui sont les plus quantiques présentent des configurations plus riches/nombreuses qui recouvrent plus richement la sphère. Les sphères pouvant être modélisées de plusieurs manières : par un simple cercle où sont disposés les "points quantiques", via les répartitions de couleurs, voire en usant de ces point de polarités pour transformer chaque sphère en un polyèdre plus ou moins complexe. 

Les chercheurs, après avoir examiné plusieurs autres approches de scientifiques ayant exploré les quanta, et en prenant en compte la constellation de Majorana pour chacune d'entre elles, s'étaient sont alors demandés comment répartir au mieux, ou le plus uniformément, l'ensemble des points sur une sphère dans le cadre de cette approche. 

C'est ainsi que Sanchez-Soto et ses collègues, en abordant la quanticité sous cet aspect, ont réalisé qu'il s'agissait d'un projet mathématique non seulement utile, mais "d'une immense beauté".

Auteur: Internet

Info: https://www.newswise.com. 12 nov 2020

[ électrons ]

 

Commentaires: 0

Ajouté à la BD par miguel

étiquetage

Le référencement, c'est à dire le fait de créditer l'auteur d'une phrase/idée, présente, si on se met dans l'optique FLP, plus d'inconvénients que d'avantages. Déjà parce nous sommes dans un monde sémantique à fond anthropocentrique - voire androcentrique - dont il va falloir rapidement se distancier puisque ces deux instanciations fondatrices ont suffisamment montré leurs limites au vu de la situation globale des humains en 2022.

En réalité une quête de pureté onomasiologique devrait pouvoir s'en abstraire, si on veut bien réaliser qu'une immense partie des référencements furent motivés et articulés sur des bases douteuses, dues probablement - si on veut être optimiste - à une espèce humaine extrêmement jeune en terme de développement, espèce principalement soumise à son avidité et à des pulsions primitives, défauts trop souvent concentrés et démultipliés par des dirigeants désireux de maintenir/consolider leurs pouvoirs. Grand manque de conscience et de sagesse donc. 

Pour argumenter un peu plus en détails en ce sens on citera, entre autres, les diverses "vérités des vainqueurs", "damnatio memoriae"... et autres inerties de "savoirs établis" bien en peine de reconnaitre la fugacité de leurs vérités... Sans parler des arguments d'autorité qui vous assèneront que tel extrait de Shakespeare ou Einstein est plus vrai/pertinent que la parole d'un individu lambda ayant vraiment expérimenté une situation. 

Pour faire très court, on dira que pouvoir et linguistique forment dès le départ un curieux ménage puisque les mots furent et sont encore bel et bien orientés et décidés "d'en haut" via les règlements nationaux, dogmes politico/religieux, etc. 

Imprégnation sémantique devenue plus géopolitique actuellement à voir combien les médias, loisirs, systèmes comptables, universités et hautes écoles... sont noyautés par la pensée US post ww2.

Bien sûr la culture d'en-bas, celle de la masse, réseaux sociaux et des démographies... génère d'autres biais, pensons aux deux "biens" que sont l'Etat Providence et la culture de l'émotion, avec tous les excès qu'ils portent en  eux.

FLP penche cependant vers cette seconde catégorie... n'est que par envie de compensation historique. Pour notre système le sens des mots et des phrases devraient donc plutôt être discutés, mis en question et continuellement définis... "par tous", surtout via la fonction "chaines" qu'on pourra éventuellement apparenter à une forme de lemmatisation dans l'avenir.

Et puis il y a l'accélération des choses, l'informatique y aura bien aidé... Mais aussi les bienfaits des inerties, paliers historiques, stases dans l'évolution... Les bénéfices de ces arrêts... de la prise du temps de réflexion, du temps long... de la pondérations des équilibres. Timing des actions synchronisées... Diachronies discontinues... Uchronies créatrices.... Toutes idées au regard desquelles le langage apparait comme bien dérisoire. Mais stop.

Il faudrait donc avoir bien des trucs en tête lorsqu'on s'amuse à insérer un extrait sur FLP.... Se situer quelque part en-deça de soi-même dans l'idéal... et ne s'appuyer que sur le SENS de "l'agencement des mots". En faisant aussi bien gaffe à être le plus précis et pointilleux pour ce qui concerne le paramétrage des auteurs et des infos concernant le texte inséré. 

Alors, la classification enchevêtrée du système FLP et la souple puissance de son moteur de recherche, alliées aux outils étymologiques et lexicologiques d'Internet, ainsi qu'aux interventions des participants et de la modération, devraient permettre d'ordonner, contextualiser, intriquer, verticaliser... telle pensée ou extrait... le moins mal possible... Et faire avancer ce grand jeu pré-mémétique de la pensée humaine.

Auteur: Mg

Info: 15 juin 2022

[ citation s'appliquant à ce logiciel ] [ indexation ]

 

Commentaires: 0

Ajouté à la BD par miguel

éléments biographiques

Vers 1937-1938, à la cime du triomphe des Hommes de bonne volonté, Jules Romains devait rappeler doucement à des journalistes (il l'a raconté à André Bourin dans Connaissance de Jules Romains), qu'il n'était pas seulement un romancier, et qu'entre 1922 et 1932 il avait été un des auteurs dramatiques les plus joués non seulement en France, mais en Europe . Il leur montrait une caricature d'une grande feuille satirique où la situation d u théâtre en Europe était symbolisée par un triangle avec une tête à chacun des angles : Bernard Shaw, Pirandello , Jules Romains. Jules Romains n'est pas seulement philosophe parce qu'il est agrégé de philosophie. L'unanimisme est plus qu'une école littéraire en isme, comme le romantisme, le symbolisme, le naturalisme. Il est aussi une doctrine philosophique , une vision du monde, un système de pensée fortement lié, fondement de toute son œuvre. Entre le passé, le présent, l'avenir, Jules Romains prend conscience d'un continu psychique. Il communie "avec l'âme diffuse qui relie et soutient les âmes particulières. L'individu fondu dans l'unanimisme (à quoi l'aideront le Rire et l'Aventure), se sentira devenir dieu, fuira le néant, sera assuré de survivre." (Madeleine Berry, Jules Romains.) Comme beaucoup de systèmes philosophiques l'unanimisme est né d'une illumination : celle qui embrasa l'âme du lycéen de dix-huit ans, un soir d'octobre 1903 où, avec son ami Georges Chennevière, il remontait la rue d'Amsterdam, au retour du lycée Condorcet, pour regagner l'appartement de ses parents, à Montmartre. Jules Romains est aussi un homme de science. Quand il entra à Normale Supérieure, il était déjà pourvu de sa licence ès lettres. A l'Ecole, il passa sa licence de sciences naturelles avec trois certificats : physiologie générale, histologie, botanique. Pour son mémoire d'études supérieures il choisit un sujet de biologie : L'état individu de la matière vivante. Ce mémoire familiarisait le normalien des Lettres avec le laboratoire, le microscope, la bactériologie . En outre, a confessé Jules Romains à André Bourin, il avait pour lui, "en secret, le mérite de rejoindre les préoccupations centrales de l'unanimisme. Tout problème concernant la formation de groupes, et les formes de passage, dans les deux sens, entre le groupe et l'individu, est essentiel à la pensée unanimiste". C'est avec cette idée de derrière la tête qu'il étudia des végétaux inférieurs et des colonies bactériennes, et qu'il fit des expériences sur l'autonomie du cœur de la grenouille. Plus tard, pendant cinq ans, Jules Romains faillit basculer tout à fait du côté des Sciences. Il entreprit des recherches sur la Vision extra-rétinienne et le sens paroptique. Certains animaux se dirigent sans voir. Les poissons y réussissent grâce à une particularité anatomique dite ligne latérale. Pourquoi l'homme ne posséderait-il pas un sens aussi mystérieux ? Pourquoi n'aurait-il pas été doué, à l'origine, d'un sens paroptique, qui, dans l'histoire de l'humanité, aurait précédé le sens optique ? Jules Romains essaya de rééduquer quelques aveugles. Il ne put rééduquer certains pontifes de la médecine qui dressèrent contre lui le barrage de leurs diplômes que leurs ancêtres avaient dressé contre Pasteur. Il abandonna ses recherches et reprit la plume de l'écrivain. Il publia le compte rendu de ses expériences : La vision extra-rétinienne et le sens paroptique (1920). Ces expériences seront poursuivies victorieusement par René Maublanc , qui publia ses résultats, en collaboration avec Leïla Holteroff : Une éducation paroptique. La découverte du monde visuel par une aveugle (Gallimard, 1926). Plus récemment des savants soviétiques et des savants américains confirmèrent la vérité des hypothèses de Romains. Mais, au temps où il les formulait, il se heurta à la cabale des officiels bardés de leurs peaux d'ânes. Ils l'accusèrent d'avoir monté un canular. Ils ne pouvaient pas admettre qu'ils avaient devant eux un génie universel, comme ceux de la Renaissance, et que le même homme pût écrire les Copains et faire des découvertes de laboratoire. On succombait déjà sous l'éteignoir de la spécialisation. Dans les Lettres et les Arts, il était interdit déjà d'être grand et de dépasser le gabarit du produit de série.

Auteur: Guth Paul

Info: Hommage à jules Romains

[ éloge ] [ polymathe ]

 
Commentaires: 2
Ajouté à la BD par miguel

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

recherche fondamentale

Personne ne prenait au sérieux les expériences quantiques de John F. Clauser. 50 ans plus tard, il reçoit un prix Nobel.

Le 4 octobre, John F. Clauser, 80 ans, s'est réveillé dans sa maison californienne pour apprendre qu'il avait reçu le prix Nobel de physique. Il le recevra lors d'une cérémonie à Stockholm, en Suède, le 10 décembre, avec Anton Zeilinger et Alain Aspect, pour leurs travaux sur l'intrication quantique. 

Un moment de fête pour Clauser, dont les expériences révolutionnaires sur les particules de lumière ont contribué à prouver des éléments clés de la mécanique quantique.

"Tout le monde veut gagner un prix Nobel", a déclaré M. Clauser. "Je suis très heureux."

Mais son parcours jusqu'à l'obtention du plus grand prix scientifique n'a pas toujours été simple. 

Dans les années 1960, Clauser était étudiant en physique à l'université Columbia. Par hasard, il découvrit à la bibliothèque de l'université un article qui allait façonner sa carrière et l'amener à poursuivre les travaux expérimentaux qui lui ont valu le prix Nobel.

L'article, écrit par le physicien irlandais John Stewart Bell et publié dans la revue Physics en 1964, se demandait si la mécanique quantique donnait ou non une description complète de la réalité. Le phénomène d'intrication quantique constituant le cœur de la question.

L'intrication quantique se produit lorsque deux ou plusieurs particules sont liées d'une certaine manière, et quelle que soit la distance qui les sépare dans l'espace, leurs états restent liés. 

Par exemple, imaginez une particule A qui s'envole dans une direction et une particule B dans l'autre. Si les deux particules sont intriquées - ce qui signifie qu'elles partagent un état quantique commun - une mesure de la particule A déterminera immédiatement le résultat de la mesure de la particule B. Peu importe que les particules soient distantes de quelques mètres ou de plusieurs années-lumière - leur liaison à longue distance est instantanée. 

Cette possibilité avait été rejetée par Albert Einstein et ses collègues dans les années 1930. Au lieu de cela, ils soutenaient qu'il existe un "élément de réalité" qui n'est pas pris en compte par la mécanique quantique. 

Dans son article de 1964, Bell soutenait qu'il était possible de tester expérimentalement si la mécanique quantique échouait à décrire de tels éléments de la réalité. Il appelait ces éléments non pris en compte des "variables cachées".

Bell pensait en particulier à des variables locales. Ce qui signifie qu'elles n'affectent la configuration physique que dans leur voisinage immédiat. Comme l'explique Clauser, "si vous placez des éléments localement dans une boîte et effectuez une mesure dans une autre boîte très éloignée, les choix de paramètres expérimentaux effectués dans une boîte ne peuvent pas affecter les résultats expérimentaux dans l'autre boîte, et vice versa."

Clauser décida de tester la proposition de Bell. Mais lorsqu'il voulut faire l'expérience, son superviseur l'exhorta à reconsidérer sa décision. 

"Le plus difficile au départ a été d'obtenir l'opportunité", se souvient Clauser. "Tout le monde me disait que ce n'était pas possible, donc à quoi bon !".

Le laboratoire quantique 

En 1972, Clauser a finalement eu l'occasion de tester la proposition de Bell alors qu'il occupait un poste postdoctoral au Lawrence Berkeley National Laboratory en Californie. Il s'associa à un étudiant en doctorat, Stuart Freedman. Ensemble, ils mirent sur pied un laboratoire rempli d'équipement optique. 

"Personne n'avait fait cela auparavant", a déclaré Clauser. "Nous n'avions pas d'argent pour faire quoi que ce soit. Nous avons dû tout construire à partir de rien. Je me suis sali les mains, ai été immergé dans l'huile, il y avait beaucoup de fils et j'ai construit beaucoup d'électronique."

Clauser et Freedman ont réussi à créer des photons intriqués en manipulant des atomes de calcium. Les particules de lumière, ou photons, s'envolaient dans des filtres polarisants que Clauser et Freedman pouvaient faire tourner les uns par rapport aux autres. 

La mécanique quantique prédit qu'une plus grande quantité de photons passerait simultanément les filtres que si la polarisation des photons était déterminée par des variables locales et cachées.

L'expérience de Clauser et Freedman mis en évidence que les prédictions de la mécanique quantique étaient correctes. "Nous considérons ces résultats comme des preuves solides contre les théories de variables cachées locales", ont-ils écrit en 1972 dans Physical Review Letters.

Des débuts difficiles

Les résultats de Clauser et Freedman furent confirmés par d'autres expériences menées par Alain Aspect et Anton Zeilinger. 

"Mes travaux ont eu lieu dans les années 70, ceux d'Aspect dans les années 80 et ceux de Zeilinger dans les années 90", a déclaré Clauser. "Nous avons travaillé de manière séquentielle pour améliorer le domaine".

Mais l'impact de l'expérience révolutionnaire de Clauser n'a pas été reconnu immédiatement.

"Les choses étaient difficiles", se souvient Clauser. "Tout le monde disait : "Belle expérience, mais vous devriez peut-être sortir et mesurer des chiffres et arrêter de perdre du temps et de l'argent et commencer à faire de la vraie physique"."

Il a fallu attendre 50 ans pour que Clauser reçoive le prix Nobel pour son travail expérimental. Son collègue, Stuart Freedman, est décédé en 2012. 

"Mes associés sont morts depuis longtemps. Mon seul titre de gloire est d'avoir vécu assez longtemps". a déclaré Clauser

Lorsqu'on lui a demandé s'il avait des conseils à donner aux jeunes chercheurs compte tenu de sa propre difficulté initiale, Clauser a répondu : "Si vous prouvez quelque chose que tout le monde pense vrai, et que vous êtes le premier à le faire, vous ne serez probablement pas reconnu avant 50 ans. C'est la mauvaise nouvelle. La bonne, c'est que j'ai eu beaucoup de plaisir à faire ce travail." 


Auteur: Internet

Info: https://www.livescience.com, Jonas Enande, 9 déc 2022

[ agrément moteur ] [ délectation ] [ observateur dualisant ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel