Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 217
Temps de recherche: 0.0619s

cognition

Lorsqu'on réfléchit à une idée-concept c'est toujours à postériori. 

Pas tout à fait ici, puisque nous désirons aborder et tenter de caractériser le terme "conscience". Vu bien sûr "à partir de", l'entendement humain. 

Conscience humaine, ici notion-idée tant grégaire-objective, qu'individuelle-subjective, qui serait, selon nous autres singes dépoilés, la plus complexe et la plus évoluée à ce jour. 

Ah ah ah, c'te bonne blague. 

Soit. 

Selon FLP l'entendement humain est principalement scriptural, c'est à dire qu'il a pu se développer "un cran plus loin, ou plus" grâce aux symboles et langages, puis à l'écriture de signes organisés, bientôt stockés sur supports externes, ceci amenant l'émersion-développement d'une culture grégaire (dictionnaires, traductions, mathématiques, spécialisations théologico-scientifiques, recensement des tactiques militaro-politico-économiques, littérature, philos, intellectualisme, chatgpt, etc). Tout ceci maintenant traduit et trans-frontières, accessible à tous, planétarisé... numérisé... Avec une tendance à s'orienter vers l'image ; mais c'est une autre histoire.

Il y a donc un grand corpus-intellect humain, constitué au fil des générations par des millions de singularités qui bougent, agissent... réfléchissent, échangent, et manipulent les idées, principalement écrites donc. 

Corpus qui résulte de notre interaction avec la réalité (priméité), interaction qui génère par rétroaction, grâce à des idiomes qui codifient-définissent-organisent, nos divers points de vue,  (codés par des mots pour faire simple) sur ce réel. Un corpus suffisamment vaste, riche et varié pour que chaque subjectivité puisse s'y épanouir, y exister... se définir elle-même. Et s'y perdre. Aussi.

La preuve ici-même ?

C.S. Pierce dirait quelque chose comme ; humains-secondéités qui, au contact de leur réel-priméité, génèrent des textes, pensées-écrits, qui sont des tiercités. 

Ainsi l'IA matérialisée par chatgpt et consorts ne fait que manipuler ces humaines tiercités. Autant dire que par rapport aux développements divers de la vie bactérienne, et des combinaisons toujours plus complexes de molécules et de protéines qui s'en sont ensuivies, les langages humains font piteux. Pour l'instant.

Oublions ceci et réfléchissons selon la triade piercéenne, partant de l'idée que la priméité est au premier chef notre biotope terre-soleil, avec l'univers en arrière-plan. 

(Avec cette digression :  si la priméité est le soleil et la secondéité notre matrice Gaïa, cette dernière générerait alors des tiercités sous forme de vie organique et d'humains. Perspective éventuellement pessimiste dans la mesure où elle pourrait impliquer l'idée d'une terre-Gaïa terminus, à la surface de laquelle les humains ne seraient qu'éphémères et transitoires virus. Pourquoi pas.)

Mais restons sur cette triade initiale, qui peut être appréhendée comme purement mécanique, logique, voire simplement informationnelle récursive :

a) réalité source-priméité b) vie organique hommes-secondéité C) technologies écritures humaines-tiercité.  

Prenons maintenant un peu de recul en termes de temps et d'échelles, partant de ce que nous savons de plus basique pour ce qui concerne la vie "issue de la matière". A savoir à partir de la chimiosynthèse et surtout, de la photosynthèse. C'est à dire de l'interaction assez incroyable entre l'énergie solaire (photons) et certains atomes-molécules terrestres qui, par le truchement de l'anhydride de carbone*, en viennent à générer des chaines organiques, des végétaux, des animaux...  Et nous.  

Reprenons : l'idée-concept de départ à définir ici est celle de conscience, vue de, et rapportée à "l'entendement humain". ( Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. FLP, ne se refusant à aucune mégalomanie, s'attaque à l'esprit lui-même, sissi. D'autant qu'on dirait  que les paradoxes quantiques pointent vers cet impératif. Impératif qui pourra se résumer en une question : comment fonctionne l'observateur ?)

Ici se pose le vertige des limites que porte en lui le langage. Parce que ce dernier, usant de "symboles écrits", désignait/nommait originellement les éléments issus de notre réalité de "façon claire", un arbre est un arbre, une montagne est une montagne, etc... Langage aussi capable de désigner/nommer une abstraction généralisante comme "notre réel lui-même". Et qui, plus avant, est même apte à désigner l'observateur-générateur-manipulateur de l'idiome lui-même. Toi moi, nous autres humains lecteurs.

Puissance paradoxale d'une pensée symbolique suffisamment adroite pour se contempler en miroir d'elle-même via les jeux polysémiques et autres variés décalages signifiant-signifié.

Quel(s) terme(s) alors utiliser pour tenter d'approcher une définition de cette curieuse émergence auto-réfléxive en s'inspirant de l'interaction photosynthétique ?  médium, mécanisme, outil interactif, "quelque chose qui réfléchit"... intelligence... transmutation...  émergence...  interface pseudo rationnelle... pensée abstraite agissante ?... 

Quelques mots simples n'y suffiront pas, et, pour prendre un exemple, une AI totalisante comme chatgpt semble s'y perdre à l'identique, enfermée dans ce qu'il faut bien appeler un anthropisme limitatif. 

C'est ici que FLP, sous pilotage humain (ses participants-lecteurs inserteurs) pourra se positionner, via la conjonction-usage de plusieurs termes simultanés (verticaux, nuage de corrélats ?). Conjonction susceptible de mieux préciser-comprendre-communiquer tel ou tel mot ou situation. Ce qui pourrait bien aider à mieux définir-consolider certaines articulations de nos raisonnements. Mais aussi mieux approcher une image "rapportée" de la conscience humaine, en fonction de "contextes précis et délimités" - pour commencer. 

Fonction FLPique de dictionnaire intriqué - qui n'en n'est qu'à ses balbutiements - et qui s'amuse à sortir de la prison séquentielle du raisonnement écrit en ouvrant une réflexion qui s'arrête en un point, perpendiculaire en quelque sorte. Halte cogitation éventuellement aidée par ces termes-tags-étiquettes annexes, verticaux, ou en nuage. Listing annexe à tendance synonymique qui pourra se présenter comme suit pour ce texte même, éventuellement par ordre d'importance :

entendement

assimilation chlorophyllienne

gnose

méta-moteur

savoirs

mécanisme constructeur, etc.

Humaine-conscience-interface très limitée aussi, au sens où elle ne sert à peu près qu'à elle-même. Femmes et hommes, enfermés encore et toujours dans une Culture communautaire trans-époque que nous qualifions volontiers de "solipsisme anthropique". 

Savoirs humains entassés-conjugués qui ressemblent donc à un genre de grande conscience désordonnée, pour laquelle des termes comme information, communication, virtualité, annales akashiques... quasi-esprit, savoirs compilés... Une fois bien mélangés-combinés, pourront faire l'affaire. Mais stop.

Intéressons-nous maintenant ici à la notion de vitesse, sans lâcher cette idée de comparer " comment nous pensons nous-mêmes " avec une photosynthèse qui opère à des échelles de l'ordre du millionnième de seconde et du millionnième de millimètre.  

Bonjour alors les infinités d'échelons et de déclinaisons de " consciences ", ou de niveaux de réflexions qui pourront découler de cette idée ; enchevêtrés de surcroit. Au hasard - et par seuls groupes de deux : animaux et biotope, molécules et gravitation, lune et océans, humains et idées, insectes et univers, etc...

Tout est dans tout.

Sortons alors de cette idée de mécaniques résonantes partout dans le cosmos et remettons nous à la place de l'individu monade, du créateur, ou de l'indispensable lecteur qui aide à faire exister ces lignes. 

De notre conscience propre donc, au sens d'une intellection humaine rationnelle, directement issue d'un esprit des listes - et de la logique formelle duale qui nous anime. Une fondation très simple donc, rapide et fugace, pour qui " s'introspecte " avec honnêteé et lucidité.

Ici l'auteur de ces lignes précise qu'il y a, à tous les plans de la vie non minérale incarnée, un mécanisme incontournable qui est celui de la survie, de la perpétuation. Un mécanisme "qui pousse" et qui, pour FLP, est sous-tendu depuis peu (à l'échelle cosmique) particulièrement chez les eucaryotes, par la dualité mâle-femelle. Avec les poncifs qui vont avec : procréation-curiosité, terre-ciel, conservation-exploration, etc... 

Mécanisme tétravalent, mais c'est une autre histoire.

Cette survie, de notre limitée perspective d'animaux humains, au-delà des infinies différences de vitesse citées plus tôt, présente divers stades-niveaux d'intensité et de résilience que nous dirons psycho-sociologiques : l'individu-monade, sa famille, la communauté... son pays... jusqu'à sa planète. 

Déclinés comme suit : 

- Survie immédiate, dans l'instant.

- Survie à moyen terme - comment se développer, s'intégrer, trouver un travail, un/une partenaire... 

- Survie dans le temps - comment procréer, fonder une, ou plusieurs, famille(s). Construire une carrière pour y aider.

- Survie communautaire ou territoriale - comme n'importe quelle nation agressée qui se défend... ou un peuple juif qui veut se maintenire au travers des pays et des âges.

- Survie grégaire - par exemple de terriens menacés par de vilains ET's dans un mauvais scénario de SF. Ou plus simplement menacés par eux-mêmes de par le réchauffement climatique qu'ils ont induit. 

Humano-terriens qui malgré celà continuent leur expansion démographique et consumériste. Grr

Quant à la survie du processus Gaïa lui-même, ayons l'humilité de reconnaitre que c'est une problématique qui nous dépasse. En attendant de rencontrer les entités qui se sont amusées à nous créer (pour voir ?)... et ouvrir un peu nos perspectives ;-)

En résumé, pour reprendre l'objet de départ de ce texte, la caractérisation du terme "conscience", on s'aperçoit que comme tout principe terminologique arrêté, ce mot se révèle plurivoque, jusqu'à devenir UNIVERS (classe d'universalité des mathématiciens-physiciens ?) dès qu'on entreprend d'approfondir-préciser son analyse sémantique. Univers humain  objectif constitué du rassemblement scriptural et maintenant informatique de subjectivités orthogonales, c'est à dire mâles-femelles tous pareils et différents à la fois  - avec une infinité de niveaux et de vitesses imbriquées, ou pas, parallèles, ou pas... C'est à dire tout en même temps connexionniste, bayésien, perspectiviste, diachronique, systémique, cybernétique, etc. 

Tout est dans tout. 

Encore.

Tout ceci allant très au-delà - par exemple - d'une méthode sémantico-noétique aristotélicienne de l'abstraction, limitation en elle-même.

La conscience est partout et nulle part. 

Elle est surtout un mot à la mode qui, sans le langage et surtout l'écriture, ressemble à une illusion. 

"L'être humain vivant semble n'être constitué que de matière et d'énergie. L'esprit n'est qu'une hypothèse." Isaac Asimov**

Auteur: Mg

Info: sept 2023. *Le carbone représente 0,5% des atomes dans la voie lactée. Le CO2, atome de carbone sous sa forme gazeuse, aussi nommé dioxyde de carbone, gaz carbonique ou anhydride carbonique est présent à 4% dans l'athmosphère terrestres. En janvier 2021, l'atmosphère terrestre comportait 415,13 ppmv (parties par million en volume) de CO2, soit 0,04153 %. Cette teneur était de 283,4 ppmv en 1839 d'après des carottes de glace prélevées dans l'Antarctique, soit une augmentation globale d'environ 46 % en 182 ans. **Épigraphe dans Isaac Asimov's Book of Science and Nature Quotations (1988), 214

[ anthropocentrisme ] [ hiérarchisation ] [ corps-esprit ] [ au coeur de FLP ] [ ontologie ] [ polysémie ]

 
Commentaires: 8
Ajouté à la BD par Le sous-projectionniste

furtifs méta-moteurs

Découvrez les formes modulaires, la " cinquième opération fondamentale " des mathématiques

Les formes modulaires sont l’un des objets les plus beaux et les plus mystérieux des mathématiques. Quels sont-ils ?

" Il existe cinq opérations fondamentales en mathématiques ", aurait déclaré le mathématicien allemand Martin Eichler. " Addition, soustraction, multiplication, division et formes modulaires. "

Une partie du gag bien sûr, c’est que l’un d’entre eux n’est pas comme les autres. Les formes modulaires sont des fonctions beaucoup plus compliquées et énigmatiques, et les étudiants ne les rencontrent généralement pas avant leurs études supérieures. Mais " il y a probablement moins de domaines mathématiques où ils n'ont pas d'applications que là où ils en ont ", a déclaré Don Zagier , mathématicien à l'Institut de mathématiques Max Planck de Bonn, en Allemagne. Chaque semaine, de nouveaux articles étendent leur portée à la théorie des nombres, à la géométrie, à la combinatoire, à la topologie, à la cryptographie et même à la théorie des cordes.

Elles sont souvent décrites comme des fonctions qui satisfont des symétries si frappantes et si élaborées qu’elles ne devraient pas être possibles. Les propriétés associées à ces symétries rendent les formes modulaires extrêmement puissantes. C’est ce qui a fait d’elles des acteurs clés dans la preuve historique du dernier théorème de Fermat en 1994. C'est ce qui les a placés au cœur des travaux plus récents sur l'emballage des sphères . Et c'est ce qui les rend désormais cruciales pour le développement continu d'une " théorie mathématique du tout " Nommée programme de Langlands .

Mais que sont-elles ?

Symétries infinies

Pour comprendre une forme modulaire, il est utile de réfléchir d’abord à des symétries plus familières.

(...)

"Les formes modulaires ressemblent aux fonctions trigonométriques, mais sous stéroïdes", a-t-il ajouté. Ils satisfont une infinité de symétries " cachées ".

L'univers complexe

Les fonctions ne peuvent pas faire grand-chose lorsqu'elles sont définies en termes de nombres réels, c'est-à-dire des valeurs qui peuvent être exprimées sous forme décimale conventionnelle. En conséquence, les mathématiciens se tournent souvent vers les nombres complexes, qui peuvent être considérés comme des paires de nombres réels. Tout nombre complexe est décrit en termes de deux valeurs : une composante " réelle " et une composante " imaginaire ", qui est un nombre réel multiplié par la racine carrée de −1 (que les mathématiciens écrivent comme je).

Tout nombre complexe peut donc être représenté comme un point dans un plan à deux dimensions.

Il est difficile de visualiser les fonctions des nombres complexes, c’est pourquoi les mathématiciens se tournent souvent vers la couleur. Par exemple, vous pouvez colorer le plan complexe pour qu'il ressemble à une roue arc-en-ciel. La couleur de chaque point correspond à son angle en coordonnées polaires. Directement à droite du centre, là où les points ont un angle de 0 degré, vous obtenez du rouge. À 90 degrés, ou vers le haut, les points sont de couleur vert vif. Et ainsi de suite. Enfin, les courbes de niveau marquent les changements de taille ou d'ampleur, comme sur une carte topographique.

(...) (partie supprimée, voir pour plus sur le lien qui précède)

Le domaine fondamental

Pour ce faire, il est utile d’essayer de simplifier la façon dont nous envisageons ces fonctions complexes.

En raison des symétries de la forme modulaire, vous pouvez calculer la fonction entière sur la base d'un seul petit groupe d'entrées, situé dans une région du plan appelée domaine fondamental. Cette région ressemble à une bande montant à partir de l’axe horizontal avec un trou semi-circulaire découpé dans son fond.

Si vous savez comment la fonction se comporte là-bas, vous saurez ce qu'elle fait partout ailleurs. Voici comment:

Des transformations spéciales copient un fragment du plan complexe, appelé domaine fondamental, dans une infinité d’autres régions. Puisqu’une forme modulaire est définie en termes de ces transformations, si vous savez comment elle se comporte dans le domaine fondamental, vous pouvez facilement comprendre comment elle se comporte

(...) (partie supprimée, voir liens précédents pour plus). 

Espaces contrôlés

Dans les années 1920 et 1930, le mathématicien allemand Erich Hecke a développé une théorie plus approfondie autour des formes modulaires. Surtout, il s’est rendu compte qu’elles existaient dans certains espaces – des espaces avec des dimensions spécifiques et d’autres propriétés. Il a compris comment décrire concrètement ces espaces et les utiliser pour relier différentes formes modulaires entre elles.

Cette prise de conscience a inspiré de nombreuses mathématiques des XXe et XXIe siècles.

Pour comprendre comment, considérons d’abord une vieille question : de combien de façons peut-on écrire un entier donné comme la somme de quatre carrés ? Il n’y a qu’une seule façon d’écrire zéro, par exemple, alors qu’il existe huit façons d’exprimer 1, 24 façons d’exprimer 2 et 32 ​​façons d’exprimer 3. Pour étudier cette séquence — 1, 8, 24, 32 et ainsi de suite — les mathématiciens l'ont codé dans une somme infinie appelée fonction génératrice :

1+8q+24q2+32q3+24q4+48q5+…

Il n'existait pas nécessairement de moyen de connaître le coefficient de, disons, q174 devrait être – c’était précisément la question à laquelle ils essayaient de répondre. Mais en convertissant la séquence en fonction génératrice, les mathématiciens pourraient appliquer des outils issus du calcul et d’autres domaines pour en déduire des informations. Ils pourraient, par exemple, trouver un moyen d’approcher la valeur de n’importe quel coefficient.

Mais il s’avère que si la fonction génératrice est une forme modulaire, vous pouvez faire bien mieux : vous pouvez mettre la main sur une formule exacte pour chaque coefficient.

"Si vous savez qu'il s'agit d'une forme modulaire, alors vous savez tout", a déclaré Jan Bruinier de l'Université technique de Darmstadt en Allemagne.

En effet, les symétries infinies de la forme modulaire ne sont pas seulement belles à regarder : " elles sont si contraignantes ", a déclaré Larry Rolen de l'Université Vanderbilt, qu'elles peuvent être transformées en " un outil pour prouver automatiquement les congruences et les identités entre des choses. "

Les mathématiciens et les physiciens codent souvent des questions intéressantes en générant des fonctions. Ils voudront peut-être compter le nombre de points sur des courbes spéciales ou le nombre d’états dans certains systèmes physiques. "Si nous avons de la chance, alors ce sera une forme modulaire", a déclaré Claudia Alfes-Neumann , mathématicienne à l'université de Bielefeld en Allemagne. Cela peut être très difficile à prouver, mais si vous le pouvez, alors " la théorie des formes modulaires est si riche qu’elle vous offre des tonnes de possibilités pour étudier ces coefficients [de séries] ".

Blocs de construction

Toute forme modulaire va paraître très compliquée. Certaines des plus simples – qui sont utilisées comme éléments de base pour d’autres formes modulaires – sont appelées séries Eisenstein.

Vous pouvez considérer une série d’Eisenstein comme une somme infinie de fonctions. Pour déterminer chacune de ces fonctions, utilisez les points sur une grille 2D infinie :

(...) (partie images et schémas supprimée, voir liens pour plus. )

Le jeu continue

L'étude des formes modulaires a conduit à un flot de triomphes mathématiques. Par exemple, des travaux récents sur l'empilement de sphères, pour lesquels la mathématicienne ukrainienne Maryna Viazovska a remporté la médaille Fields l'année dernière , ont utilisé des formes modulaires. " Quand j'ai vu ça, j'ai été assez surprise ", a déclaré Bruinier. " Mais d'une manière ou d'une autre, ça marche. "

Les formes modulaires se sont révélées liées à un objet algébrique important appelé groupe de monstres. Elles ont été utilisées pour construire des types spéciaux de réseaux appelés graphes d'expansion, qui apparaissent en informatique, en théorie des communications et dans d'autres applications. Ils ont permis d'étudier des modèles potentiels d'interactions de particules en théorie des cordes et en physique quantique.

Le plus célèbre peut-être est que la preuve du dernier théorème de Fermat de 1994 reposait sur des formes modulaires. Le théorème, largement considéré comme l'un des problèmes les plus importants de la théorie des nombres, stipule qu'il n'existe pas trois entiers non nuls a , b et c qui satisfont à l'équation an+bn=cn si est un nombre entier supérieur à 2. Le mathématicien Andrew Wiles l'a prouvé en supposant le contraire – qu'une solution à l'équation existe – puis en utilisant des formes modulaires pour montrer qu'une telle hypothèse doit conduire à une contradiction.

Il a d’abord utilisé sa solution supposée pour construire un objet mathématique appelé courbe elliptique. Il a ensuite montré qu'on peut toujours associer une forme modulaire unique à une telle courbe. Cependant, la théorie des formes modulaires dictait que dans ce cas, cette forme modulaire ne pouvait pas exister. "C'est trop beau pour être vrai", a déclaré Voight. Ce qui signifiait, à son tour, que la solution supposée ne pouvait pas exister – confirmant ainsi le dernier théorème de Fermat.

Non seulement cela a résolu un problème vieux de plusieurs siècles ; cela a également permis de mieux comprendre les courbes elliptiques, qui peuvent être difficiles à étudier directement (et qui jouent un rôle important dans la cryptographie et les codes correcteurs d'erreurs).

Cette démonstration a également mis en lumière un pont entre la géométrie et la théorie des nombres. Ce pont a depuis été élargi dans le programme Langlands,  un plus grand ensemble de connexions entre les deux domaines – et sujet d'un des efforts de recherche centraux des mathématiques contemporaines. Les formes modulaires ont également été généralisées dans d'autres domaines, où leurs applications potentielles commencent tout juste à être reconnues.

Elles continuent d’apparaître partout en mathématiques et en physique, parfois de manière assez mystérieuse. "Je regarde dans un article sur les trous noirs", a déclaré Steve Kudla de l'Université de Toronto, "et j'y trouve des formes modulaires qui sont mes amies. Mais je ne sais pas pourquoi elles  sont là.

"D'une manière ou d'une autre", a-t-il ajouté, "les formes modulaires capturent certaines des symétries les plus fondamentales du monde".



 

Auteur: Internet

Info: https://www.quantamagazine.org, Jordana Cepelewicz, 21 septembre 2023

[ ultracomplexité ]

 
Commentaires: 1
Ajouté à la BD par miguel

infobésité éparpillante

Comment notre cerveau compense les distractions numériques

Téléphone, mails, notifications... Opposé à toutes les sollicitations auxquelles nous sommes confrontés, le cerveau tente tant bien que mal de rester concentré. Voici comment.

Aujourd'hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d'un supérieur et l'appel de l'école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s'imposer encore davantage avec la multiplication des objets connectés dans les futures " maisons intelligentes ".

Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 3% à 27% du temps d'exécution de l'activité en cours.

En tant que chercheuse en psychologie cognitive, j'étudie les coûts cognitifs de ces interruptions numériques: augmentation du niveau de stress, augmentation du sentiment d'épuisement moral et physique, niveau de fatigue, pouvant contribuer à l'émergence de risques psychosociaux voire du burn-out.

Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d'études souligne qu'il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s'inquiéter des interruptions numériques?

L'intégration d'objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance, par exemple. En 2021, les taux de pénétration des maisons connectées (c'est-à-dire, le nombre de foyers équipés d'au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d'environ 13% dans l'Union européenne et de 17% en France (contre 10,7% en 2018).

Si la facilité d'utilisation et l'utilité perçue des objets connectés ont un impact sur l'acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c'est-à-dire l'ensemble des processus liés à la perception, l'attention, la mémoire, la compréhension, etc.

L'impact des interruptions numériques peut s'observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d'une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1h30 par jour à récupérer des interruptions liées aux courriels. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu'un sentiment de frustration, voire d'épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60% déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l'on pourrait penser.

Mieux comprendre d'où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d'œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d'adapter notre comportement et de réaliser l'action appropriée: le cerveau met en place des boucles prédictives et d'anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d'attention et de concentration émerge: celui de la fluence de traitement. Il s'agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l'information.

Le concept de fluence formalise quelque chose que l'on comprend bien intuitivement: notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est " motivée " par une croyance qu'il formule a priori sur la facilité ou la difficulté d'une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s'adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l'information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu'un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l'attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudo-mots, des mots inventés par les scientifiques tels que " HENSION ", notamment lorsqu'on leur demandait de ne pas lire les mots présentés à l'écran.

Ainsi, une de nos études a montré que la fluence –la facilité perçue d'une tâche– guide l'attention des participants vers ce que leur cerveau prédit. L'étude consistait à comprendre comment la prévisibilité des mots allait influencer l'attention des participants. Les participants devaient lire des phrases incomplètes, puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l'attention des participants que les mots incohérents.

Il semblerait qu'un événement cohérent avec la situation en cours attire plus l'attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l'une des premières à montrer que la fluence de traitement a un effet sur l'attention. D'autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été lancé, mais n'a pas pu aboutir dans le contexte de la pandémie de Covid-19.

Comme nous l'avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l'environnement n'est pas conforme à ce que notre cerveau avait prévu, nous devons d'une part adapter nos actions (souvent alors qu'on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l'événement imprévu afin d'adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu'elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut).

Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d'adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle: on dit qu'il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu'elles soient numériques ou non, ne sont pas prévues par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c'est-à-dire qu'elle contredit ce que le cerveau avait envisagé et préparé.

L'interruption a des conséquences au niveau comportemental et cognitif: arrêt de l'activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

À quel moment notre cerveau est-il le plus performant?

La rupture de fluence déclenche automatiquement la mise en place de stratégies d'adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l'attention et déclenche un processus de recherche de la cause de la rupture. Lors d'une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d'anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence: la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d'où va provenir l'interruption (le téléphone dans sa poche ou la boîte mail sur l'ordinateur) ni ce que sera le contenu de l'information (l'école des enfants, un démarchage téléphonique, etc.).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d'utiliser les technologies de façon consciente et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple, la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple, le mode silencieux du téléphone ou le mode " focus " de logiciels de traitement de texte), ou même l'adoption de technologies intelligentes qui favorisent activement la concentration en minimisant les distractions dans l'environnement.

En fin de compte, l'évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet " Habitat urbain en transition " (HUT) pour lequel j'ai travaillé dans le cadre de mon postdoctorat.

De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l'hyperconnexion des habitations, des usages et du bien-être, au sein d'un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l'impact des technologies au sein d'un habitat connecté afin d'en prévenir les dérives. 

Auteur: Cases Anne-Sophie

Info: https://www.slate.fr/ - 18 avril 2024,  avec Sibylle Turo

[ déconcentration ]

 

Commentaires: 0

Ajouté à la BD par miguel

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Un philosophe sur la mort de la romance, les robots ChatGPT vulgaires et le sexe virtuel

Je m'inquiète des développements du web et de l'intelligence artificielle. Quelques exemples au sujet desquels il faut se poser des questions..

L'explosion des nouveaux médias (Facebook, Google, Instagram, TikTok, etc.) dans l'Occident "démocratique" a radicalement modifié le rapport entre espace public et espace privé : un nouveau tiers espace a émergé qui efface le clivage entre public et privé.

Ce nouvel espace est public, accessible dans le monde entier, mais il fonctionne en même temps pour les échanges de messages privés. C'est tout sauf incontrôlé : il existe des algorithmes qui non seulement le censurent et empêchent certains messages de s'y infiltrer, mais manipulent également la façon dont les messages attirent notre attention.

Les plateformes technologiques font face à de nouveaux défis

Il s'agit ici de dépasser l'alternative "Chine ou Elon Musk" : ou le contrôle opaque de l'État, ou la "liberté" de faire ce qu'on veut, tout ceci pareillement manipulé par des algorithmes opaques. Ce que la Chine et Musk ont ​​en commun, c'est un contrôle algorithmique opaque.

Une équipe d'entrepreneurs israéliens dont le nom de code est "Team Jorge" "affirme avoir truqué plus de 30 élections dans le monde par le piratage, le sabotage et la désinformation automatisée sur les réseaux sociaux. La "Team Jorge" est dirigée par Tal Hanan, 50 ans, ancien commandant des opérations spéciales israéliennes. Les méthodes et techniques décrites par "Team Jorge" posent de nouveaux défis aux grandes plateformes technologiques qui luttent depuis des années pour empêcher les acteurs néfastes de répandre des mensonges ou de violer la sécurité de leurs plateformes. L'existence d'un marché privé mondial pour la désinformation ciblée sur les élections sonnera également l'alarme dans les démocraties du monde entier.

Tout cela est plus ou moins de notoriété publique maintenant, du moins depuis le scandale de Cambridge Analytica (dont l'implication dans les élections américaines de 2016 a joué un rôle déterminant dans la victoire de Trump). Pour aggraver les choses, la gamme de nouveaux algorithmes devrait également inclure l'explosion de programmes qui rendent l'échange de visages et d'autres techniques de deepfake facilement accessibles.

Bien sûr, les plus populaires sont les algorithmes qui permutent les visages des célébrités sur les corps des actrices porno dans les films pour adultes : Les outils nécessaires pour créer ces vidéos porno "maison" mettant en vedette les actrices et pop stars préférées d'Hollywood sont facilement disponibles et simples à utiliser. Cela signifie que même ceux qui n'ont aucune compétence en informatique et peu de connaissances techniques peuvent créer ces films.

Les films porno Deepfake sont faciles à créer. La s(t)imulation sexuelle parfaite.

Les visages des actrices hardcore peuvent être échangés non seulement par des stars de la pop, mais aussi par leurs proches - le processus est impressionnant de par sa simplicité : "Vous pouvez transformer n'importe qui en star du porno en utilisant la technologie deepfake pour remplacer le visage de la personne échangé contre une vidéo adulte. Il suffit de l'image et d'appuyer sur un bouton". Malheureusement, la plupart du temps, les deepfakes sont utilisés pour créer de la pornographie mettant en scène des femmes, pour qui cela a un effet dévastateur. "Entre 90 et 95 % de toutes les vidéos deepfake en ligne sont de la pornographie non consensuelle, et environ 90 % d'entre elles sont des femmes."

Et si vous voulez que les voix correspondent également aux visages échangés, utilisez la voix Voice AI pour créer "des recréations hyperréalistes qui ressemblent à la vraie personne". Bien sûr, le raccourci incestueux ultime ici serait d'échanger mon propre visage et celui de ma femme ou de mon partenaire dans une vidéo pour adultes et d'ajouter nos clones de voix aux enregistrements afin que nous puissions simplement nous asseoir confortablement, boire un verre et regarder notre sexe passionné.

Le chatbot génère des textes incroyablement clairs et nuancés

Mais pourquoi devrions-nous nous limiter au sexe ? Que diriez-vous d'embarrasser nos ennemis avec des vidéos d'échange de visage d'eux faisant quelque chose de grossier ou de criminel ? Et pour ne rien arranger, on peut ajouter à tout ceci des chatbots (programmes informatiques capables d'avoir une conversation avec un utilisateur en langage naturel, de comprendre ses intentions et de répondre en fonction de règles et de données prédéterminées). Récemment, leurs performances ont explosé.

Quand Antony Aumann, professeur de philosophie à la Northern Michigan University, a évalué des essais pour son cours sur les religions du monde le mois dernier, il a lu un essai qui, selon lui, était de loin "le meilleur de la classe". Il a examiné la moralité de l'interdiction de la burqa avec des paragraphes clairs, des exemples appropriés et des arguments solides. Aumann a demandé à son élève s'il avait écrit lui-même l'essai; l'étudiant a admis utiliser ChatGPT, un chatbot qui fournit des informations, explique des concepts et génère des idées dans des phrases simples - de fait dans ce cas a écrit l'essai.

Toutes choses qui font partie de l'arrivée en temps réel d' une nouvelle vague de technologie connue sous le nom d'intelligence artificielle générative. ChatGPT, sorti en novembre 2022 par la société OpenAI, est à la pointe de ce développement. Générant un texte incroyablement clair et nuancé en réponse à de courtes invites, ce chatbot est utilisé par les gens pour écrire des lettres d'amour, de la poésie, de la fanfiction - et des travaux scolaires.

L'intelligence artificielle peut se montrer effrayante

Pas étonnant que les universités et les lycées réagissent dans la panique et n'autorisent dans certains cas que les examens oraux. Entre autres questions, il en est une qui mérite attention : comment un chatbot doit-il réagir lorsque l'interlocuteur humain tient des propos sexistes et racistes agressifs, présente ses fantasmes sexuels dérangeants et utilise régulièrement un langage grossier ?

Microsoft a reconnu que certaines sessions de chat prolongées utilisant son nouvel outil de chat Bing peuvent fournir des réponses qui ne "correspondent pas à notre tonalité de message prévu". Microsoft a également déclaré que dans certains cas, la fonctionnalité de chat tente de "répondre ou de refléter le ton sur lequel il lui est demandé de répondre".

Bref, le problème se pose lorsque le diaogue humain avec un chatbot utilise un langage grossier ou tient des propos racistes et sexistes flagrants, et que le chatbot programmé pour être au même niveau que les questions qui lui sont adressées répond, sur le même ton. La réponse évidente est une forme de réglementation qui fixe des limites claires, c'est-à-dire la censure. Mais qui déterminera jusqu'où cette censure doit aller ? Faut-il également interdire les positions politiques que certains trouvent "offensantes" ? Est-ce que la solidarité avec les Palestiniens en Cisjordanie ou les affirmations selon lesquelles Israël est un État d'apartheid (comme Jimmy Carter l'a dit dans le titre de son livre) seront bloquées comme "antisémites" ?

La romance est presque morte    

En raison de ce clivage minimal, constitutif d'un sujet, le sujet est pour Lacan divisé ou "verrouillé". Dans la scène imaginée, je présente (ou plutôt mon double en tant que personne) à un professeur, via le zoom, un travail de séminaire rédigé par un chatbot, mais le professeur aussi n'est présent qu'en tant que personne, sa voix est générée artificiellement, et mon séminaire est noté par un algorithme. Il y a une dizaine d'années, The Guardian me demanda si le romantisme était mort aujourd'hui - voici ma réponse.

"Le romantisme n'est peut-être pas encore tout à fait mort, mais sa mort imminente se manifeste par des gadgets-objets qui promettent de fournir un plaisir excessif, mais qui ne font en fait que reproduire le manque lui-même. La dernière mode est le Stamina Training Unit, l'équivalent du vibromasseur : un appareil de masturbation qui ressemble à une lampe à piles ( afin que nous ne soyons pas gênés de le transporter avec nous). On insère son pénis en érection dans l'ouverture située à l'extrémité, on appuie sur le bouton et l'appareil vibre jusqu'à la satisfaction... Comment faire face à ce beau nouveau monde qui sape les fondements de notre vie intime ? La solution ultime serait bien sûr de mettre un vibromasseur dans cet appareil pour l'entraînement à l'endurance, de les allumer tous les deux et de laisser tout le plaisir à ce couple idéal, tandis que nous, les deux vrais partenaires humains, serions assis à une table à proximité, en train de boire du thé et de savourer tranquillement le fait d'avoir accompli notre devoir de jouissance sans trop d'efforts".

Ce qui reste de nous n'est qu'un cogito vide

Nous pouvons maintenant imaginer la même externalisation d'autres activités telles que les séminaires universitaires et les examens. Dans une scène idéale, tout le processus de rédaction de mon séminaire et des examens par le professeur se fait par interaction numérique, de sorte qu'à la fin, sans rien faire, nous ne faisons que valider les résultats.

Pendant ce temps, je fais l'amour avec ma maîtresse ... mais encore une fois un sexe délocalisé grâce à son vibromasseur qui pénètre dans mon appareil d'entraînement à l'endurance, alors que nous sommes tous les deux simplement assis à une table à proximité et, afin de nous amuser encore plus, nous voyons sur un écran de télévision un simulacre nous montrant tous les deux en train de faire l'amour ... et bien sûr, tout cela est contrôlé et réglé par l'équipe Jorge.

Ce qui reste de nous deux n'est qu'un cogito (du latin "je pense") vide, dominé par plusieurs versions de ce que Descartes appelait le "génie malin". Et c'est peut-être là notre dilemme actuel : nous sommes incapables de franchir l'étape suivante décrite par Descartes et de nous fier à une forme véridique et stable d'un grand Autre divin, nous sommes les "enfants d'un dieu moindre" (pour reprendre le titre d'une pièce de théâtre et d'un film), pris à jamais dans la multiplicité contradictoire d'esprits mauvais et trompeurs.

Auteur: Zizek Slavoj

Info: Résumé par le Berliner Zeitung ici : https://www.berliner-zeitung.de/kultur-vergnuegen/slavoj-zizek-ueber-den-tod-der-romantik-vulgaere-chatgpt-bots-und-unechten-sex-li.321649

[ dénaturation ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exo-contact

Rice News : - Comment un professeur des religions comparées devient-il un expert des OVNIs ? 

JK : - Eh bien, personne n'est expert de ceci. Personne. C'est la première chose à savoir. Pour ma part, je réfléchis et écris sur le phénomène OVNI depuis 2004 environ. J'y ai d'abord été confronté parce que j'y étais obligé :  on le retrouvait tout simplement partout dans les sources historiques et ethnographiques avec lesquelles je travaillais pour une grande histoire des courants spirituels alternatifs dans la contre-culture californienne que j'écrivais à l'époque. Mes propres intérêts ont définitivement commencé là, à l'Institut Esalen.

Les gens supposaient alors couramment que le phénomène OVNI n'était pas sérieux ou qu'il s'agissait d'une sorte de truc "californien". Mais ce n'est tout simplement pas vrai, et ne l'a jamais été. Certaines des rencontres modernes les plus documentées et les plus spectaculaires ont eu lieu autour de sites militaires nucléaires et dans des cultures et des lieux comme le Brésil, la France, le Nouveau-Mexique - au cours de l'été 1945, à quelques kilomètres du site de la bombe atomique Trinity récemment irradiée et une semaine seulement après les bombardements d'Hiroshima et de Nagasaki - et la Nouvelle-Angleterre. Plus récemment on peut voir un grand mélange quant à l'appréciation de cette problématique : par exemple les militant des droits civiques, rien que ça. L'armée et les services de renseignement américains, son exploration spatiale aussi, le colonialisme occidental, les cosmologies indigènes américaines, avec une religion noire importante - la Nation of Islam. Les zones frontalières entre États-Unis et Mexique, l'Amérique latine, les relations américano-soviétiques et maintenant américano-russes, l'OTAN, les industries aérospatiales et aéronautiques, les courants ésotériques et mystiques occidentaux, la littérature de science-fiction et l'histoire des sciences ont tous été impliqués. Et ce n'est qu'un début.

Étudier convenablement le phénomène ovni, c'est en fait étudier à peu près tout. C'est aussi se heurter, durement, à la prise de conscience que l'ordre institutionnel ou universitaire de la connaissance dans lequel nous travaillons et pensons aujourd'hui - un ordre qui sépare effectivement les sciences des humanités - n'est tout simplement pas utile, et ne reflète certainement pas la réalité que nous essayons de comprendre. La difficile vérité est que le phénomène OVNI présente à la fois un aspect "matériel" objectif (pensez aux vidéos et photographies d'avions de chasse, aux prétendus méta-matériaux, aux méthodes de propulsion apparemment avancées et aux marques d'atterrissage) et un aspect "humain" subjectif (pensez aux rencontres rapprochées, aux observations visuelles multiples et coordonnées, aux états de conscience altérés, aux manifestations visionnaires, souvent de type baroque ou science-fictionnel, et aux enlèvements traumatiques ou transcendants vécus). Et les deux côtés - les dimensions matérielles et mentales - sont incroyablement importants pour avoir une idée de l'ensemble du tableau.

Bien sûr, on peut découper le phénomène ovni en deux catégories, "scientifique" et "humaniste", mais on ne le comprendra jamais en procédant ainsi. C'est, en fin de compte, la raison pour laquelle je pense que le sujet est si incroyablement important : il a le pouvoir particulier de défier, ou simplement d'effacer, notre ordre actuel de connaissance et ses divisions arbitraires. Quel que soit ce "ça", il ne se comporte tout simplement pas selon nos règles et hypothèses.  

RN : - Quelle est donc votre évaluation globale de ce nouveau rapport ?

JK : - Eh bien, j'ai un truc positif à dire, avec une forte critique. La chose positive est la suivante : La récente publication, ainsi que la fuite de la vidéo radar datant de décembre 2017 qui a été si efficacement rapportée dans le New York Times par mes collègues Leslie Kean, Ralph Blumenthal et Helene Cooper, a fondamentalement changé la conversation publique autour du sujet. Les chercheurs sérieux ne sont plus regardés avec autant de mépris, et les débunkers dogmatiques n'ont plus le dessus - si jamais ils l'ont vraiment eu.

En outre, et c'est tout aussi important, des gens de tous horizons qui se sont tus jusque-là, sortent maintenant de leur placard et prennent la parole. Pour ne prendre qu'un petit exemple, Miles O'Brien, le correspondant scientifique de PBS, a reconnu devant la caméra il y a quelques jours avoir été témoin d'un OVNI avec un comportement fondamentalement identique à celui des objets rapportés dans le document. Bref le point le plus fondamental de l'interview d'O'Brien est que la publication du gouvernement constitue une sorte de "tournant" dans la conversation publique. 

RN : - OK, quelle est la critique alors ?

JK : - La mauvaise nouvelle concerne la nature de cette "révélation " erratique et classifié de données - le refus du gouvernement de libérer la marchandise, pour ainsi dire, et de donner aux chercheurs sérieux un accès complet à toutes les données. Toutes les données. En procédant de la sorte, ils essaient essentiellement de contrôler le récit. Mon souci peut être résumé par cette sagesse populaire "si vous n'avez qu'un marteau, vous ne verrez que des clous". Dans ce contexte, vu que les données sont collectées par des professionnels de l'armée dont le but premier est de protéger l'État-nation contre les intrus ou les ennemis, le phénomène UAP ou OVNI est inévitablement présenté en termes de "menaces" potentielles. Je veux dire, mon Dieu, les vidéos que nous regardons ont été prises par les systèmes radar d'avions de chasse avancés conçus pour faire une seule chose : abattre un objet ennemi. Faut-il s'étonner que ces objets filmés soient présentés, littéralement et métaphoriquement, comme des menaces ?

RN : - Et sont-ils vraiment des menaces ? Nous n'en avons aucune idée.

JK : - Dans la culture populaire américaine, dans le cinéma et la science-fiction, ce que j'appelle la "mythologie de l'invasion de la guerre froide" a été dominante jusqu'à très récemment. Dans cette mythologie, l'OVNI est considéré comme une invasion "extraterrestre" qui doit être combattue ou à laquelle doivent résister les citoyens patriotes et craignant Dieu. Pensez, par exemple, au roman de 1898 de H.G. Wells "La guerre des mondes", une histoire d'invasion, soit dit en passant, inspirée par le colonialisme britannique. Ou, du côté américain, "Independence Day" en 1996. Ce n'est que récemment que les écrivains et les cinéastes ont commencé à s'éloigner de cette mythologie de l'invasion de la guerre froide pour s'orienter vers quelque chose de beaucoup plus positif, et franchement plus fidèle à ce que nous voyons réellement dans les cas de rencontre et de contact, si nous les étudions vraiment au lieu de simplement supposer des choses à leur sujet. Comme le récent film d'un réalisateur canadien, assez significatif en ce sens - "Arrival" sorti en 2016. 

Ce film frise la profondeur, car il tourne avec amour et contemplation autour de la transformation paranormale de son personnage central, une linguiste humaniste douée, le Dr Louise Banks. En effet, dans les faits historiques, les témoins humains sont souvent radicalement transformés par leurs rencontres, souvent de manière extrêmement positive, mais aussi difficile.

Ces rencontres, par exemple, peuvent être de nature profondément spirituelle, et je ne veux pas dire "bonnes" ou "agréables". Les gens éprouvent de la crainte, de la peur, de l'étrangeté et une terreur absolue ; le psychiatre de Harvard John Mack a appelé cela à juste titre "choc ontologique". Ils font l'expérience, soit pendant l'événement lui-même, soit plus tard, de nouvelles capacités étonnantes - pensez à la télépathie et, oui, à la précognition. Et ils adoptent de nouvelles visions du monde, beaucoup plus cosmiques.

Ainsi, dans le film, le Dr Louise Banks développe la capacité de précognition : Elle se "souvient" de la mort précoce et tragique de sa fille, pas encore née, alors qu'elle apprend progressivement que le temps, comme la grammaire de la langue extraterrestre qu'elle déchiffre, est circulaire et non linéaire. Cette idée de l'espace-temps est d'ailleurs bien connue des humanistes, de la philosophie grecque antique à Nietzsche.

Ce où je veux en venir ? Que nous devrions aborder le phénomène OVNI beaucoup plus comme "Arrival" et beaucoup moins comme "La Guerre des Mondes". Mais nous n'y arrivons pas. Au lieu de cela, nous parlons encore et encore de "menaces" potentielles et promulguons des mesures de sécurité et de secret sans fin. Et ensuite nous nous demandons pourquoi personne ne comprend cela ? En conséquence de ces actions, les témoins humains, leurs observations, leurs transformations et leurs traumatismes sont ignorés avec arrogance et dédaignés comme étant "anecdotiques" et donc indignes d'être étudiés.

J'avoue que je méprise l'aspect narquois de ce mot - anecdotique - et la façon dont il empêche une enquête complète. Toute expérience humaine, après tout, est techniquement "anecdotique". En ce sens, je suis moi aussi une "anecdote". Vous aussi. Nous le sommes tous. Et pourtant, il n'y a pas de science ou de mathématiques, pas de littérature, de langue, d'art ou de religion, et certainement pas d'OVNI, sans ce sujet humain, sans ce témoin anecdotique, ce penseur ou ce voyant. Alors pourquoi ne parlons-nous pas des expériences de ces témoins humains et de la façon dont ce phénomène semble déclencher ou catalyser l'imagination humaine de manière fantastique ? Pourquoi ne voyons-nous pas avec empathie ces drames, soi-disant imaginaires, comme des signes significatifs au lieu de les ignorer avec arrogance comme de l'écume neurologique ? Pourquoi ne parlons-nous pas de ce qu'il advient des pilotes terrifiés, des professionnels de l'armée désorientés, ou des citoyens confus qui voient ces choses, parfois de très près et de manière très personnelle ? Cela ne fait-il pas également partie du phénomène OVNI ? Pourquoi détournons-nous le regard ? Et de quoi ?

RN : - Ce serait le sujet d'une nouvelle conversation. Comment voulez-vous conclure ?

JK : On a jamais fini avec ça. J'aimerais conclure en mettant l'accent sur le fait que la pièce de technologie la plus sophistiquée sur terre pour détecter des présences non humaines ou surhumaines n'est pas un ordinateur quantique ou un système de radar militaire avancé. C'est le corps, le cerveau et l'être humain évolué. Je voudrais également suggérer que l'humain détecte d'étranges présences humanoïdes dans le ciel et l'environnement non pas depuis quelques années ou quelques décennies, mais depuis des millénaires. Tout ce que nous avons à faire est d'ouvrir nos yeux et regarder. Il suffit de ranger notre marteau et de regarder attentivement l'histoire, nos littératures et, surtout, nos religions.

Ainsi au sein de cette nouvelle grande toile humaniste et historique, ce que nous rencontrons dans le ciel et voyons du sol aujourd'hui, pourra prendre des significations fondamentalement nouvelles, et d'autres futurs potentiels. Je ne prétends pas savoir ce que cela impliquera - et ne crois certainement pas non plus aux mythologies régnantes, qu'elles soient politiques, séculaires ou religieuses - mais je parie qu'elles auront très peu à voir avec l'évaluation de ces "menaces". C'est la vieille mythologie de la guerre froide qu'il est temps de dépasser, et bien au-delà.

RN : Vous parlez de l'absence de toute limite.

JK : Oui. Il n'y en a aucune.

Auteur: Kripal Jeffrey

Info: Entretien avec Katharine Shilcut sur " how to think about the UFO phenomenon" http://news.rice.edu/ - June 30, 2021

[ US paranoïa ] [ rencontre du 3e type ]

 

Commentaires: 0

Ajouté à la BD par miguel

humour

Toujours est-il que la chose m’est apparue d’importance et propre à me hausser d’un cran dans votre estime : vous concevrez que nul travail, cette récompense en vue, n’eût paru d’intérêt suffisant pour retarder la mise en graphie de cette méditation.

Le problème est cette fois, monsieur, celui de la couille. (J’aurais pu dire celui de la coquille, mais je cède au goût du sensationnel, vous voyez, c’est un faible bien inoffensif.) De fait, il s’agit d’un problème de conchyliorchidologie (ou d’orchido-conchyliologie, qui me paraît, si plus orthodoxe, moins expéditif ; donc, je garde le premier).

AXIOME  :  Retirez le Q de la coquille : vous avez la couille, et ceci constitue précisément une coquille.

Je laisse à cet axiome, monsieur, le soin de perforer lui-même, de son bec rotatif à insertions de patacarbure de wolfram, les épaisses membranes dont s’entoure, par mesure de prudence, votre entendement toujours actif. Et je vous assène, le souffle repris, ce corollaire fascinant :

Et ceci est vrai, que la coquille initiale soit une coquille de coquillage ou une coquille d’imprimerie, bien que la coquille obtenue en fin de réaction soit toujours (à moins de marée extrêmement violente) une coquille d’imprimerie en même temps qu’une couille imprimée.

Vous entrevoyez d’un coup, je suppose, les conséquences à peine croyables de cette découverte. La guerre est bien loin.

Partons d’une coquille de coquillage, acarde ou ampullacée, bitestacée ou bivalve, bullée, caniculée ou cataphractée, chambrée, cloisonnée, cucullée… mais je ne vois pas l’intérêt de recopier dans son entier le dictionnaire analogique de Boissière. Bref, partons d’une coquille. La suppression du Q entraîne presque immédiatement la mutation du minéral inerte en un organe vivant et générateur. Et dans le cas d’une coquille initiale d’imprimeur, le résultat est encore plus spectaculaire, car la coquille en question est essence et abstraction, concept, être de raison, noumène. Le Q ôté permet le passage de l’essence à l’existence non seulement existante mais excitable et susceptible de prolongements.

J’aime à croire que parvenu à ce point, vous allez poser votre beau front dans votre main pour imiter l’homme de Rodin – vous conviendrez en passant de la nécessité d’une adéquation des positions aux fonctions, et que vous n’auriez pas l’idée de déféquer à plat ventre sauf caprice. Et vous vous demanderez, monsieur, d’abord, quel est le phénomène qui se produit. Y a-t-il transfert ? Disparition ? Mise en minorité ? ou effacement derrière une partie plus importante, que le trout ? Qui sait ? Qui ? Mais moi, naturellement sans quoi je ne vous écrirais pas. Je ne suis pas de ces brutes malavisées qui soulèvent les problèmes et les laissent retomber sauvagement sur la gueule de leur prochain.

Tiens, pourtant, si, en voilà un autre qui me tracasse, et je vous le dis en passant, car le genre épistolaire permet plus de caprice et de primesaut que le genre oratoire ou dissertatif, lequel je ne me sens pas qualifié pour oser aborder ce jour. L’expression : mettre la dernière main n’implique-t-elle pas, selon vous, que l’une des deux mains – et laquelle – fut créée avant l’autre par le père Ubu ? La dernière main est souvent la droite ; mais d’aucuns sont-ils pas gauchers ? Ainsi, de la dextre ou de la senestre, laquelle est la plus âgée ? Gageons que ce problème va tenter madame de Valsenestre à qui, en passant, vous voudrez bien présenter mes hommages. Et revenons à nos roustons.

Eh bien, monsieur, pour résoudre le mystère de l’absence du Q, nous disposons d’un moyen fécond et qui permet généralement de noyer sans douleur la poiscaille en remplaçant un mystère que l’on ne pénètre point par un mystère plus mou, c’est-à-dire non mystérieux et par conséquent inoffensif. C’est la "comparaison", méthode pataphysique s’il en fût. A cet agent d’exécution puissant, nous donnerons l’outil qui lui manque, c’est-à-dire le terme de.

Le jargon russe en l’espèce, qui sera notre étalon.

Vous le savez, monsieur, et si vous ne le savez pas, vous n’aurez jamais la sottise de le dire en public, il fut procédé en Russie, n’y a pas si longtemps que nos auteurs ne puissent s’en souvenir, à une réforme dite alphabétique, bien qu’en russe, cela ne se prononce point si facilement. Je vous le concède, cette réforme est à l’origine de la mort de Lénine, de la canonisation de sainte Bernadette et de quelques modifications structurales spécifiquement slaves apportées à un Etat de structure d’ailleurs imprécise ; nous passerons sur les épiphénomènes mineurs pour n’en conserver que le plus important. La réforme en question supprimait trois des 36 lettres alors en usage là-bas : le ? ou ’fita, le ? ou ’izitsa et le ? ou is’kratkoï.. [...]

Mais d’ores et déjà, vous voyez comment on peut supprimer le Q : il suffit d’un décret.

La question est de savoir ce que l’on a fait des lettres supprimées. Ne parlons même pas de celles à qui l’on en a substitué d’autres. Le problème est singulièrement précis : Où a-t-on mis les is’kratkoï ?

Vous vous doutez déjà de la suite. Et vous voyez l’origine de certaines rumeurs se découvrir à vos yeux émerveillés d’enfant sage.

D’ailleurs, monsieur, peu importe. Peu importe que l’on ait, par le passé, mésusé des lettres ainsi frappées d’interdit. Sans vouloir faire planer le soupçon sur qui que ce soit, je sais bien où l’on risquerait d’en dénicher quelques muids.

L’expression "lettre morte" n’est pas née de l’écume de la mer du même nom, vous le savez, monsieur. Les vérités les plus désagréables finissent par transpirer, comme l’eau orange d’un chorizo pendu par les pieds ou la sueur délicate d’un fragment d’Emmenthal qui tourne au translucide. Et les cimetières de lettres sont monnaie courante (sans que l’on ait jamais songé à chronométrer cette dernière, ce qui paraît inexcusable en un siècle sportif et ne permet point d’en préciser la vitesse). Nous n’avons pas accoutumé, me direz-vous, de remettre en cause le passé : je sais, et vous savez, que tout y est à refaire. Mais à bien y regarder, on est forcé de constater que c’est sans aucune originalité qu’a été résolu, de notre vivant ou presque, cet ardu problème de l’élimination en masse. Et cela continue.

Avant que la merdecine ait eu l’idée de s’adjoindre des fi ! syciens et des chie-mistes (ou cague-brouillard, comme disent les Anglois), la peste apportait une ingénieuse solution. Et les destructions provoquées parmi la gent corbote et ratière par la chasse, vu l’absence de grenades et de rusées à tête chercheuse, n’étaient point telles que ces bestioles ne fussent à même de procéder hygiéniquement à l’enlèvement des charognes. Il restait les os, que l’on suçait et que l’on perçait pour jouer de la quenia, comme Gaston Leroux l’a soigneusement rapporté dans " L’Epouse du soleil ". Bref, le professeur Yersin imagina de foutre une canule au cul des poux, et vainquit la peste. Le cancer fait des progrès, mais il abêtit, et déprive le frappé du contact de ses semblables – ou plutôt de ses différents – si utile pourtant. Sur quoi l’Allemagne redécouvre le camp de concentration déjà utilisé avant et ailleurs (le premier qui l’a inventé, levez le doigt). Le principe était bon : c’est celui du couvent. Mais si l’on sait où ça mène, l’on se refuse à voir où cela pourrait mener.

Vous avez déjà compris qu’en ce moment, loin de m’égarer, j’arrive à la proposition ferme, concrète et positive. Vous avez vu que, loin de lamenter le révolu, je suggère simplement que l’on améliore. Vous sentez, avec votre grand nez, que si le sort des prisonniers d’autrefois m’indiffère, c’est que la " pataphysique va toujours de l’avant puisqu’elle est immobile dans le temps et que le temps, lui, est rétrograde par définition, puisque l’on nomme “ direct ” celui des aiguilles d’une montre. Et vous voyez que je suis en train de poser les bases du camp de concentration pataphysique, qui est celui de l’avenir.

Grosso modo, une Thélème. Mais une Thélème obligatoire. Une Thélème où tout serait libre, sauf la liberté. Il s’agit bien en l’espèce de cette exception exceptionnelle à laquelle se réfère Le Livre. Un lieu où l’on serait contraint de ne pas s’éloigner du bonheur. Outre que le rendement des divers travaux que l’on pourrait ainsi faire exécuter librement aux détenus serait excellent – mais sachez que cette considération économique n’a pas un instant pesé sur notre choix plus ni moins que son contraire – le camp de concentration paradisiaque satisferait la tendance religieuse profonde qui sommeille au cœur de tout un tas d’individus non satisfaits de leur vie terrestre – et vous concevez qu’un prisonnier a des raisons de ne pas l’être. Il s’y pourrait, naturellement, faire du vélocipède. Vous pensez bien. Je ne développe pas les mille avantages du projet : je me borne à vous dire que, me désintéressant totalement du sort des is’kratkoï, je propose, par la présente, à votre excellence d’accumuler les Q des coquilles dans les camps ainsi com-binés qui prendraient par exemple le nom de camps de cul-centration, et de récupérer outre les coquilles résultantes et régénérées, les bûmes créées de la sorte à partir de rien, ce qui est quelque chose.

Vous ne serez pas sans remarquer que la réaction qui s’établit est assez analogue à celle qui se produirait, selon eux, dans ces breeders autotrophes où se fabrique une espèce de plutonium. Vous prenez la coquille, lui retirez le Q que vous enfermez en liberté, vous obtenez la couille et une nouvelle coquille, et ainsi de suite jusqu’à neuf heures vingt, où un ange passe. Je passe à mon tour sur l’émission de rayons bêta concomitante, d’une part parce qu’elle n’a pas lieu, d’autre part parce que cela ne regarde personne. Que le Q fût en fin de compte bien traité m’importait avant tout, du point de vue moral et parce qu’il est séant de ne point porter atteinte, sauf si l’on se nomme le P. U., à l’intégrité de quelque être que ce soit, (excepté le militaire) vu qu’il peut pêcher à la ligne, boire de l’alcool et s’abonner au Chasseur français, ou les trois. Du moins, c’est une des choses que l’on peut dire, et comme elle diffère de tout ce que l’on pourrait dire d’autre, il me semble qu’elle a sa place ici.

Piste-scrotum 1. Cette lettre vous est personnellement destinée. Néanmoins, au cas où elle n’intéresserait aucun autre membre du Collège, il me paraîtrait urgent de la diffuser. Si vous en décidiez ainsi, il me serait à honneur que vous la fissiez coiffer d’un chapeau à la gloire de Stanislas Leczinski, roi polonais, inventeur de la lanterne sourde à éclairer pendant les tintamarres et autres espèces de révolutions, et dont je ne me sens pas force d’entreprendre la rédaction que j’estime trop au-dessus de mes indignes moyens.

Piste-scrotum 2. En passant, vous constaterez que le principe de la conservation de ce que vous voudrez en prend un vieux coup dans les tabourets.

Auteur: Vian Boris

Info: Lettre au Provéditeur-éditeur sur un problème quapital et quelques autres, 26 mars 1955, In les Cahiers du Collège de Pataphysique.

[ lapsus ]

 

Commentaires: 0

FLP post-Peirce

L'"ouverture" du dictionnaire intriqué FLP, nourrie entre autres de l'idée que chaque mots est quasi-esprit (voire symbole), procède beaucoup de l'inventaire et d'un recensement exhaustif, celui de tous les termes créés et imaginables sur cette planète - surtout avec le double apport des intraduisibles et des appellations scientifiques pointues et spécialisées. Tout ça ramené au français. Vocables qui dans l'idéal devraient être utilisés, et sémantiquement précisés, via ces axes, par ordre d'importance. 

1) leur sens-étymologie. Avec une contextualisation animale si possible, distanciation auto-analytique du mammifère humain intégré dans le concert général de la vie. Par exemple les mots-idées-concepts comme foyer-logis-abri seront associés avec ceux de terrier-nid-tanière.

2) leur contexte, syntaxique, syntagmatique,  bio-taxonomique même,  pour qui s'y intéresse et a le temps. En prenant au mieux en compte les paramètres amenés par l'auteur de l'extrait : temporels, topologiques, de formacja, situation politique, sexe, etc.  

3) les caractéristiques de celle ou celui qui insère et étiquette l'extrait sur FLP, c'est à dire qu'il doit s'agir une démarche réflexive sincère, qui pourra éventuellement être analysée par d'autres sous cet angle. 

Ces trois points précédant bien sûr les éventuelles corrections de participants qui aident ainsi à préciser-organiser les mots-langage-tiercités de notre espèce-communauté par la grâce des possibilités de classements intriqués de FLP. Tiercités elles-mêmes images-symboles linguistiques des détails du décor-réalité-priméité que le cerveau humain-secondéité formule-symbolise, avec un langage et des mots toujours plus affinés. 

Et puis, dans le but de développer une meilleure ossature de classification de cette lexicologie perspectiviste, vint l'idée de réfléchir à un concept de tétravalence sémantique, suceptible de dépasser et consolider la puissante triade sémiotique de C.S. Pierce. 

Parce que la quadrivalence, symétrique, d'apparence moins souple et insaisissable que le ternaire, semble offrir, à l'image des bases de l'ADN, de bonnes pistes en terme de taxologie et de développements taxinomiques. Surtout en des heures où l'intrication quantique a montré de bien des manières combien le langage humain est devenu insuffisant, dépassé, dès qu'il doit gérer des problématiques contre-intuitives. En clair : la pensée binaire qui sous-tend nos idiomes-raisonnements, malgré toutes ses possibilités de nuances, a beaucoup de peine à empoigner sémantiquement le contre-intuitif quantique comme, par exemple, ce qu'a pu montrer Alain Aspect. (Qui a reçu le prix Nobel avec 2 autres confrères ce mois. Bravo à eux).  

Il suffirait donc d'intégrer un 4e élément à la triade de Peirce. Hum... 

Attardons nous d'abord sur le concept de tiercité ; qui englobe les infinis signes-signaux possibles générés par les interactions-chocs entre acteurs-objets-secondéités issus de la priméité : vents contre arbres, météorites percutant la terre, hommes vs animaux, réflexion contre idées, animaux entre eux, insectes avec végétaux, etc. Signes qui peuvent se transformer en routines, plus ou moins éphémères, dont certaines deviendront des traces-symboles, qui s'organiseront ensuite pour "durer un peu plus", à l'image du langage des hommes. On remarquera au passage qu'existe au niveau de chaque monade humaine un processus d'itération-imprégnation-adaptation qui va en progressant, se stabilise, et régresse avec l'âge, bref le canevas de toutes nos vies. Ici monades-bulles-existences humaines aptes à laisser des "combinaisons sémantiques" dans le corpus linguistique communautaire. Bribes que certains formuleront par le terme assez dérisoire de postérité. 

Tiens, voilà que nous avons dérivé, l'air de rien, pour nous retrouver en pleine secondéité humaine. Examinons alors l'autre bout de la triade, la priméité, ce réel-source-décor, dont tout est issu ?...  

Thème à discuter avec un alien, qui nous décrira probablement quelque chose qui n'a rien à voir avec ce que nous connaissons, certes. Mais - avec la distanciation et le temps nécessaires - nous devrions certainement pouvoir relier SA priméité-réalité à lui avec NOTRE priméité-réel à nous. N'est que parce qu'on imagine mal plusieurs "sources primordiales", même dans un GRAND TOUT infini, emplis de multivers intriqués, en constantes et étourdissantes interactions qui mélangent vitesses et échelles. Source indicible et insondable au point de tant "séparer" les entités émergées en son sein que ces dernières seraient incapables de communiquer entre elles ? Allons allons... Des étages et hiérarchies infinies oui...  Mais stop. 

Ici encore nous voilà en train d'exprimer notre propre reflet-image de secondéités qui observent, formulent, et projettent.

Qu'est-ce alors que cette secondéité ? Ce JE-NOUS monade. Mais aussi tout sujet-élément-idée-entité susceptible d'interagir avec moi, lui, ou les autres. C'est à dire tout élément jailli de la priméité-univers... Comme ce caillou au sol, ou la civilisation alien des lignes précédentes ? Interactions, répétons-le, à la sources des signes-tiercités-langage (humain limité certes ici... ) Aptes à s'auto-analyser ?!?!?!

Signes qui nomment-définissent les "choses-autres" avec des mots "quasi-esprits"... En amont de manipulations sémantiques qui s'ensuivront. Hum Hum...

On remarquera qu'au 3e étage tiercitaire des signes-idées analysés-partagés, communications mimétiques et autres, les possibilités sont aussi infinies qu'aux deux autres niveaux. On notera aussi que beaucoup de ces idiomes-signes consensus ne peuvent se développer qu'au travers de longs développements évolutifs, bien plus encore pour qui voudra aller au-delà des pulsions-interaction basiques - de l'ordre de la physique pure et du simple bon sens gravitationnel - avant de devenir pulsions de vie, de survie surtout. Tout ça se développant/envoyant/recevant des signes que bientôt le langage organisera. Combien de temps, d'éons, nécessaires pour arriver au héron et sa magnifique spécialisation de chasseur de poissons ? Bestiole capable de montrer à ses petits comment attirer les proies aquatiques en mettant des insectes dans l'eau. J.L. Borges aura bien aidé à le comprendre. L'existence, les existences ensembles sont des signes qui se mélangent et parfois se répondent.

Nous voilà donc avec le langage externalisé, humain ; magnifique engin télépathique communautaire trans-époques, (oui oui je vous parle, à vous chères âmes de l'an 2050... ah ah ah). Mais aussi oeillère-buttée, puisqu'on dirait bien que la bulle linguistique humaine nous isole via quelque chose qui ressemble à un solipsisme de la race, une monade collective. Le déséquilibre planétaire dont nous sommes source et victime apparaissant comme un de ses effets. Monade de primates, secondéité collective, machin qui "agit" bien plus qu'il interagit, alors qu'elle devrait probablement comprendre que son action sur la matrice qui l'a fait émerger se retourne contre elle. Dialogue terre-hommes où ces derniers feraient mieux de tenir compte des "signes" de Gaïa. Gamin qui réalise qu'il devrait faire un peu plus attention à ce que lui exprime, sans mots, sa Moman !!

Tout ceci est fort intéressant... mais le parcours des lignes qui précèdent ramène sans désemparer vers nous qui lisons-écrivons ces lignes, encore et toujours représentants du concept de secondéité, de la prison humaine (même si dans un système ternaire chaque pointe peut être pensée comme centrale, ah ah ah).

En bref nos rodomontades sémantiques semblent faire un peu trop abstration du reste, surtout à partir de l'ère industrielle. Déspiritualisation, sécularisation ?

Précisons et resituons : il est question d'une secondéité-hommes, issue de la priméité matrice univers-terre, en train de développer son propre champ exponentiel de tiercités, dont Internet fait la démonstration chaque jour. (Ainsi pour FLP, le web, hors les films et images, n'est qu'un amas sémantique, souvent désordonné, babélien... géré numériquement par des machines cybernétiques. Web au sein duquel - ou à la pointe duquel -, notre application se propose d'ordonner-classifier-recenser les mots-pensées en les intriquant. L'homme singe ne change pas, il fait des listes, encore... Désormais plus compliquées.) 

Mais de modification de la triade de Peirce, rien ne semble possible. Trop costaud.

Résignons-nous, c'est d'ici - au sein même de nos sémantiques, qu'il faudra chercher à identifier... puis établir-asseoir-développer... un système tétravalent en faisant bien gaffe de demeurer dans le langage, strico sensu. Français même, afin de ne pas (trop) nous perdre. 

Résumons : une secondéité bien comprise : objet, être, participant, interprétant, réfléchisseur, observateur... va nécessairement - en fonction d'infinis paramètres, (pour faire simple nous dirons "en fonction des contextes") - GENERER quelque chose. Autrement dit une secondéité, planète, arbre, fusée lunaire, caillou, civilisation, atome, (Ah non, pas atome... kr kr kr, le quantique échappe à tout ça), une fois en interaction avec une autre secondéité, ou avec un des autres pôles de notre triplette peircéenne, va ORIENTER le résultat de l'interaction. A l'image du météore qui percute l'océan et dont la trajectoire est modifiée-stoppée par la masse liquide. Où, inversément, de l'océan secoué par le météore. Ainsi, s'infléchissant et s'influençant mutuellement, les deux acteurs d'un choc-interaction enfantent, délivrent, consciemment ou pas, des tiercités. Ici vagues et tsunami, vapeurs et tremblement de terre... On constatera au passage que ce genre de tiercité océano-sismiques convient mieux à une approche téléologique terrestre (pensons à l'extinction des dinosaures) que nos tiercités linguistiques, beaucoup plus futiles et superficielles d'apparence. Mais c'est à voir.

Se pose ici aussi, nécessairement peut-être, une question étonnante, évidente : celle de la responsabilité de secondéités telles que la notre. Mais pas que. Interrogation qui ouvre les perspectives, vers l'inconscient, l'épigénétique, le panpsychisme, l'animisme... La science-fiction....  Question qui exponentialise aussi les possibilités de bascule historique, de déclics...  de déclenchements, d'effets papillons infimes, suceptibles de modifier notre réél et sa continuité... Telle la mouche écrasée qui inverse la polarité de la planète. Nous pensons que cette question ouvre un peu plus les possibilités d'une intervention externe, invisible, qui pourra orienter les choses, que ce soit souvent ou pas. Il est vrai que les dernières découvertes sur les mécanismes épigénétiques montrent que de telles interactions - invisibles et souvent contre-intuitives - se passent sans cesse, que ce soit entre nous et les fourmis ou entre le soleil et les végétaux, etc. Mais basta.

Une secondéité-OBSERVATRICE, disons évoluée comme nous, par la magie des signes organisés et du langage, développe sa réprésentation-compréhension du monde. Elle crée et développe son univers consensuel, transmute du réel-matériel en langage esprit-virtuel. 

C'est donc dans l'espace sémantique humain que nous nous proposerons de traquer les émergences tétravalentes, en partant de celles qui se trouvent DEJA (souvent en germe à l'image du chiasme et éventuellement de l'oxymoron) au sein des raisonnements du langage des interprétants-humains. Solide assise - au centre de la triade peircéenne - pour une tâche au très long cours, celle de notre propre auto-analyse via l'étude-classification sémantique du corpus linguistique d'humains-transcripteurs-secondéités, vus comme une "race du verbe" fondamentalement tétravalente

Monade des hommes formulée-présentée ci-dessous, au centre, de trois manières assez similaires.

a) priméité   -  secondéité  (récepteur, émetteur, influenceur.... )                               -  tiercité

b) réalité    -  humains responsables-irresponsables, humanistes, dictateurs, etc...             -  effets sur le monde 

c) signifiant -  interprétant (pouvoir-ouverture-transpositeur-orienteur-confusion ontologique-déverrouillage mental)  -  signifié     

Nous nous référerons à ces trois exemples comme socle au développement de notre idée, gardant en tête que si l'humanité est, comme tout élément, plus ou moins transitoire, la durabilité et les effets de sa lexico-littérature - par comparaison avec les développements de la vie-adn - sont risibles. Ce qui n'empêche rien. 

Au-delà de l'analogie comme quoi ADN et écriture sont "transgénérationnels", on entrevoit les incroyables possibilités de bases tétravalentes combinées sémantiquement, quelque chose qui dépasse littéralement les auteurs de ces lignes, à savoir une forme de mémoire évolutionnaire sur le temps long (comme les requins), mémorisée/structurée sur d'interminables chaines ADN, chaines aptes, par exemple, à réutiliser une imprégnation-expérience vécue très en arrière dans le temps.

Il s'agit selon nous d'une entreprise pré-mémétique.

Auteur: Mg

Info: sept oct 2022 - réflexion possiblement liée à la notion de septénaire, articulation binaire + ternaire dont FLP s'amuse à recenser les déclinaisons

[ citation s'appliquant à ce logiciel ] [ méthodologie ] [ métalinguistique ] [ prospective ] [ au coeur de FLP ]

 
Commentaires: 4
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel