Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 23
Temps de recherche: 0.0507s

fréquences

Un musicien écoutant un concert peut, bien sûr, rêver à des milliers de sujets différents, mais un domaine de réflexion réunira de façon fructueuse ses intérêts scientifiques et esthétiques. Il peut, en effet, retracer l'histoire d'une bonne partie de la physique mathématique à travers l'étude de la musique et des instruments qui la font. Déjà, à l'époque de Pythagore (Vie siècle avant J. C.) on avait inventé la gamme harmonique qui porte le nom de gamme de Pythagore. Sur cette gamme, les hauteurs des notes correspondent aux vibrations des cordes de harpes, dont les longueurs varient comme ½, 1/3, etc. Au XVII siècle, l'étude de la vibration des cordes par l'abbé Marin Mersenne, un correspondant de Descartes, constitua la base des recherches sur les équations aux dérivées partielles et leurs applications, travail dont les racines se trouvent dans les oeuvres de grands mathématiciens comme Daniel Bernouilli et Jean le Rond d'Alembert au XVIIIe siècle. Hermann von Helmolz, au XIXe siècle, consacra une grande partie de son immense talent à l'étude des systèmes vibratoires ; Lord Rayleigh, le grand physicien anglais contemporain, étudia le même problème : il a laissé une Théorie du son qui est un classique.

Auteur: Collectif

Info: Sons et musique

[ historique ] [ mathématiques ]

 

Commentaires: 0

structurelle

Le maternel est un spectre. Au double sens du terme. Dans une première acception, il hante littéralement, de façon irréductible, chaque destin individuel. La relation à la mère, son amour ou sa haine, son indifférence ou sa sollicitude, sa pondération ou sa folie déterminent indubitablement la manière dont chacun s'insère et se (main)tient dans l'existence, et ce, jusqu'à son ultime crépuscule. La tonalité particulière de cette interaction inscrit en soi une palette extrêmement vaste de comportements, d'attentes, d'appréhensions et de valeurs, qui façonnent dans une large mesure ce que l'on peut appeler notre "être au monde".
(...)
Il procède également, dans une tout autre perspective que précédemment, de la notion de spectre, employée ici dans un registre apparenté à celui de la physique. Lorsqu’on étudie le phénomène "lumière", par exemple, on observe que les différentes longueurs d’onde créent, de l’infrarouge à l’ultra violet, une étendue allant des fréquences les plus longues (équivalentes aux couleurs sombres) aux plus courtes (les plus claires). Il en va de même pour le principe dont il est question : à l’une de ses extrémités on rencontre les dimensions les plus chatoyantes, les plus constructives, les plus chaleureuses. Dans cette perspective, le "maternel" nourrit et baigne l’enfant de sa bienveillante sollicitude, de son intuition la plus sensible et de ses anticipations les plus fécondes. La mère qui résonne à de telles suggestions peut, par son instinct le plus assumé, entendre la pulsation de vie active en son enfant et lui permettre d’évoluer dans une juste proximité. Celle qui, bien sûr, tolère la distance et la prise d’autonomie. À l’autre extrémité du spectre, dans les zones les plus sombres, les plus mortifères, se rencontrent les aspects ravageurs, désintégrants, propres à cette réalité. Là se révèlent les forces intrusives, les rages destructrices, l’incapacité à laisser être, qui font d’une mère, au sens littéral, un monstre. Ce sont bien sûr les enfants de ces mères-là qui entreprennent, le plus souvent, une démarche thérapeutique

Auteur: Willequet Pierre

Info: Dans "Mères et filles, histoire d'une emprise". pp 12, 13

[ figure maternelle ] [ grand autre ] [ source locale ] [ analogie ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

ouïe

Pour étudier les onagres en laboratoire, l’équipe de Lilach Hadany a exposé les plantes à cinq sons différents : le silence, des enregistrements d’abeilles mellifères situées à une dizaine de centimètres ainsi que des sons à basse, moyenne et haute fréquence produits par ordinateur. Aucune augmentation significative de la concentration en sucre du nectar n’a été constatée chez les plantes exposées au silence qui avaient été placées sous un bocal en verre bloquant les vibrations. Il en a été de même pour les plantes exposées aux sons à haute et moyenne fréquence, respectivement de 158 à 160 kilohertz et de 34 à 35 kilohertz.

Mais la dernière analyse a révélé que les plantes exposées aux sons des abeilles (0,2 à 0,5 kilohertz) et aux sons à basse fréquence (0,05 à 1 kilohertz) ont eu une réponse sans équivoque. Après trois minutes d’exposition à ces sons, la concentration en sucre des plantes a connu une impressionnante augmentation de l’ordre de 20 %.

D’après les scientifiques, un nectar plus sucré attirerait davantage d’insectes, ce qui pourrait potentiellement accroître les chances de réussite de la pollinisation croisée. Lors des observations réalisées sur le terrain, les chercheurs ont en effet découvert que les pollinisateurs étaient au moins neuf fois plus communs autour des plantes qui avaient été visitées par un autre pollinisateur au cours des six dernières minutes.

[...]

Alors que l’équipe pensait à la façon dont les sons fonctionnent, via la transmission et l’interprétation des vibrations, le rôle joué par les fleurs est devenu encore plus intriguant. Bien que leur taille et leur forme varient fortement, la majorité des fleurs présentent une forme concave ou de bol, ce qui est parfait pour recevoir et amplifier les ondes sonores, à l’instar d’une antenne parabolique.

Afin d’analyser les effets de vibration de chaque fréquence sonore du groupe d’essai, Lilach Hadany et Marine Veits, co-auteure de l’étude et étudiante en Master au laboratoire de la scientifique à l’époque, ont placé les fleurs d’onagre bisannuelle sous une machine appelée vibromètre laser, qui mesure les mouvements par minute. L’équipe a ensuite comparé les vibrations des fleurs avec celles des différentes catégories de sons.

"Cette fleur, l’onagre, est en forme de bol, donc d’un point de vue acoustique, il est logique que ce type de structure vibre et amplifie la vibration en son sein", explique Marine Veits.

Et c’est ce qui s’est passé, tout du moins pour les fréquences émises par les pollinisateurs. Lilach Hadany a indiqué qu’il était passionnant de voir les vibrations de la fleur correspondre aux longueurs d’ondes de l’enregistrement de l’abeille.

"Vous voyez immédiatement que cela fonctionne", dit-elle.

Pour confirmer que la forme de la fleur était bien à l’origine de ce phénomène, l’équipe a également mené des tests sur des fleurs dont un ou plusieurs pétales avaient été retirés : ces dernières ne sont pas parvenues à résonner avec les sons à basse fréquence.

Auteur: Donahue Michelle Z.

Info: https://www.nationalgeographic.fr/environnement/2019/01/les-fleurs-peuvent-entendre-les-abeilles-leur-nectar-nen-est-que-plus-sucre

[ communication ] [ rétroaction ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

végétaux

Pourquoi les plantes sont-elles vertes ?

La couleur verte des plantes qui réalisent le processus de la photosynthèse n’est pas due au hasard. Des scientifiques ont exploré comment cette couleur protège les plantes de changements soudains et fréquents de l’énergie solaire.

À quoi les plantes doivent-elles leur couleur verte ? Des scientifiques ont travaillé sur la manière dont les plantes réagissent à la lumière pour le comprendre. Le modèle qu’ils ont établi a été présenté le 26 juin 2020 dans la revue Science.

"Les plantes photosynthétiques sont vertes parce que leurs complexes d’antennes absorbent la lumière à travers le spectre visible, y compris les parties bleues et rouges, tout en reflétant les longueurs d’onde vertes", écrivent les chercheurs. La photosynthèse est un processus de fabrication de matière organique chez le végétal (et certaines bactéries), à partir de gaz carbonique, d’eau et qui utilise la lumière du Soleil. Le terme signifie littéralement "synthèse par la lumière".

Les antennes collectrices dont parlent les auteurs composent ce qu’on appelle des photosystèmes. Il est ici question de l’endroit où s’effectue la photosynthèse : dans les parties vertes, et notamment les feuilles. Les cellules continent des chloroplastes, qui renferment eux-mêmes la chlorophylle, le fameux pigment vert qui capte l’énergie lumineuse. Les pigments photosynthétiques sont regroupés en photosystèmes.

Les scientifiques s’intéressent à ce qui se passe lorsque la lumière du Soleil qui arrive jusqu’à une feuille change rapidement. La plante doit alors se protéger contre cette arrivée brusque d’énergie solaire, dans son système qui assure la photosynthèse à l’intérieur de chaque feuille. Si la plante ne peut pas gérer de telles fluctuations, les auteurs expliquent que son organisme va tenter d’expulser l’énergie qui se trouve en trop, et que les cellules peuvent être endommagées. Quelle technique ont développée les organismes photosynthétiques face à cela ?

Grâce au vert, les plantes atténuent ce "bruit"

"Notre modèle montre qu’en absorbant uniquement des couleurs très spécifiques de la lumière, les organismes photosynthétiques peuvent se protéger automatiquement contre les changements soudains — ou ‘bruit’ — de l’énergie solaire, entraînant une conversion de puissance remarquablement efficace", résume Nathaniel Gabor, professeur associé de physique à l’université de Californie à Riverside, cité dans un communiqué.

Autrement dit, les feuilles se sont adaptées pour faire face à ce bruit. Elles l’amortissent, en quelque sorte. Elles sont colorées de vert, car seules certaines régions du spectre solaire sont adaptées pour assurer une protection contre cette énergie solaire qui évolue rapidement. Grâce à cette couleur, les plantes atténuent le "bruit" dont parle le physicien. Les scientifiques disent avoir été surpris par la simplicité du modèle qu’ils ont créé pour comprendre les plantes. "La nature vous surprendra toujours", observe Nathaniel Gabor.

L’étude détaillée de ce phénomène ne sert pas seulement à mieux comprendre les mécanismes mis en œuvre par les plantes. Par biomimétisme, on pourrait imaginer que cette manière d’absorber la lumière soit utilisée pour améliorer les performances des panneaux solaires, en atténuant le "bruit" de l’énergie solaire.

Auteur: Internet

Info: https://www.numerama.com, 5 juillet, 2020, Nelly Lesage

[ teinte olive ] [ filtre ] [ coloris ]

 

Commentaires: 0

Ajouté à la BD par miguel

esprit-matière

Les physiciens quantiques ont montré que les atomes physiques sont constitués de tourbillons d'énergie qui tournent et vibrent en permanence ; chaque atome est comme une toupie bancale qui rayonne de l'énergie. Comme chaque atome a sa propre signature énergétique spécifique (oscillation), les assemblages d'atomes (molécules) rayonnent collectivement leurs propres modèles d'énergie.

Ainsi, chaque structure matérielle de l'univers, y compris vous et moi, rayonne une signature énergétique unique. S'il était théoriquement possible d'observer la composition d'un atome réel avec un microscope, que verrions-nous ? Imaginez un diable de poussière tourbillonnant sur le sol du désert. Maintenant, enlevez-y le sable et la saleté. Ce qu'il vous reste est un tourbillon invisible, une petite tornade. Un certain nombre de vortex d'énergie infiniment petits, semblables à des diables de poussière, appelés quarks et photons, constituent collectivement la structure de l'atome. De loin, l'atome apparaîtra probablement comme une sphère floue. Et plus sa structure se rapproche du foyer, moins l'atome devient clair et distinct. À mesure que la surface de l'atome se rapproche, il disparait. Vous ne voyez plus rien. En fait, si vous vous concentriez sur toute la structure de l'atome, vons constateriez comme un vide physique. L'atome n'a pas de structure physique - l'empereur est nu !

Vous vous souvenez des modèles atomiques qu'on montre à l'école, ceux avec des billes et des roulements à billes qui tournent comme le système solaire ? Mettons cette image à côté de la structure "physique" de l'atome découverte par les physiciens quantiques. Non, il n'y a pas d'erreur ; les atomes sont faits d'énergie invisible, pas de matière tangible ! Ainsi, dans notre monde, la substance matérielle (la matière) existe à partir de quasi rien. 

C'est un peu bizarre quand on y pense. Vous tenez ce livre physique dans vos mains. Pourtant, si vous vous concentriez sur la substance matérielle du livre avec un microscope atomique, vous verriez que vous ne tenez rien. Il s'avère que les étudiants en biologie avaient raison sur un point : l'univers quantique est hallucinant. Examinons de plus près la nature du "maintenant on le voit, maintenant on le voit pas" de la physique quantique. La matière peut être définie à la fois comme un solide (particule) et comme un champ de force immatériel (onde). Lorsque les scientifiques étudient les propriétés physiques des atomes, telles que la masse et le poids, ceux-ci ressemblent et agissent comme la matière physique. Cependant, lorsque ces mêmes atomes sont décrits en termes de potentiels de tension et de longueurs d'onde, ils présentent les qualités et les propriétés de l'énergie (ondes). (Hackermüller, 2003 ; Chapman et Pool 1995)

Le fait que l'énergie et la matière sont une seule et même chose est précisément ce qu'Einstein a reconnu lorsqu'il a conclu que E = mc2. En termes simples, cette équation révèle que l'énergie (E) = matière (m, masse) multipliée par la vitesse de la lumière au carré (c2). Einstein a révélé que nous ne vivons pas dans un univers avec des objets physiques discrets, séparés par un espace mort. L'Univers est un tout indivisible et dynamique dans lequel l'énergie et la matière sont si profondément enchevêtrées qu'il est impossible de les considérer comme des éléments indépendants.

Auteur: Lipton Bruce H.

Info: The Biology of Belief : Libérer la puissance de la conscience, de la matière et des miracles

[ unicité ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0

nano-monde

2 000 atomes existent à deux endroits à la fois dans une expérience quantique sans précédent.

Une expérience a démontré un effet quantique bizarre de l'expérience de la double fente à une nouvelle échelle.

Des molécules géantes peuvent se trouver à deux endroits à la fois, grâce à la physique quantique. Les scientifiques savent depuis longtemps qu'il s'agit d'une vérité théorique fondée sur quelques faits : Chaque particule ou groupe de particules dans l'univers est également une onde - même les grandes particules, même les bactéries, même les êtres humains, même les planètes et les étoiles. Et les ondes occupent plusieurs endroits de l'espace à la fois. Ainsi, tout morceau de matière peut également occuper deux endroits à la fois. Les physiciens appellent ce phénomène "superposition quantique" et, pendant des décennies, ils l'ont démontré en utilisant de petites particules.

Mais ces dernières années, les physiciens ont augmenté l'échelle de leurs expériences, démontrant la superposition quantique en utilisant des particules de plus en plus grandes. Dans un article publié le 23 septembre dans la revue Nature Physics, une équipe internationale de chercheurs a réussi à faire en sorte qu'une molécule composée de 2 000 atomes occupe deux endroits en même temps.

Pour y parvenir, les chercheurs ont construit une version compliquée et modernisée d'une série d'anciennes expériences célèbres qui ont démontré pour la première fois la superposition quantique.

Les chercheurs savaient depuis longtemps que la lumière, envoyée à travers une feuille comportant deux fentes, créait un motif d'interférence, c'est-à-dire une série de franges claires et sombres, sur le mur situé derrière la feuille. Mais la lumière était considérée comme une onde sans masse, et non comme un élément constitué de particules, ce qui n'était donc pas surprenant. Cependant, dans une série d'expériences célèbres réalisées dans les années 1920, les physiciens ont montré que les électrons tirés à travers des films ou des cristaux minces se comportaient de manière similaire, formant des motifs comme la lumière sur le mur derrière le matériau diffractant.

Si les électrons étaient de simples particules, et ne pouvaient donc occuper qu'un seul point de l'espace à la fois, ils formeraient deux bandes, ayant à peu près la forme des fentes, sur le mur derrière le film ou le cristal. Mais au lieu de cela, les électrons frappent cette paroi selon des motifs complexes qui suggèrent que les électrons interfèrent avec eux-mêmes. C'est un signe révélateur d'une onde : à certains endroits, les pics des ondes coïncident, créant des régions plus lumineuses, tandis qu'à d'autres endroits, les pics coïncident avec des creux, de sorte que les deux s'annulent et créent une région sombre. Comme les physiciens savaient déjà que les électrons avaient une masse et étaient définitivement des particules, l'expérience a montré que la matière agit à la fois comme des particules individuelles et comme des ondes. 

Mais c'est une chose de créer un schéma d'interférence avec des électrons. Le faire avec des molécules géantes est beaucoup plus délicat. Les molécules plus grosses produisent des ondes moins faciles à détecter, car les objets plus massifs ont des longueurs d'onde plus courtes qui peuvent donner lieu à des motifs d'interférence à peine perceptibles. Or, ces particules de 2 000 atomes ont des longueurs d'onde inférieures au diamètre d'un seul atome d'hydrogène, de sorte que leur schéma d'interférence est beaucoup moins spectaculaire.

Pour réaliser l'expérience de la double fente sur des objets de grande taille, les chercheurs ont construit une machine capable de projeter un faisceau de molécules (d'énormes objets appelés "oligo-tétraphénylporphyrines enrichies de chaînes fluoroalkylsulfanyles", dont certains ont une masse plus de 25 000 fois supérieure à celle d'un simple atome d'hydrogène) à travers une série de grilles et de feuilles comportant plusieurs fentes. Le faisceau mesurait environ 2 mètres de long. C'est suffisamment grand pour que les chercheurs aient dû tenir compte de facteurs tels que la gravité et la rotation de la Terre dans la conception de l'émetteur du faisceau, expliquent les scientifiques dans leur article. Ils ont également gardé les molécules assez chaudes pour une expérience de physique quantique, et ont donc dû tenir compte de la chaleur qui bouscule les particules.

Pourtant, lorsque les chercheurs ont allumé la machine, les détecteurs situés à l'extrémité du faisceau ont révélé une figure d'interférence. Les molécules occupaient plusieurs points de l'espace à la fois.

C'est un résultat stimulant, disent  les chercheurs, qui prouve l'interférence quantique à des échelles plus grandes que celles qui avaient été détectées auparavant. "La prochaine génération d'expériences sur les ondes de matière permettra des essais à un niveau supérieur", écrivent les auteurs.

De telles démonstrations d'interférence quantique sont donc à venir, même s'il ne sera probablement pas possible de le faire nous-même à travers un interféromètre de sitôt. (Déjà le vide dans la machine nous tuerait.) Nous, les êtres géants, devrons simplement rester assis et regarder les particules s'amuser.

Auteur: Internet

Info: https://www.livescience.com/, Rafi Letzter, 04 octobre 2019

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Attention ce texte implique plusieurs pensées croisées.

Comme chacun sait, nous sommes formatés par notre éducation, l'environnement et ainsi de suite. Un peu comme les phrases, chapitres... livres...  peuvent être les niveaux d'échelles qui structurent les mots et la pensée de nos langages et de la littérature.

Comment en sortir ? Ensemble peut-être.

En termes de "réflexion personnelle commune" il semble que l'humain est, de manière générale, limité au niveau de la phrase ou de la formule. Tout simplement parce que la survie le demande. Dans l'action animale le cause-effet de la situation se passe vite, trop vite pour que l'individu isolé puisse développer sa réflexion.

Maintenant les hommes, touchons du bois, sont semble-t'il passés au-delà de l'individu et de sa survie immédiate. Ils ont pris le temps de réfléchir, ils développent ; voilà les philosophes et... le langage. Et, grâce à Internet, il est devenu possible de le faire de manière collective. Même si d'aucuns avancent que le langage, forcément anthropocentrique, nous éloigne de fait de la nature matrice source, ce que nous pensons aussi.

Qu'est-ce alors qu'une intelligence ensemble ? Carl Friedrich von Weizsäcker donne un début de réponse.

"La raison pratique sert la perception de ses propres intérêts, La raison théorique profonde celle de l'intérêt général."

Au départ de cette compilation FLP nous nous intéressions aux formules courtes (disons 5 mots en moyenne). Ensuite sont venus des extraits plus longs plus "littéraires", un peu comme l'a écrit Claudio Magris :

"L'Histoire dit les événements, la sociologie décrit les processus, la statistique fournit les chiffres, mais c'est la littérature qui les fait toucher du doigt, là où ils prennent corps et sang dans l'existence des hommes."

C'est ainsi que le langage écrit, témoignage par les mots de la réalité humaine, est maintenant mis en "réflexivité collective" via les "likes" et autres remarques que proposent d'innombrables web spots. Avec ce site nous tentons donc d'aller un peu plus loin puisque nous faisons en sorte qu'il se nourrisse de citations (étiquetées) par les surfeurs, ajouts modérés avant leur publication.

Aussi, développement supplémentaire, les participants inscrits peuvent lier certaines citations, ce qui permet souvent de comparer différentes formulations de la même idée (équation ?) et de ses varations.

Plus avant FLP offre la possibilité de développer des "chaines", ("Oh les beaux enfants") et même des chaines collectives. Voilà comment les choses avancent depuis plusieurs années.

Résultat évident à ce stade de cette expérience collective : "Plus une pensée courte est populaire, plus elle tient de l'axiome. Plus elle est longue, plus elle témoigne de la singularité de son auteur." 

Récapitulons :

Les formules/extraits sont tagués sur deux niveaux :

1) tag-chapitre, "catégorie" supposé être le plus généraliste, ce qui est déjà délicat à définir ! Il y a déjà ici une piste que nous allons développer pour le tag chapitre "catégorie" : établir sa pertinence via une auto-modération des participants. Nous y reviendrons.

2) tag simple, qui précise et oriente.

Ici aussi tout un chacun peut demander à modifier un étiquetage dont la pertinence pourra être discutée via une modération pyramidale.

3) les auteurs sont intégrés à la base de donnée avec 6 paramètres séparés (qui rendent "plus intelligente" la BD" et permettent de préciser une recherche)

A ce stade des "Fils de la pensée" on incitera le participant a déjà s'amuser à faire des recherches en combinant tags, auteurs, longueurs, périodes historiques, etc., ce qui est déjà énorme et complexe, mais surtout lui donnera une idée de comment "répond" le système.

Il faut aussi savoir qu'il y eut rapidement besoin d'améliorer l'indexage, ce qui amena à créer des tags/concepts moins imprécis : fond-forme, causes-effets, homme-machine, femmes-hommes, théorie-pratique, etc. Et aussi ensuite d'utiliser des mots/tags qui n'existent pas en français, nommés et recensés ici comme "intraduisibles".

Malgré tout, même précisé, un mot-tag reste porteur de plusieurs sens (terme-carrefour, métonymie) et peut signifier tout et son contraire en fonction du contexte et de l'agencement des phrases.

Apparraissent alors ce que nous nommons "méta-tags", une troisième catégorie, un peu à l'image du terme "Livre" dans la hiérarchie d'une bibliothèque, apparitions répétées de certaines combinaisons de tags. Combinaisons qui délimitent mieux une réflexion dont le champ est précisé, s'affinant, quand tout va bien, au sens philosophique du terme, avec les collaborations des participants.

Ainsi s'est établie une liste de doublons ou de triplettes de tags-mots-concepts, pistes qui se sont dessinées par répétition des passages (sont-ils des équations ) . En voici quelques exemples.

mort - omniprésence

conclure - illusion

amour - temps

mauvaise nouvelle - efficacité

survie - éthique

musique - langage

réconfort - ordre

enfance - imagination

protéger - affaiblir

être humain - quête

lecture - miroir

non-voyant - témoignage

femmes-par-femmes - amour etc., etc...

Exemples de triplettes :

complexité - vie - bouillonnement

humain - animal - particulier

réveil - naitre - réintégration

mentir - fuite - beaux-arts

motivation - transgression - jeunesse etc., etc...

On pourra bien évidemment complexifier à loisir tout ce qui précède mais il vaut mieux faire ici une pause. Il semble que c'est d'abord en se mettant d'accord via une modération (des participants actuellement, pyramidale bientôt ?) sur la moins mauvaise pertinence des mots-tags-chapitres d'une formule-citation, que nous établirons une base commune, un peu plus solide et moins aléatoire, pour avancer.

Pour l'instant ce sont les chaines et, dans une moindre mesure, les citations liées, qui clarifient un peu plus un mot-idée-concept - ou une phrase.

Ensuite, une fois ce groupe de réflexion collective mis en place, pourra peut-être venir le temps d'établir des "méta-tags" selon des critères à définir. Mais là nous sommes dans de la musique d'avenir. Concluons par trois questions dont les réponses, possibles sujets-chaines au sein même d'un telle tentative de réflexion collective, nous semblent importantes.

- Peut-on mélanger et structurer nos pensées et nos échelles de pensées "ensemble" sans faire ressortir de froides et imbéciles statistiques d'une société de consommation productiviste ?

- Comment éviter que la technologie ne conduise l'homme à se spécialiser dans l'humain, mais au contraire à l'aider à développer sa sagesse-tolérance et son ouverture aux autres espèces vivantes pour qu'il tente de trouver une plus juste place dans la réalité ?

- Avec la disparition du travail, comment conserver une motivation forte chez les individus si la problématique de survie immédiate disparaît ?

Auteur: Mg

Info: 2012, 2013, 2014, 2015, 2016, 2017, 2021, 2022

[ quête ] [ classification ] [ structuration ] [ taxinomie ] [ ranger ] [ taxonomie ] [ langage consensus vs singularités biologiques ] [ objectivités vs subjectivités ]

 

Commentaires: 0

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste