Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 538
Temps de recherche: 0.0478s

FLP défini 3

Les Fils de La Pensée est un site-application dédié à l'encouragement de la lecture. Et, plus encore, de la lecture analytique.  

Mais pas que.

Initié à l'orée du 3e millénaire, alors que le numérique rétrécit une planète terre où la domination américano-occidentale post ww2 se termine, FLP veut se positionner "à partir du langage" c'est à dire en contemplant le monde pratiquement sur le mode peircéen du quasi-esprit.

Ainsi notre site-agrégateur-moteur de recherche collectif tente d'aller un peu plus loin que ce que les idiomes, unificateurs grégaires, font déjà. Ceci en proposant des pistes susceptibles d'amener le développement d'une lexicologie humaine (ici francophone) élargie, en mouvement, souple... et charpentée différemment comme explicité plus loin. 

FLP est aussi un espace de réflexion communautaire trans-partisan HOMME - machine, à l'heure où on veut nous faire croire que les chatbots générateurs de texte sont une intelligence artificielle (A.I. - I.A.) susceptible d'être comparée à celle des hommes - voire supérieure à cette dernière.  Alors que ce ne sont que de fantastiques outils, dangereux pour deux raisons au moins selon nous.  a) L'utilisation que tout pouvoir cherchera à en faire b) La dépendance, voire l'abrutissement, qu'elles pourront générer. 

FLP s'essaye donc à semer les graines d'une refondation des structures de la classification sémantique - sans bien sûr abandonner les savoirs partagés antérieurs. C'est à dire sans remettre en cause notre évolution ni ce qu'il y a "au dessous du langage",  ce dernier ne représentant que l'hyperstructure évolutive du monde-miroir-anthropique consensuel, miroir qui grandit au fur et à mesure de la progression et de l'affinement de notre science, c'est à dire de représentations qui recherchent une forme de vérité/exactitude sur base, entre autres, d'analogies et de hiérarchisations. Hiérarchisations souvent ridicules, probablement à l'instar du faible niveau de notre jeune espèce dans le grand et mystérieux concert cosmique.  

Structuration sémantique à venir potentiellement plus fiable et durable parce que simultanément partie d'une meilleure compréhension-intégration humaine avec la matrice Gaïa et le reste du vivant.

Mais restons bien humbles et revenons à FLP. Sachant que chacun d'entre nous est par essence limité par son imprégnation propre : milieu, époque, pays, langue, famille, genre, conformation physique, épisodes de vie, etc. et étant assumés et assurés certains prérequis quant à un minimum d'"existence physique" et d'éducation au verbe du participant, FLP essaye ce dépassement classificateur en s'appuyant sur deux idées perpendiculaires syntonisées.  

Primo : développement et l'approfondissement de l'idiosyncrasie de chacun, principalement par lecture réflexive et compréhension/analyse. 

Secundo :  meilleure intégration/compréhension de chaque subjectivité personnelle au sein des idées ; humaines dans un premier temps et, pourquoi pas, de la nature dans un sens plus large, avec cette idée parallèle d'une réintégration dans le concert du vivant après tous ces épisodes capitalo-anthropocentrés des singes trop malins que nous sommes. 

En bref :   approfondissement personnel      versus       élargissement collectif incorporateur.

Nous retrouvons ici le concept de tétravalence cher à nos yeux où se combinent l'horizontalité de l'intégration aux rouages du présent (principe féminin, empathique ?), avec une verticalité qui tend à vouloir incorporer le MOI dans la continuité de l'évolution (principe masculin, égoïste ?). 

Il y a ici une parenté évidente - que FLP voudrait développer - avec les quatre liaisons de covalence du carbone (et en lien avec les 4 bases dont sont formées les chaines de la double hélice de l'ADN ?). Nous croyons encore une fois que s'en inspirer aidera à  une meilleure représentation humaine au sein du mystérieux processus de la vie émergé de notre matrice Gaïa ; à l'heure où la science  à  déjà bien montré combien nos représentations du réel sont à revoir de fond en comble.

Nous préconisons-anticipons donc le développement d'une classification à partir d'une double base duale, extension des 2 axes conceptuels habituels : ying-yang, mâle-femelle, vie-mort, ouranien-chtonien, doute-certitude, noir blanc, etc... ici sémantiques, qui sont à appréhender comme deux vecteurs doubles, orthogonaux , qui copulent, modélisent, conjuguent et fusionnent sans cesse les formulations, c'est à dire comment nous nous représentons le réel sous forme de consensus humain verbaux.

Voilà donc défini un cadre et quatre vecteurs-directions, sans autre forme méthodologique que la présentation de ce "chassis conceptuel".  Chassis sous-jacent qui, avec l'aide de l'outil FLP, ses règles simples, et les possibilités de précision sémantique qu'Internet permet, aidera le participant-inserteur à aller  un cran plus loin, c'est à dire à réfléchir, en extrapolant et dédoublant parfois la double dualité foncière qui nous anime. 

On pourra partir par exemple de idée simple d'un "dictionnaire intriqué  à deux termes". Termes définis et mis ensemble dans une recherche, dont les combinaisons vont générer diverses variations, en partant de la plus courte. Recherche-exploration "à deux mots" dont on pourra comparer les résultats tels qu'exprimés par une femme, ou par un homme, ou autre... Les paramétrages de lieu, époque, pays, etc. venant ensuite pour qui voudra aller plus loin.

Ainsi, via les bidouillages de chacun et des échanges multiples, principalement portés sur une "exactitude sémantique consensuelle", le dictionnaire FLP devrait s'auto-construire - sans jamais vouloir conclure - par la pratique et le partage communautaire. 

C'est donc une entreprise collective qui combine deux orientations orthogonales : occupation du temps et développement personnel, ces derniers participants à la construction et au développement d'un dictionnaire linguistique communautaire, base de données  multidimensionnelle  enchevêtrée  - en espérant de continuels élagages-mises à jour-corrections des extraits insérés. Tout ceci idéalement en développant et mettant en pratique un ordonnancement sémantico-taxinomique qui s'inspire de ce que nous savons de l'esprit qui est dans la matière.

Mais ne nous emballons pas. Voyons d'abord FLP comme un instrument de recherche, transversal et sérendipitaire, sur fond de délassement.  

Nous croyons au plaisir du lire, de la pensée, de la rêverie... de la curiosité qui avance par crans....  Pas assouvie, mais nourrie... souvent parce que le langage - c'est à dire tous les hommes rassemblés -, formule et matérialise pour un temps nos sentiments-sensations-idées, avant que chaque représentation personnelle (pas de représentations sans verbe) ne diverge et se développe plus avant à sa manière dans un corpus idiomatique jamais fixé. 

Nous pensons que l'esprit a soif de nouveau et répondons à cette appétence en proposant le double plaisir conjugué de la lecture et de la quête. Bon dieu quel bonheur de découvrir des choses parce que formulées jusqu'à nous paraitre intelligibles !

Auteur: Mg

Info: mars, avril 2023

[ prospective ] [ alcènes et alcynes  ] [ gnose ]

 

Commentaires: 0

Ajouté à la BD par miguel

judaïsme

Dimanche dernier, le ministre israélien de la Justice, Yossef Lapid, s'élevait avec virulence contre les opérations militaires meurtrières et destructrices à Rafah, dans la bande de Gaza: "Il faut cesser la destruction de maisons, elle n'est ni humaine ni juive, et provoque des dégâts énormes dans le monde, déclarait-il. L'image de la vieille femme cherchant ses médicaments dans les ruines m'a rappelé ma grand-mère, expulsée de sa maison pendant l'Holocauste." Naïvement, on se sentait réconforté par une telle intervention. On espérait qu'elle allait provoquer le débat, émouvoir enfin l'opinion israélienne et internationale, peut-être même amener certains à réclamer la démission d'Ariel Sharon... Résultat: ce qui provoque un tollé, ce ne sont pas les morts et les saccages de Rafah, mais les propos de Yossef Lapid. C'est de sa démission -à lui- qu'on discute gravement. Du tas de décombres et de victimes palestiniennes sur lequel il trône, Sharon se dit "scandalisé". Il reproche à son ministre de "donner des arguments à la propagande anti-israélienne", "sur la foi d'images des télévisions arabes", sans "vérifier leur véracité" (Libération, 24 mai) - comme si les exactions de Rafah n'avaient aucune réalité, comme si c'étaient une fois de plus ces fourbes d'Arabes qui nous jouaient la comédie de la douleur, voire qui auraient dynamité eux-mêmes leurs maisons par pure malveillance antisémite... Il ne vient apparemment à l'idée de personne que ce sont les opérations criminelles de Tsahal qui "donnent des arguments à la propagande anti-israélienne", et que les paroles de Lapid, au contraire, sauvent l'honneur.

"Le ministre de la Justice est-il allé trop loin?" Sur France-Inter, à treize heures, aujourd'hui, c'est la question que l'on pose à David Shapira, le porte-parole... des colons juifs de Cisjordanie et de Gaza. Et voilà comment le représentant d'individus qui constituent l'un des plus sérieux obstacles à un règlement du conflit, qui vivent en infraction permanente avec les accords de paix et la législation internationale, se retrouve dans le rôle de la victime offensée, demandant des comptes à celui qui l'a lésée. Magnanime, Shapira ne réclame pas la démission de Lapid, mais estime qu'il doit présenter "des excuses publiques", et, comme le journaliste qui l'interroge, il note, navré, qu'il ne l'a toujours pas fait à cette heure. "On peut être d'accord ou non avec ce qui se passe en ce moment à Gaza, mais on n'a pas le droit de comparer ces événements avec l'extermination systématique de six millions de juifs en Europe": on imagine combien le porte-parole des colons doit être bouleversé par ce qui se passe à Gaza, en effet. Yossef Lapid, dit-il, "insulte tous ceux qui ont été assassinés systématiquement" par les nazis.

Tanya Reinhardt: "Il semble que tout ce que nous avons intériorisé de la "mémoire de l'Holocauste", c'est que tout mal de moindre ampleur est acceptable"

Ça se passe toujours comme ça: lorsqu'un Israélien utilise la référence au génocide pour tenter d'ébranler ses concitoyens en suscitant chez eux une identification avec les Palestiniens, sa démarche aboutit à l'inverse de l'effet recherché - on a encore pu le constater récemment en France avec la polémique déclenchée par le film d'Eyal Sivan et Michel Khleifi, "Route 181". Elle a pour résultat de relancer les discours sur la "banalisation" du génocide, sur l'impossibilité de comparer ce qui est incomparable - et de faire purement et simplement _disparaître_ les Palestiniens et les crimes commis à leur encontre. La vieille femme de Rafah qui cherchait ses médicaments dans les décombres de sa maison a d'ores et déjà _disparu_. La vieille femme de Rafah peut crever. Il n'y a pas de volonté délibérée d'exterminer les Palestiniens, ils ne sont pas assassinés "systématiquement", alors ils peuvent crever: c'est aussi simple que ça. Le problème, c'est qu'entre l'affirmation, vraie en tant que telle, de l'impossibilité de comparer les deux événements, et l'idée qu'une vie d'Arabe ne compte pas, qu'une mort d'Arabe est une broutille négligeable, la frontière est décidément très mince. On pense à cette remarque amère de l'universitaire israélienne Tanya Reinhardt: "Il semble que tout ce que nous avons intériorisé de la "mémoire de l'Holocauste", c'est que tout mal de moindre ampleur est acceptable. La référence au génocide est utilisée pour rendre inaudible, pour escamoter la souffrance des Palestiniens. Pour frapper un peuple tout entier d'un effacement inéluctable, dont le mur de séparation n'est que la traduction concrète. Et on voudrait nous faire croire que c'est Yossef Lapid qui insulte la mémoire des victimes de la Shoah...

Nul besoin d'éprouver dans sa chair les effets concrets de ce verrouillage idéologique pour comprendre qu'il y a là de quoi rendre un peuple fou. L'un des grands arguments de la guerre israélienne de l'information consiste à demander pourquoi le monde entier s'émeut davantage du sort des Palestiniens que de celui des Tchétchènes ou des Algériens - insinuant par-là que la raison en serait un fonds incurable d'antisémitisme. Au-delà de ce qu'il y a d'odieux dans cette manière de nous ordonner de regarder ailleurs, on peut assez facilement répondre à cette question. On s'en émeut davantage (et ce n'est qu'un supplément d'indignation très relatif, d'ailleurs) parce que, avant que les Etats-Unis n'envahissent l'Irak, c'était le dernier conflit colonial de la planète - même si ce colonisateur-là a pour caractéristique particulière d'avoir sa métropole à un jet de pierre des territoires occupés -, et qu'il y a quelque chose d'insupportable dans le fait de voir des êtres humains subir encore l'arrogance coloniale. Parce que la Palestine est le front principal de cette guerre que l'Occident désoeuvré a choisi de déclarer au monde musulman pour ne pas s'ennuyer quand les Rouges n'ont plus voulu jouer. Parce que l'impunité dont jouit depuis des décennies l'occupant israélien, l'instrumentalisation du génocide pour oblitérer inexorablement les spoliations et les injustices subies par les Palestiniens, l'impression persistante qu'ils en sont victimes - en tant qu'Arabes -, nourrit un sentiment minant d'injustice. Il y a et il y aura toujours des hommes et des femmes pour continuer à le clamer: contre ce sentiment d'injustice, qui peut amener certains de ceux qui l'éprouvent à commettre des actes barbares, les intimidations de la propagande ne pourront jamais rien. Elles ne pallieront jamais la nécessité de la justice. Il est indécent de clamer, lorsqu'on condamne le terrorisme, que le désespoir n'excuse pas tout, et de continuer par ailleurs à alimenter cyniquement ce désespoir. Ariel Sharon a beau faire mine de mettre en doute la crédibilité des images de Gaza, il a beau vouloir nous faire croire que le scandale, ce sont les déclarations de Yossef Lapid, ces images existent. Des millions de gens à travers le monde les voient. Ils savent parfaitement qu'elles sont très réelles, et que le message qu'elles envoient est très réel lui aussi. Sous peine de contribuer activement à l'intensification de cette "guerre civile mondiale" dont parle Eric Hazan, il faudra bien que les gouvernements et les médias d'Occident se décident un jour, eux aussi, à voir la vieille femme palestinienne fouillant les décombres de sa maison de Rafah.

Auteur: Chollet Mona

Info:

[ . ]

 

Commentaires: 0

femmes-par-hommes

Depuis longtemps déjà, on a écrit que les mouvements des cuisses à bicyclette provoquaient des frottements, des frictions des lèvres et du clitoris et amenaient la femme à des pratiques vicieuses. Le grand argument de ceux qui appuyaient cette théorie était d'après eux la ressemblance entre les mouvements que fait l'ouvrière actionnant une machine à coudre et une touriste actionnant un cycle. Voici, découpées, dans un journal nullement médical, et qui, pour cette raison, tranche gravement les questions de médecine, quelques lignes parues au milieu de l'année 1894 :

"Pour les femmes, l'effet résultant de l'usage de la bicyclette est aussi très grave. Qu'on se souvienne des désordres, constatés médicalement, que causent les machines à coudre chez les ouvrières qui en font un usage constant et se livrent à cette fatigante occupation du matin au soir. Toutes sortes de maladies de genre spécial se sont révélées chez ces laborieuses, mais un fait particulier a été remarqué également, c'est le développement précoce dans ce milieu de travail de la nymphomanie et de l'hystérie caractérisée. La cyclomanie, en dehors de ses périls ordinaires, comporte pour les femmes les mêmes inconvénients que la machine à coudre. Elle amène les mêmes effervescences, les mêmes surexcitations lubriques, les mêmes accès de folie sensuelle."

Belle tirade peut-être, mais combien fausse ; il va nous être facile de le démontrer, tant par les articles des maîtres qui ont écrit sur ce sujet que par les résultats de notre enquête et de notre expérience déjà ancienne.

Il est très difficile, au premier abord, pour les médecins, dit le docteur Martin, d'analyser les sensations ressenties par les femmes qui recherchent dans cet instrument une excitation génésique d'ordre particulier, et la délicatesse du sujet empêchera souvent de pousser jusque-là l'interrogatoire, sans compter les révélations sur la voie desquelles on mettrait, par cela même, des jeunes filles inconscientes du fait.

Les effets produits par la machine à coudre et la bicyclette ont été comparés. On sait combien l'emploi de la première peut avoir de dangers, car le mouvement de va-et-vient de la pédale n'est ni large, ni complet, il ébranle la partie inférieure du corps ; c'est une sorte de crispation des mollets qui n'est pas compensée par le balancement du corps et des bras, les grandes lèvres frottent sur les petites et la chaleur qui en résulte provoque fréquemment l'onanisme.

Une femme à la machine à coudre reste dans une atmosphère confinée et doit avoir les yeux sur son travail. La position occasionne une pression sur les organes pelviens. Avec son mouvement court, rapide, limité aux muscles de la cuisse et du jarret sans déplacement du sujet, la machine à coudre ne peut être comparée à la bicyclette, qui met en action tout le membre inférieur et qui est utilisée en plein air. (...)

Tandis qu'à bicyclette, s'il y a masturbation, c'est qu'il y a manoeuvre de la femme, soit en se penchant en avant sur le pommeau de la selle, de façon à ce que la vulve vienne à frictionner sur ce pommeau, soit en serrant les cuisses pour actionner l'une contre l'autre les grandes lèvres et transmettre ainsi le mouvement aux petites lèvres et au clitoris." ( ... )

M. Verchère connaît une jeune dame bicycliste qui lui a avoué s'offrir à volonté, sur sa bicyclette, deux ou trois séances, à intervalles voulus, de masturbation complète. Elle avoua aussi, il est vrai, qu'elle avait d'autres procédés pour remplacer sa bicyclette.

D'autre part, M. Dickinson, dans The American Journal of Obstetrics (1895), écrit qu'une jeune femme, possédant une expérience très grande des plaisirs sexuels, ne pouvait pas obtenir de jouissances plus intenses que celles produites par l'usage de la bicyclette.

M. Wance a vu une jeune fille de 15 ans, cycliste assidue, devenue pâle, surmenée, quelque peu émaciée. Le bec de la selle faisait un angle de 35 degrés, s'abaissait et se relevait d'une manière sensible pendant la course. Il était facile de comprendre la cause de l'état de fatigue générale de la malade.

M. Martin a interrogé un grand nombre de femmes au sujet des sensations voluptueuses ressenties à bicyclette, et elles lui ont répondu affirmativement. Il est des cas où cette sorte de masturbation sportive les excite à tel point qu'elles augmentent progressivement leur vitesse, filent souvent avec une grande rapidité dans les descentes, sans apercevoir les obstacles placés sur leur chemin. C'est ainsi que l'une d'elles monta sur un trottoir et ne s'arrêta que par une chute heureusement peu grave dans un fossé. Une autre, dans les premières séances d'apprentissage, était tellement excitée qu'elle se précipita pâmée dans les bras du jeune homme qui la guidait dans ses exercices. Un ami de Monsieur le docteur Martin lui raconta qu'il était arrivé à être jaloux de la bicyclette. Sa maîtresse le délaissait chaque jour pour courir à son sport favori et arrivait au logis lassata, sed etiam satiata.

Il nous serait possible de multiplier ce genre d'observations. Ces faits ne sont pas rares, mais, hâtons-nous de le dire, ils appartiennent presque tous à cette classe de femmes désoeuvrées, qui dépensent le temps de la manière la plus joyeuse et la plus futile et dont la recherche d'émotions et de plaisirs est la principale occupation ; cependant nous les avons aussi rencontrés chez les femmes honnêtes. Les femmes qui recherchent l'excitation sexuelle et pour qui, suivant l'expression de Donnay, l'oxygène est presque un amant, trouveraient donc dans la bicyclette le moyen de satisfaire leur passion.

"La chose ne doit pas nous surprendre, mais pour nous il n'est pas besoin d'être perverti sexuel pour arriver à cette masturbation d'un nouveau genre. La femme grisée par le grand air, la vitesse, s'abandonne peu à peu à l'excitation ressentie, à la sensation de jouissance spéciale qui est peut-être la cause du plaisir éprouvé par elle sur une balançoire, sur les montagnes russes, plaisir qui souvent la conduit jusqu'à la volupté. Aussi faudra-t-il prescrire avec prudence l'usage du cyclisme chez les jeunes filles de 12 à 13 ans, au moment où la puberté s'établit. Il pourrait y avoir des inconvénients au point de vue de l'éveil de l'instinct génésique."

Certes, il y a des femmes qui éprouvent plus ou moins facilement des sensations voluptueuses, et il y a surtout des femmes qui les éprouvent dans des circonstances à elles propres et souvent bizarres. Ne connaissons-nous pas le cas d'une de nos clientes qui éprouve un réel plaisir à faire une promenade dans une voiture dont les roues sont munies de bandages pneumatiques ? M. Verchère ne dit-il pas lui aussi : "Je connais une fort honnête dame, qui ne peut traverser la place du Carrousel, si mal pavée, dans l'omnibus Batignolles-Clichy-Odéon, sans éprouver l'orgasme vénérien." S'ensuit-il que l'on doive interdire à toutes les femmes l'omnibus et la voiture munie de pneumatiques ?

Et si, par hasard, une promenade à bicyclette révèle à une cycliste novice une satisfaction génitale, il ne faut pas conclure que la bicyclette crée des dépravées.

Du reste, dans l'enquête ouverte par nous en vue de ce travail, toutes les réponses ont été négatives à cette question : Éprouvez-vous quelque plaisir d'ordre intime lorsque vous pédalez ? Il ne faut donc pas accuser la bicyclette, mais la bicycliste.

Auteur: O'Followell Ludovic Dr

Info: Bicyclette et organes génitaux, Baillière et fils, p 63

[ onanisme ] [ vélo ]

 

Commentaires: 0

émoi

Les émotions et leurs expressions ont-elles varié à travers le temps? Exprimait-on de la même manière la joie au Moyen-Age qu’aujourd’hui? La colère et la douleur? Après leurs très remarquées Histoire du corps et Histoire de la virilité, parues au Seuil, les historiens Alain Corbin, Jean-Jacques Courtine et GV dirigent cette fois une ambitieuse et passionnante Histoire des émotions en trois volumes.

Cette somme d’articles réunit les meilleurs spécialistes mais s’adresse à un large public et se lit comme un formidable récit. Les premiers volumes paraissent aujourd’hui. Ils nous emmènent de l’Antiquité au Moyen Age, et jusqu’à la veille de la Révolution. Le troisième, qui couvrira la période moderne, est annoncé pour 2017. GV revient sur cette passionnante évolution.

- Le Temps: En vous lisant, on découvre que les émotions sont culturellement construites et varient selon les époques…

- GV :
 L’émotion est un phénomène central par lequel nous pouvons préciser les univers culturels et sociaux. Dans cette étude collective, nous avons traversé le temps, de la Grèce antique à l’époque contemporaine. Mais nous avons aussi cherché à dessiner une géographie de l’émotionnel au sein d’une même société. Au XVIIe siècle, par exemple, le monde populaire n’a pas le même régime émotionnel que celui de la cour… Dans l’Antiquité non plus. Prenez Sénèque. Lorsqu’il décrit l’univers émotionnel de la romanité, il dit que l’homme libre, le citoyen, maîtrise ses émotions. Ce qui est moins le cas, selon lui, de la femme, encore moins de l’esclave ou du barbare. Il établit donc une gradation entre la fermeté et la trop grande sensibilité. Il dessine une hiérarchie.

– Comment évolue la notion d’émotion à travers l’histoire?

– Le mot n’apparaît en français qu’au XVIe siècle. D’abord, on décrit essentiellement l’émotion par des caractéristiques physiques. Pour parler d’un tremblement de terre, on dira que "la Terre a reçu de l’émotion". Au XVIIe, il y a une centration sur les "humeurs corporelles" ou les "esprits". La tristesse est ainsi décrite comme le reflux des humeurs vers l’intérieur du corps. Mais bientôt on ne se satisfait plus de ces images "physiques". L’univers psychique se construit, avec ses logiques et ses spécificités…

On assiste au développement d’une délicatesse progressive, dans la seconde moitié du XVIIe siècle. L’histoire des émotions se lit aussi à travers les mots employés. "Emotion" et "passion" sont d’abord synonymes. Puis "émotion" prend la notion de "choc". Enfin, la notion de "sentiment" se crée, beaucoup plus douce, obscure et fermée.

– Est-ce que notre époque ose exprimer ses émotions?

– L’homme se montre beaucoup plus qu’auparavant susceptible d’être sensible, à l’écoute, et atteint par l’autre. C’est le propre des sociétés compassionnelles, qui sont aussi victimaires. Nous sommes en empathie. D’un autre côté, l’attention à l’autre fait que l’on reste sur sa réserve, pour ne pas le troubler. Par exemple, ceux qui ont connu l’atrocité des camps de concentration ont eu du mal à témoigner de leurs souffrances à leurs proches. On pourrait parler d’un système schizophrénique: il faut montrer sa compassion, mais si on le fait trop, on court le risque de troubler l’autre.

Le XXe siècle, de manière caricaturale, c’est une montée de l’individualisme. Le fait d’être plus centré sur soi et plus attentif sur ce qui se passe à l’intérieur de soi, avec des phénomènes qui vont jusqu’à l’hypocondrie. Notre frontière devient plus fragile, on a l’impression d’être davantage bousculé… Plus le régime émotionnel monte, plus émerge en parallèle une insécurité diffuse. Nos sociétés sécrètent davantage d’anxiété qu’auparavant.

– A quoi s’ajoute la question du terrorisme et des attentats…

– C’est très frappant: nous sommes dans des sociétés qui tolèrent de moins en moins la violence, des sociétés "douces". Si la torture devait se pratiquer, elle devrait le faire sans laisser de traces physiques. Sinon, ce serait insupportable pour l’opinion. Mais les adversaires de cette société, que font-ils pour créer de la panique, de l’inquiétude? Ils montrent la violence, ils la multiplient sur les écrans. C’est un paradoxe. Nous voulons effacer la violence, mais nos ennemis la mettent en scène. Autre paradoxe, le terroriste, s’il entend incarner la terreur, ne doit pas afficher de sentiments. Il ne doit pas montrer qu’il peut être atteint, qu’il peut avoir peur. Cela soulève aussi la question du trauma, très importante aujourd’hui. Comment l’émotion peut voyager à l’intérieur de nous-même pour créer de la subversion. Notre époque s’en méfie.

– Si on ressent de plus en plus à l’époque moderne, il faut aussi apprendre à cacher ses émotions pour réussir…

– A l’époque de la royauté, la cour en est un magnifique exemple. Pour vous imposer dans ce système, il faut à tout prix cacher ce que vous éprouvez. Il faut conduire des tactiques du secret. La modernité crée cela. On ne montre pas, on calcule. Les vieux barons du Moyen Age n’y auraient rien compris. A leur époque, on devait manifester la douleur, les émotions, de manière violente.

– Justement, l’expression de la colère a-t-elle varié à travers les âges?

– Dans l’Antiquité et au Moyen Age, le pouvoir pouvait parfaitement exprimer sa colère de manière abrupte, tranchée, en l’imposant à autrui. Mais le pouvoir d’une société démocratique ne peut pas être colérique. Il doit négocier, car la colère apparaît comme la manifestation d’une non-maîtrise. De manière plus générale, on assiste à une stigmatisation plus aiguë de tout ce qui peut apparaître comme un débordement. La psychanalyse est passée par là. Tout ce qui fait émerger un inconscient perturbateur est considéré comme peu acceptable. Il faut être "cool". Une forme de maîtrise faite de sérénité, pas de rigidité.

– Qu’en est-il de l’expression du plaisir et de la jouissance?

– La première position chrétienne consiste à adopter une attitude très réservée vis-à-vis du plaisir. Se laisser aller à l’amour terrestre, c’est oublier l’amour divin. Mais, après Saint-Augustin, l’amour pour Dieu devient plus sensible. A la Renaissance, les poètes invitent à vivre les joies de l’instant, souvenez-vous de Ronsard. La modernité est en germe. Elle se traduira par le triomphe du présent et de la jouissance qu’il peut comporter. Aujourd’hui, la publicité en témoigne. Pour vendre un déodorant, on nous montre une femme qui exulte et danse sur une table, dans des gestes toujours harmonieux, mais exprimant un bonheur intense.

– Sur quels documents se base-t-on pour dresser une histoire des émotions?

– Sur toutes les représentations des émotions à travers l’art, la statuaire ou la peinture. Mais les textes littéraires sont également très importants. Les mémoires et les correspondances aussi, je pense aux lettres de Madame de Sévigné, qui mettent en scène de manière inusitée l’amour filial. La littérature médicale, quant à elle, nous apprend beaucoup sur la façon dont on prend en compte les tempéraments, pensez à la mélancolie. Enfin, la littérature juridique, sur le viol notamment, permet de définir le statut de la victime, la reconnaissance ou non de son émotion.

Pour l’Antiquité et le Haut Moyen Age, les traces laissées dans les tombes sont éclairantes. Nous publions un article de Bruno Dumézil, qui rappelle que l’on a retrouvé un instrument de musique dans la tombe d’un guerrier barbare. C’est le signe d’une sensibilité, qui va à l’encontre des idées reçues. Mais il est très difficile de coller au plus près de l’émotion ressentie. Nous travaillons sur les traces, les vestiges, les indices… Nous devons rester prudents. 

Auteur: Vigarello Georges

Info: Sur Letemps.ch. oct 2016. Interview de Julien Burri. A propos d'Histoire des émotions, vol 1. "De l’Antiquité aux Lumières", 552 p.; vol 2. "Des Lumières à la fin du XIXe siècle", 480 p. sous la direction d’Alain Corbin, Jean-Jacques Courtine, GV, Seuil.

[ larmes ] [ rapports humains ] [ pathos diachronique ] [ apparences ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Toute émergence "qui réfléchit" ne peut être que consensuelle. 

Le moi, je, ego incarné, de même que la race (espèce) auquel il appartient, doivent nécessairement développer un univers "accepté" dans ses grandes lignes. Pour l'espèce ça semble aller de soi ; sans cela pas de signes entre les sexes pour la reproduction. Et, pour les races-communautés plus complexes (évoluées?) comme la nôtre : pas de langages communs, musique, mathématiques, beaux-arts, codes informatique, sciences... 

Pour l'individu, l'idée semble moins aisée à comprendre. Parce qu'intuitivement la "singularité" qu'il représente apparait via certains détails (variantes) qui semblent - et ne sont - pas décisifs pour la survie de l'espèce. Ainsi des graines des arbres. Mais il y a bien un consensus individuel, intime, destiné à la survie personnelle et à la reproduction, qui est recherche d'un équilibre, autant interne qu'avec les autres. 

Ces moyens termes, collectifs et singuliers (qui tendent vers la complexité) semblent indiquer quelques pistes, si on veut bien user du recul de notre mémoire collective. 

Primo, rien de temporellement fixe (terme à la mode : durable) à quoi s'accrocher. Sauf si un "équilibre solide" est installé entre biotope et individus-espèce (pensons aux requins, entre autres exemples). 

Secundo, existent une adaptabilité et une curiosité incessantes chez l'homme, qui avec le temps semblent occuper toujours plus les activités cérébrales de l'individu, lui-même infime et singulière émergence - initiatico-spirituelle souvent -, qui "ouvre" le monde tout en le perpétuant. 

Tertio. De ce continu phénomène d'évolutions/adaptations, on pourra constater, et probablement modéliser, toutes sortes de décalages évidents, nécessaires, à plein d'échelles et de niveaux. Dissonnances fines qui peuvent aller jusqu'à des ruptures de compréhension-communication entre : générations, époques, genres/sexes, habitudes, manières de voir, etc. De là beaucoup de malentendus et conflits, et donc une grande nécessité de tolérance et d'amour. 

Alors, pour faire marcher ensemble les consensualités intriquées du grand univers objectif avec les singularités subjectives, autrement dit concilier nos indéniables solipsismes avec le plus de niveaux possible que présente le cosmos matrice insondable, on entrevoit un principe orgonomique de l'ordre de l'adaptation pragmatique. Stephen Wolfram va jusqu'à affirmer que quelques règles simples (un code source) pourraient sous-tendre tout ceci. Pourquoi pas.

En termes linguistiques on pourra tenter d'affiner la définition de ce principe orgonomique par l'ajouts de vocables comme effort, collaboration solidaire, amour, chance/hasard, curiosité, survie, etc. 

Et puis, en tout dernier, se pointe le mot "esprit". On ne peut entrevoir ce concept qu'en fin de chaine. En effet l'esprit - ou réflexion un peu continue -, s'articule lui-même sur le maniement de mots/concepts (quasi-esprits de Peirce), eux-mêmes péniblement émergés d'une évolution lexicologique somme toute très récente et souvent retraçable. Analyses, pensées, élaborations abstraites... souvent aussi appuyées sur d'autres idiomes comme les mathématiques.  

Au-delà des listes et autres inventaires, l'écriture et les signes permettent donc - finalement - de raisonner et réfléchir... et  "commencer à" s'extraire, à s'élever un tout petit peu pour tenter de mieux voir. 

On se demande dès lors comment et pourquoi certains penseurs, gourous et autres religieux, qui "moulinent à la parole", décrétent que l'Esprit est à la source de tout, alors qu'il ressemble plus à une conquête pour ce qui nous concerne. Infinitésimale.

En rappelant par honnêteté qu'il y a belle lurette que les grecs anciens ont établi que le langage (logos) était l'instrument de la raison. Et puis : issue de l'invraisemblable fatras du kabbalisme et des traditions sumériennes, vient la théologie chrétienne où, d'un coup d'un seul le "Logos" est employé pour désigner la deuxième personne de la Trinité chrétienne. En bref Jésus, le Christ, prend le même sens que "verbe, parole". L'origine de cette désignation étant formalisée bien a postériori ainsi dans la Bible : "Au commencement était la Parole, et la Parole (logos) était avec Dieu, et la Parole était Dieu. Toutes choses ont été faites par elle, etc". (Évangile selon Jean, chapitre 1). Cet Évangile de Jean affirme donc que Dieu parle, sa parole est son hypostase, sa Parole créatrice est aussi puissante que Lui-même : Il est Sa Parole, etc... Ce concept de la parole de Dieu comme hypostase de Dieu même est commun à plusieurs religions, mais pour l'auteur de l'évangile, ce qui est original et unique à la chrétienté est que cette parole, hypostase, qui est Dieu même, est devenue homme et a habité parmi les hommes : "Et la parole a été faite chair, et elle a habité parmi nous, pleine de grâce et de vérité ; et nous avons contemplé sa gloire, une gloire comme la gloire du Fils unique venu du Père." (Évangile selon Jean, chapitre 1, 14)

Arrêtons là et contentons-nous de prendre ce paragraphe comme une extraordinaire démonstration de langage performatif. Très très très performatif, au vu de la puissance et de la place prise par le judéo-christianisme en début de 3e millénaire. 

Mais assez : revenons à notre idée de départ, celle de l'invraisemblable mélange de consensus/échelles/êtres/univers/etc. que nous pouvons constater et de sa préhension par notre entendement. Entendement développé via nos signes/écrits, mémorisés et intégrés dans notre mémoire collective. Ce qui amène beaucoup de gens à vouloir croire que l'humain est "au-dessus", élu... Supérieur... Il bénéficierait d'un esprit d'ordre surnaturel, divin, astralement dessiné. Essence orgonomique que d'autres imaginent comme quelque chose de l'ordre du fluide vital, énergie subtile issue d'un autre espace (dimension), dotée pour le coup de capacités/pouvoirs au-delà de nos possibilités de modélisation, etc.

Avançons-nous un peu pour affirmer que ce fameux Esprit, à la lumière de nos faibles connaissances, ressemble beaucoup plus à la version "manipulation de signes" par des cerveaux tardivement accouché de l'évolution, qu'à une émergence extraordinaire, divine et miraculeuse. Surtout si on s'amuse à comparer ces manipulations aux merveilleuses complexités et aux presqu'insondables développements de la vie biologique.

Ici FLP pointe le bout de son nez et, avec l'aide de C.S. Peirce - unique penseur ayant développé une approche solide et cohérente en ce domaine -, propose un outil, souple, puissant et collectif qui permet (en français, humblement et à sa manière) d'explorer-rechercher-bidouiller langage et sémantique, ces dispositifs de signes aptes à traiter tout et son contraire, aptes à passer du mirage absolu au plus cru des réalisme - en mélangeant les deux. Mais aussi inaptes, de par leur nature immobile (un fois une pensée écrite, et donc arrêtée - et si on veut bien nous excuser cette énorme lapalissade) à véritablement traiter notre support réel, la vie, ce mouvant embrouillamini qui se permet de mélanger sans discontinuer les échelles, vitesses, sentiments, etc. 

Pour revenir sur terre on dirait bien que les résultats de ce magnifique entendement humain nous amènent plutôt, en ces années de pandémie Co-vid,  vers un abrutissement drastique de forces de vie humaines de moins en moins sollicitées à cause des "progrès" techniques et médicaux. Sans parler du genre de biocratie sanitaire qui en découle. Pensez : tout récemment encore l'occident se battait contre l'acharnement thérapeuthique, affolé par la poussée démographique et le vieillissement des populations. Aujourd'hui on dirait qu'il s'auto-asphyxie pour sauver les personnes âgées. 

Mais soyons positifs et rassurons-nous. Ce ralentissement aura permis à la planète de respirer, et aussi de s'unifier - contre le covid. Unification qui pourrait mettre en parallèle biologie et communications humaines à l'échelle de la planète et ainsi procéder à un développement-consolidation de signes communautaires, càd de mêmes terrestres.

Contemplons la suite et restont bien zens goguenards. 

Vigilants.

Auteur: Mg

Info: 10 janv. 2021

[ sémiotique ] [ pré-mémétique ] [ systèmes intelligents ]

 
Mis dans la chaine
Commentaires: 5
Ajouté à la BD par miguel

physique fondamentale

On m’a dit que je gaspillais mon temps 

Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et ­l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.

AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?

AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.

Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particuleAinsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.

Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.

AA - Et qu’appelle-t-on deuxième révolution quantique ?

AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.

Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.

AM - Comment a-t-on validé ce phénomène "d’intrication" ?

AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.

AM - Quelles expériences ont été réalisées pour établir cette intrication ?

AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.

Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.

AM - D’où vient votre passion pour la physique ?

Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.

Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.

AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?

AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.

On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.

On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche ­désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.



 

Auteur: Aspect Alain

Info: Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022

[ nano-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

perception humaine

Les schémas mathématiques secrets révélés par la musique de Bach

Le compositeur baroque allemand Jean Sébastien Bach a produit une musique si bien structurée qu'elle est souvent comparée aux maths. Bien que peu d'entre nous soient émotionnellement affectés par les mathématiques, les œuvres de Bach - et la musique en général - nous émeuvent. C'est plus que du son ; c'est un message. Désormais, grâce aux outils de la théorie de l'information, les chercheurs commencent à comprendre comment la musique de Bach fait passer ce message.

En faisant de ses partitions de simples réseaux de points, appelés nœuds, reliés par des lignes, nommeés bords, les scientifiques ont quantifié les informations véhiculées par des centaines de compositions de Bach. Analyse de ces réseaux musicaux publiée le 2 février dans Physical Review Research qui révèle que les nombreux styles musicaux de Bach, tels que les chorales et les toccatas, différaient considérablement dans la quantité d'informations qu'ils communiquaient - et que certains réseaux musicaux contenaient des structures qui pouvaient faciliter la compréhension de leurs messages par les auditeurs humains.

" Je trouve cette idée vraiment cool ", explique le physicien Suman Kulkarni de l’Université de Pennsylvanie, auteur principal de la nouvelle étude. " Nous avons utilisé des outils de la physique sans faire d’hypothèses sur les pièces musicales, en commençant par cette simple représentation et en voyant ce qui peut nous dire sur les informations qui sont transmises. "

Les chercheurs ont quantifié le contenu de toute cette information, des séquences simples aux réseaux enchevêtrés, utilisant le concept d'entropie de l'information, introduit par le mathématicien Claude Shannon en 1948.

Comme son nom l'indique, l'entropie de l'information est mathématiquement et conceptuellement liée à l'entropie thermodynamique. Elle peut être considérée comme une mesure du degré de surprise d'un message - "message" qui peut être tout ce qui transmet des informations, d'une séquence de nombres à un morceau de musique. Cette perspective peut sembler contre-intuitive, étant donné que, dans le langage courant, l'information est souvent assimilée à la certitude. Mais l'idée clé de l'entropie de l'information est qu'apprendre quelque chose que l'on sait déjà n'est pas apprendre du tout.

Une conversation avec une personne qui ne sait exprimer qu'une chose, comme le personnage Hodor dans la série télévisée Game of Thrones, qui dit seulement " Hodor ", sera prévisible mais pas informationelle. Une discussion avec Pikachu sera un peu meilleure ; le Pokémon ne peut dire que les syllabes de son nom, mais il peut les réarranger, contrairement à Hodor. De même, une pièce de musique ne comportant qu'une seule note sera relativement facile à "apprendre" par le cerveau, c'est-à-dire à reproduire avec précision sous la forme d'un modèle mental, mais le morceau aura du mal à faire passer un quelconque message. Regarder un jeu de pile ou face avec une pièce à deux têtes ne donnera aucune information.

Bien sûr, envoyer un message plein d'informations n'est pas très bon si le quelque chose - ou qui que ce soit - qui le reçoit ne peut  comprendre avec précision ces informations. Et quand il s'agit de messages musicaux, les chercheurs travaillent encore sur la façon dont nous apprenons ce que la musique essaie de nous dire.

" Il existe quelques théories différentes ", explique le cognitiviste Marcus Pearce de l’université Queen Mary de Londres, qui n’a pas participé à la récente étude de la recherche sur l’évaluation physique. " La principale, je pense, en ce moment, est basée sur l’apprentissage probabiliste. Dans ce cadre, "apprendre" la musique signifie construire des représentations mentales précises des sons réels que nous entendons - ce que les chercheurs appellent un modèle - par un jeu d'anticipation et de surprise. Nos modèles mentaux prédisent la probabilité qu'un son donné vienne ensuite, sur la base de ce qui a précédé. Ensuite, explique M. Pearce, " on découvre si la prédiction était juste ou fausse, et on peut alors mettre à jour son modèle en conséquence".

Kulkarni et ses collègues sont physiciens, pas musiciens. Ils voulaient utiliser les outils de la théorie de l'information pour explorer la musique à la recherche de structures d'information qui pourraient avoir quelque chose à voir avec la façon dont les humains glanent un sens de la mélodie.

Ainsi Kulkarni a transformé 337 compositions de Bach en bandes de nœuds interconnectés et calculé l'entropie de l'information des réseaux qui en résultent. Dans ces réseaux, chaque note de la partition d'origine est un noeud, et chaque transition entre notes est un pont. Par example, si une pièce inclut une note Mi suivie d'un Do et d'un Sol joués ensemble, le noeud représentant E sera relié aux noeuds représentant Do et Sol.

Les réseaux de ce notation transitions dans la musique de Bach ont générés plus de poinçon d'information que des réseaux de même taille générés aléatoirement - le résultat d'une plus grande variation dans les degrés nodaux des réseaux, c'est-à-dire le nombre d'arêtes connectées à chaque nœud. En outre, les scientifiques ont découvert des variations dans la structure de l'information et le contenu des nombreux styles de composition de Bach. Les chorals, hymnes destinés à être chanté, ont donné lieu à des réseaux relativement pauvres en informations, bien que plus riches en informations que les réseaux de même taille générés de manière aléatoire. Les toccatas et les préludes, styles musicaux souvent écrits pour des instruments à clavier tels que l'orgue, le clavecin et le piano, présentant une entropie de l'information plus élevée.

" J’ai été particulièrement excité par les niveaux plus élevés de surprises dans les toccatas que dans les œuvres chorales ", explique le co-auteur de l’étude et physicien Dani Bassett de l’Université de Pennsylvanie. " Ces deux types de pièces sonnent et résonnent différement dans mes os, et ça m'a passionné de voir que cette distinction se manifeste dans l'information de composition. "

Ces structures de réseau dans les compositions de Bach pourraient également permettre aux auditeurs humains d'apprendre plus facilement certaines choses. Les humains n'apprennent pas parfaitement les réseaux. Nous avons des préjugés, dit Bassett. " Nous ignorons en quelque sorte certaines des informations locales au profit de la vue d’une image plus grande de l’information sur l’ensemble du système ", ajoute-t-ils. En modélisant ce biais dans la façon dont nous construisons nos modèles mentaux de réseaux complexes, les chercheurs ont comparé l'ensemble des informations de chaque réseau musical à la quantité d'informations qu'un auditeur humain en tirerait.

Des réseaux musicaux contenaient des groupes de transitions de notes pourraient aider nos cerveaux biaisés " apprendre " la musique - à reproduire la structure informationnelle de la musique avec précision en tant que modèle mental - sans sacrifier beaucoup d'informations.

" La façon dont elles saisissent l’aptitude à l’apprentissage est assez intéressante ", déclare Peter Harrison de l’Université de Cambridge, qui n’a pas participé à l’étude. " C'est très réducteur dans un certain sens. Mais c'est tout à fait complémentaire avec d'autres théories que nous connaissons, et l'aptitude à apprendre est assez difficile à maîtriser ".

Ce type d'analyse de réseau n'est pas particulier à Bach et il pourrait fonctionner pour n'importe quel compositeur. Pearce dit qu'il sera  intéressant d'utiliser cette approche pour comparer différents compositeurs ou rechercher des tendances informatives à travers l'histoire de la musique. Pour sa part, Kulkarni est excité à l'idée d'analyser les propriétés d'information de partitions d'au-delà de la tradition musicale occidentale.

La musique n'est pas seulement une séquence de notes, note cependant Harrison. Le rythme, le volume, le timbre des instruments, ces éléments sont des aspects importants des messages musicaux qui n'ont pas été pris en compte dans cette étude. Kulkarni dit qu'il sera intéressé par l'inclusion de ces aspects de la musique dans ses réseaux. Le processus pourrait également fonctionner dans l'autre sens, ajoute M. Harrison : plutôt que réduire les caractéristiques musicales à un réseau, il sera intéressant de savoir comment les caractéristiques du réseau se traduisent par des éléments qu'un musicien reconnaîtrait.

Un musicien dira : " Quelles sont les règles musicales réelles, ou les caractéristiques musicales, qui en sont à l’origine ? Puis-je l’entendre sur un piano ? " précise Harrison.

Enfin, on ne sait pas encore exactement comment les modèles de réseaux identifiés dans la nouvelle étude se traduisent dans l'expérience vécue à l'écoute d'un morceau de Bach - ou de n'importe quelle musique, précise M. Pearce. La résolution de ce problème relèvera de la psychologie musicale, poursuit-il. Des expériences pourraient révéler "si, de fait, ce genre de choses est perceptible par les gens et quels sont leurs effets sur le plaisir que les gens éprouvent lorsqu'ils écoutent de la musique". De même Harrison se dit intéressé par des expériences visant à vérifier si les types d'erreurs d'apprentissage en réseau que les chercheurs ont modélisés dans cette étude sont réellement importants pour l'apprentissage de la musique.

"Le fait que les humains présentent ce type de perception imparfaite et biaisée de systèmes informationnels complexes est essentiel pour comprendre comment nous nous impliquons dans la musique", explique M. Bassett. "Comprendre la complexité informationnelle des compositions de Bach ouvre de nouvelles questions sur les processus cognitifs qui sous-tendent la manière dont nous apprécions les différents types de musique."

Auteur: Internet

Info: https://www.scientificamerican.com, 16 féb 2024. Elise Cutts - Secret Mathematical Patterns Revealed in Bach's Music

[ sentiment naturel ] [ approfondissement découverte ] [ dépaysement plaisir ] [ cybernétisation ] [ simple compliqué ] [ occulte harmonie ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel