Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 689
Temps de recherche: 0.0472s

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

femmes-hommes

L'érotisme masculin dans la Rome antique
- Existait-il une pornographie romaine ? Je pense notamment aux mosaïques de Pompéi, dont on dit qu'elles servaient à exciter les clients et à annoncer les spécialités des prostituées...
- Ces types de piécettes et de tableaux érotiques sont destinés à être représentés dans les lupanars, parce que ce sont les lieux de déversement du plaisir. La vie des Romains est très compartimentée. Qu'il existe de la pornographie à Rome, oui, mais destinée à qui et quand ? On ne peut pas imaginer un homme romain parler de guerre et, d'un seul coup, se mettre à parler de sexe. Les espaces sont bien déterminés. Un Romain partage ses journées en deux : le matin, il consacre son temps à sa vie de citoyen soldat ; ensuite, vers midi, il passe aux thermes. Ils sont nécessaires, comme un sas de transition entre le sérieux du matin et l'espace restreint qui est celui du banquet de l'après-midi.
- Dans votre livre, vous insistez sur notre vision faussée du sexe dans la Rome antique...
- Oui, on a par exemple souvent dit que les Romains pratiquaient déjà l'homosexualité dans l'Antiquité. Il y a eu une quête d'un modèle prestigieux, pour mieux lutter contre les discriminations actuelles.
Seulement, je mets au défi quiconque de me traduire en grec ou en latin le mot homosexuel, et même le mot hétérosexuel, et même le mot sexuel tout court. S'il n'y a pas ces mots, c'est qu'il n y a pas de pratiques sexuelles équivalentes.
Ce qu'on appelle la sexualité aujourd'hui est un concept issu de la psychanalyse. C'est une construction globale intérieure, qui englobe le rapport aux parents, à son milieu social, au premier rapport. C'est un anachronisme de vouloir exporter ce modèle issu de la bourgeoisie capitaliste dans la Rome antique.
Cela ne veut pas dire que les Romains et les Grecs ne connaissent pas la volupté, mais elle est complètement différente de ce que nous appelons la sexualité.
- Il y a aussi tous ces mythes qui circulent autour de la pédérastie...
Ah, le fameux sujet de la pédérastie... Il faut d'abord redire ce que c'est. Dans le monde grec, les individus ont besoin d'un passage du monde enfant. C'est un moment d'initiation. Mais comme dans toutes les cultures d'ailleurs, aujourd'hui, ce serait juste plutôt le permis de conduire, la première relation sexuelle ou ce genre d'événements.
Chez les Grecs, les choses se passent de la manière suivante : un adulte libre de 25 ans - ce qui exclut les esclaves et les femmes - enlève publiquement le fils de son voisin âgé de 16 ans. Ce n'est pas un moment triste, il y a d'ailleurs une fête avec des guirlandes, des costumes particuliers, etc.
Ce serait une insulte publique que le jeune ne soit pas l'objet du désir d'un autre. et le père du jeune incite même à cet enlèvement en disant : " Hé, dépêche-toi d'enlever mon fils ! Il est pas beau, mon fils ? "
Ensuite, le jeune homme et son " kidnappeur " vont dans la brousse, un peu comme dans certaines tribus et il y a ensuite un rite de pénétration : le plus vieux sodomise le plus jeune.
Mais alors seulement, le couple revient à la ville. Le sens de ce voyage, c'est d'arracher publiquement le fils à son cercle familial. Ce rituel d'intégration sert dans la construction culturelle des Grecs à faire éprouver le féminin et le campagnard au jeune avant qu'il n'y renonce à jamais, puisqu'il sera ensuite un jeune masculin dans une société civique. Mais il n y a aucun désir dans cette affaire, cette construction est une obligation et elle est sociale.
- Et à Rome ?
- La pédérastie est grecque. Les Romains n'ont jamais voulu transposer à Rome ce modèle. Les Romains l'admettent, ils appellent ça l'amour à la grecque mais pour eux, c'est un exotisme. A Rome, c'est le père qui initie son fils à l'âge adulte, mais l'inceste est un interdit total. Il n y a donc pas de sexe dans ce rapport.
- Comment les Romains conçoivent-ils le plaisir ?
- D'abord, il faut préciser qu'un individu libre (femme ou homme) ne peut pas avoir de rapport de volupté, c'est un corps qui n'est pas pénétrable, c'est un corps fermé. C'est un corps interdit au désir. Cela ne veut pas dire que les Romains ne connaissent pas la volupté, mais elle est complètement différente de ce que nous appelons la sexualité. Le plaisir, ce n'est pas non plus à travers le pénis ou l'anus que l'homme va le trouver, parce que c'est un contact avec l'intérieur du corps. Or l'intérieur du corps, c'est des glaires, c'est visqueux. Ce ne sont que des " humeurs ". On est plus en contact avec ce qui fait la beauté décente du corps : la peau. Car le plaisir des Romains se trouve dans le baiser sur la peau. Encore mieux que ça, le baiser autour de la bouche. C'est l'échange de souffle qui est recherché. Les Romains n'estiment pas que le comble du plaisir, c'est l'éjaculation. Le comble du délice, à Rome, et pour un Romain, c'est le baiser. Le souffle, c'est l'éternité de la chaleur, la douceur, la chasteté et de la bonne haleine. Ce n'est pas une jouissance spermatique, c'est la jouissance pneumatique.
- Avec qui alors, ces baisers ?
- Toujours avec des hommes et des esclaves, puisque les hommes libres sont interdits d'être désirés ! Tout se déroule pendant les banquets de l'après-midi. Là, on amollit le corps rigide du sérieux du matin. Et pendant le banquet, on ne mange pas parce qu'on a faim. On mange pour être ensemble. L'esclave arrive, il distribue la nourriture, vient ensuite la volupté mais, il n y a aucune pénétration. Le plaisir est d'abord dans les regards. Ensuite, le citoyen choisit un esclave et c'est à ce moment que commencent les baisers.
- Mais que se passe-t-il alors dans le lit conjugal ?
- Les gynécologues intitulent ce rapport " le déversement spermatique ". En gros, il pleut ! La femme s'allonge et elle attend que ça se passe. L'homme s'allonge sur elle, il déverse son sperme et il fait des enfants. Mais ce n'est pas une pratique de plaisir, c'est une pratique civique : il s'agit de faire des citoyens. On sait très bien d'ailleurs que ça ennuie : on éteint la lumière, on ferme les rideaux, ça dure très peu de temps et tout le monde dit que c'est une corvée, que ça donne mal au dos, que ça donne des boutons.
- Qu'est-ce qui n'est pas valorisé à Rome ?
- "Coucher" ! L'homme libre c'est un citoyen qui fait de la politique et un soldat qui fait la guerre, et c'est tout. Dans nos sociétés, un homme qui couche beaucoup, on dit que c'est un tombeur. A Rome, une des particularités de la vie c'est qu'on va dénoncer son adversaire politique en disant : "Il couche" On dit par exemple de César sur le forum quand on veut l'attaquer qu'il est "le mari de toutes les femmes" et donc "la femme de tous les maris. Dévaloriser le corps, c'est prouver que le citoyen n'est pas capable d'être un homme politique de qualité, d'être un citoyen soldat.
- Il y a des insultes ?
- Oui, une insulte permanente, c'est de dire "Ce type a une grosse bite" ou "Toi, c'est bien connu : tu reçois des mecs qui ont des grosses bites." A Rome, l'énormité du pénis, c'est terrible, c'est une dévalorisation, parce que c'est un corps disproportionné. On remarque d'ailleurs que sur les statues romaines, il n'y a toujours que de tous petits zizis. Ensuite, la plus grave des insultes, ce n'est pas de dire de quelqu'un qui est sodomisé - même si ça peut être une insulte -, le pire, c'est de dire "Il aime sucer". Il faut revenir pour comprendre à l'origine du mot fellation. Il vient de "fello, fellare" qui signifie "téter". Lorsque la nourrice voit le bébé dont elle a la charge pleurer, elle le met au sein, il " fellat ". Mais elle le fait pour l'empêcher de parler, de pleurer. Or, si quelqu'un fait une fellation, de la même manière, il ne peut plus parler et un Romain, c'est un citoyen qui parle.
- Et les femmes dans tout ça ?
- Une femme " libre " n'a pas de plaisir. Elle est éduquée à ne pas en avoir. La nourrice doit apprendre à la petite fille à ignorer le plaisir de son corps. Une femme romaine est destinée à reproduire. D'ailleurs un des synonymes de femme libre à Rome, c'est "le ventre". C'est bien pour ça qu'il ne faudrait pas revenir à la Rome antique. A tel point que si un homme libre prend trop de plaisir avec son épouse, la femme va se plaindre à son beau-père de cette situation et le père vient engueuler le mari. Il y a des procès très connus d'hommes qui sont traînés au tribunal parce qu'ils sont "uxoriosis" : ils aiment trop le corps de leurs femmes. Les gens disent : "Mais si vous avez envie de vous vider les couilles, allez donc au lupanar !"
- Ce n'est pas infamant d'aller au lupanar ?
- Non ! Le lupanar sert à réguler le déversement du sperme et des humeurs. Il y a une anecdote très connue. Caton l'ancien, un citoyen romain très austère, voit un jour un jeune homme hésiter à rentrer dans un lupanar. Il y en a partout à Rome. Il dit au jeune : "Mais si, si, vas-y ! Il faut que tu y ailles parce que c'est la preuve que tu n'auras pas de comportements indécents avec ton épouse." En revanche, le même Caton, le lendemain, voit le même jeune homme devant la porte du lupanar. Il lui dit : "Y aller une fois oui, mais deux jours de suite, c'est trop !" Ce qui est infamant, c'est d'y aller trop. Il faut se réguler. Dans le lupanar, on va voir des prostitué(e)s hommes ou femmes. Le sexe du ou de la prostituée, on s'en fiche. On vient voir un esclave, et l'important, c'est de ne pas se vider avec son épouse parce qu'alors, on la considérerait comme une esclave.
- En fait, on est hyper loin de tout ce qu'on a pu voir au cinéma...
- C'est justement l'intérêt de voir ces films comme "Gladiator" ou ce genre de péplums. C'est d'en apprendre plus sur notre culture contemporaine ! Mais c'est très bien. Si on veut faire de l'Histoire romaine, on fait des livres d'histoire.

Auteur: Eloi Thierry

Info: interviewé par Renée Greusard de Rue89

[ historique ]

 

Commentaires: 0

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exo-contact

Rice News : - Comment un professeur des religions comparées devient-il un expert des OVNIs ? 

JK : - Eh bien, personne n'est expert de ceci. Personne. C'est la première chose à savoir. Pour ma part, je réfléchis et écris sur le phénomène OVNI depuis 2004 environ. J'y ai d'abord été confronté parce que j'y étais obligé :  on le retrouvait tout simplement partout dans les sources historiques et ethnographiques avec lesquelles je travaillais pour une grande histoire des courants spirituels alternatifs dans la contre-culture californienne que j'écrivais à l'époque. Mes propres intérêts ont définitivement commencé là, à l'Institut Esalen.

Les gens supposaient alors couramment que le phénomène OVNI n'était pas sérieux ou qu'il s'agissait d'une sorte de truc "californien". Mais ce n'est tout simplement pas vrai, et ne l'a jamais été. Certaines des rencontres modernes les plus documentées et les plus spectaculaires ont eu lieu autour de sites militaires nucléaires et dans des cultures et des lieux comme le Brésil, la France, le Nouveau-Mexique - au cours de l'été 1945, à quelques kilomètres du site de la bombe atomique Trinity récemment irradiée et une semaine seulement après les bombardements d'Hiroshima et de Nagasaki - et la Nouvelle-Angleterre. Plus récemment on peut voir un grand mélange quant à l'appréciation de cette problématique : par exemple les militant des droits civiques, rien que ça. L'armée et les services de renseignement américains, son exploration spatiale aussi, le colonialisme occidental, les cosmologies indigènes américaines, avec une religion noire importante - la Nation of Islam. Les zones frontalières entre États-Unis et Mexique, l'Amérique latine, les relations américano-soviétiques et maintenant américano-russes, l'OTAN, les industries aérospatiales et aéronautiques, les courants ésotériques et mystiques occidentaux, la littérature de science-fiction et l'histoire des sciences ont tous été impliqués. Et ce n'est qu'un début.

Étudier convenablement le phénomène ovni, c'est en fait étudier à peu près tout. C'est aussi se heurter, durement, à la prise de conscience que l'ordre institutionnel ou universitaire de la connaissance dans lequel nous travaillons et pensons aujourd'hui - un ordre qui sépare effectivement les sciences des humanités - n'est tout simplement pas utile, et ne reflète certainement pas la réalité que nous essayons de comprendre. La difficile vérité est que le phénomène OVNI présente à la fois un aspect "matériel" objectif (pensez aux vidéos et photographies d'avions de chasse, aux prétendus méta-matériaux, aux méthodes de propulsion apparemment avancées et aux marques d'atterrissage) et un aspect "humain" subjectif (pensez aux rencontres rapprochées, aux observations visuelles multiples et coordonnées, aux états de conscience altérés, aux manifestations visionnaires, souvent de type baroque ou science-fictionnel, et aux enlèvements traumatiques ou transcendants vécus). Et les deux côtés - les dimensions matérielles et mentales - sont incroyablement importants pour avoir une idée de l'ensemble du tableau.

Bien sûr, on peut découper le phénomène ovni en deux catégories, "scientifique" et "humaniste", mais on ne le comprendra jamais en procédant ainsi. C'est, en fin de compte, la raison pour laquelle je pense que le sujet est si incroyablement important : il a le pouvoir particulier de défier, ou simplement d'effacer, notre ordre actuel de connaissance et ses divisions arbitraires. Quel que soit ce "ça", il ne se comporte tout simplement pas selon nos règles et hypothèses.  

RN : - Quelle est donc votre évaluation globale de ce nouveau rapport ?

JK : - Eh bien, j'ai un truc positif à dire, avec une forte critique. La chose positive est la suivante : La récente publication, ainsi que la fuite de la vidéo radar datant de décembre 2017 qui a été si efficacement rapportée dans le New York Times par mes collègues Leslie Kean, Ralph Blumenthal et Helene Cooper, a fondamentalement changé la conversation publique autour du sujet. Les chercheurs sérieux ne sont plus regardés avec autant de mépris, et les débunkers dogmatiques n'ont plus le dessus - si jamais ils l'ont vraiment eu.

En outre, et c'est tout aussi important, des gens de tous horizons qui se sont tus jusque-là, sortent maintenant de leur placard et prennent la parole. Pour ne prendre qu'un petit exemple, Miles O'Brien, le correspondant scientifique de PBS, a reconnu devant la caméra il y a quelques jours avoir été témoin d'un OVNI avec un comportement fondamentalement identique à celui des objets rapportés dans le document. Bref le point le plus fondamental de l'interview d'O'Brien est que la publication du gouvernement constitue une sorte de "tournant" dans la conversation publique. 

RN : - OK, quelle est la critique alors ?

JK : - La mauvaise nouvelle concerne la nature de cette "révélation " erratique et classifié de données - le refus du gouvernement de libérer la marchandise, pour ainsi dire, et de donner aux chercheurs sérieux un accès complet à toutes les données. Toutes les données. En procédant de la sorte, ils essaient essentiellement de contrôler le récit. Mon souci peut être résumé par cette sagesse populaire "si vous n'avez qu'un marteau, vous ne verrez que des clous". Dans ce contexte, vu que les données sont collectées par des professionnels de l'armée dont le but premier est de protéger l'État-nation contre les intrus ou les ennemis, le phénomène UAP ou OVNI est inévitablement présenté en termes de "menaces" potentielles. Je veux dire, mon Dieu, les vidéos que nous regardons ont été prises par les systèmes radar d'avions de chasse avancés conçus pour faire une seule chose : abattre un objet ennemi. Faut-il s'étonner que ces objets filmés soient présentés, littéralement et métaphoriquement, comme des menaces ?

RN : - Et sont-ils vraiment des menaces ? Nous n'en avons aucune idée.

JK : - Dans la culture populaire américaine, dans le cinéma et la science-fiction, ce que j'appelle la "mythologie de l'invasion de la guerre froide" a été dominante jusqu'à très récemment. Dans cette mythologie, l'OVNI est considéré comme une invasion "extraterrestre" qui doit être combattue ou à laquelle doivent résister les citoyens patriotes et craignant Dieu. Pensez, par exemple, au roman de 1898 de H.G. Wells "La guerre des mondes", une histoire d'invasion, soit dit en passant, inspirée par le colonialisme britannique. Ou, du côté américain, "Independence Day" en 1996. Ce n'est que récemment que les écrivains et les cinéastes ont commencé à s'éloigner de cette mythologie de l'invasion de la guerre froide pour s'orienter vers quelque chose de beaucoup plus positif, et franchement plus fidèle à ce que nous voyons réellement dans les cas de rencontre et de contact, si nous les étudions vraiment au lieu de simplement supposer des choses à leur sujet. Comme le récent film d'un réalisateur canadien, assez significatif en ce sens - "Arrival" sorti en 2016. 

Ce film frise la profondeur, car il tourne avec amour et contemplation autour de la transformation paranormale de son personnage central, une linguiste humaniste douée, le Dr Louise Banks. En effet, dans les faits historiques, les témoins humains sont souvent radicalement transformés par leurs rencontres, souvent de manière extrêmement positive, mais aussi difficile.

Ces rencontres, par exemple, peuvent être de nature profondément spirituelle, et je ne veux pas dire "bonnes" ou "agréables". Les gens éprouvent de la crainte, de la peur, de l'étrangeté et une terreur absolue ; le psychiatre de Harvard John Mack a appelé cela à juste titre "choc ontologique". Ils font l'expérience, soit pendant l'événement lui-même, soit plus tard, de nouvelles capacités étonnantes - pensez à la télépathie et, oui, à la précognition. Et ils adoptent de nouvelles visions du monde, beaucoup plus cosmiques.

Ainsi, dans le film, le Dr Louise Banks développe la capacité de précognition : Elle se "souvient" de la mort précoce et tragique de sa fille, pas encore née, alors qu'elle apprend progressivement que le temps, comme la grammaire de la langue extraterrestre qu'elle déchiffre, est circulaire et non linéaire. Cette idée de l'espace-temps est d'ailleurs bien connue des humanistes, de la philosophie grecque antique à Nietzsche.

Ce où je veux en venir ? Que nous devrions aborder le phénomène OVNI beaucoup plus comme "Arrival" et beaucoup moins comme "La Guerre des Mondes". Mais nous n'y arrivons pas. Au lieu de cela, nous parlons encore et encore de "menaces" potentielles et promulguons des mesures de sécurité et de secret sans fin. Et ensuite nous nous demandons pourquoi personne ne comprend cela ? En conséquence de ces actions, les témoins humains, leurs observations, leurs transformations et leurs traumatismes sont ignorés avec arrogance et dédaignés comme étant "anecdotiques" et donc indignes d'être étudiés.

J'avoue que je méprise l'aspect narquois de ce mot - anecdotique - et la façon dont il empêche une enquête complète. Toute expérience humaine, après tout, est techniquement "anecdotique". En ce sens, je suis moi aussi une "anecdote". Vous aussi. Nous le sommes tous. Et pourtant, il n'y a pas de science ou de mathématiques, pas de littérature, de langue, d'art ou de religion, et certainement pas d'OVNI, sans ce sujet humain, sans ce témoin anecdotique, ce penseur ou ce voyant. Alors pourquoi ne parlons-nous pas des expériences de ces témoins humains et de la façon dont ce phénomène semble déclencher ou catalyser l'imagination humaine de manière fantastique ? Pourquoi ne voyons-nous pas avec empathie ces drames, soi-disant imaginaires, comme des signes significatifs au lieu de les ignorer avec arrogance comme de l'écume neurologique ? Pourquoi ne parlons-nous pas de ce qu'il advient des pilotes terrifiés, des professionnels de l'armée désorientés, ou des citoyens confus qui voient ces choses, parfois de très près et de manière très personnelle ? Cela ne fait-il pas également partie du phénomène OVNI ? Pourquoi détournons-nous le regard ? Et de quoi ?

RN : - Ce serait le sujet d'une nouvelle conversation. Comment voulez-vous conclure ?

JK : On a jamais fini avec ça. J'aimerais conclure en mettant l'accent sur le fait que la pièce de technologie la plus sophistiquée sur terre pour détecter des présences non humaines ou surhumaines n'est pas un ordinateur quantique ou un système de radar militaire avancé. C'est le corps, le cerveau et l'être humain évolué. Je voudrais également suggérer que l'humain détecte d'étranges présences humanoïdes dans le ciel et l'environnement non pas depuis quelques années ou quelques décennies, mais depuis des millénaires. Tout ce que nous avons à faire est d'ouvrir nos yeux et regarder. Il suffit de ranger notre marteau et de regarder attentivement l'histoire, nos littératures et, surtout, nos religions.

Ainsi au sein de cette nouvelle grande toile humaniste et historique, ce que nous rencontrons dans le ciel et voyons du sol aujourd'hui, pourra prendre des significations fondamentalement nouvelles, et d'autres futurs potentiels. Je ne prétends pas savoir ce que cela impliquera - et ne crois certainement pas non plus aux mythologies régnantes, qu'elles soient politiques, séculaires ou religieuses - mais je parie qu'elles auront très peu à voir avec l'évaluation de ces "menaces". C'est la vieille mythologie de la guerre froide qu'il est temps de dépasser, et bien au-delà.

RN : Vous parlez de l'absence de toute limite.

JK : Oui. Il n'y en a aucune.

Auteur: Kripal Jeffrey

Info: Entretien avec Katharine Shilcut sur " how to think about the UFO phenomenon" http://news.rice.edu/ - June 30, 2021

[ US paranoïa ] [ rencontre du 3e type ]

 

Commentaires: 0

Ajouté à la BD par miguel

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

réfléchir

Pourquoi le slow thinking gagne

Être rapide, c'est travailler fort et être intelligent - de la réponse aux appels 24 heures sur 24 à la présence d'esprit la plus vive dans les réunions. La lenteur est pour les paresseux, les oisifs, voire les abrutis. Lorsque nous parlons de ralentir, nous entendons généralement qu'il faut y aller doucement, certainement pas être plus productif.

Tout le monde se souvient de l'histoire de la tortue et du lièvre, mais personne ne semble avoir appris la leçon qu'elle enseigne : La lenteur l'emporte.

Il s'avère que la fable a raison. La recherche suggère régulièrement que la pensée dite lente exige une pensée plus disciplinée et donne lieu à des décisions plus productives que les réactions rapides, qui sont moins précises ou moins utiles. Et la lenteur de la pensée - comme la tortue, lentement mais sûrement - fait son chemin par de nouvelles interventions dans des domaines aussi disparates que la justice pénale, le sport, l'éducation, l'investissement et les études militaires.

La maîtrise de cette dualité dans la nature humaine est au cœur du slow thinking. Son principal partisan, l'ancien psychologue de Princeton Daniel Kahneman, seul non-économiste à avoir reçu le prix Nobel d'économie, décrit ces impulsions contraires dans son livre "Thinking, Fast and Slow" de 2011. La plupart du temps, affirme Kahneman, les gens comptent sur la rapidité - mais c'est en fait la lenteur qui permet de prendre de meilleures décisions. "Shane Frederick, professeur à la Yale's School of Management et collaborateur fréquent de Kahneman, explique comment les gens peuvent aller au-delà de l'impulsion la plus évidente qu'ils ressentent d'abord".

La lenteur de la réflexion n'a rien de nouveau pour les amateurs de sport, grâce au best-seller de Michael Lewis en 2003, "Moneyball", qui explique comment le manager Billy Beane a transformé les Oakland Athletics à court d'argent en une équipe compétitive utilisant l'analyse de données. Et après que l'approche délibérée de Beane ait révolutionné le baseball, les chercheurs et les réformateurs sont confiants dans le fait que le même genre de résultats peut être observé lorsque le concept est appliqué à des problèmes sociaux majeurs, comme la violence chronique ou les taux élevés de décrochage chez les élèves du secondaire.

Une nouvelle étude menée par des chercheurs de l'Université de Chicago, de Harvard, Northwestern et de l'Université de Pennsylvanie a révélé que le slow thinking pour les jeunes hommes vivant dans les quartiers les plus touchés par les gangs de Chicago réduisent leurs chances de participer à la criminalité et améliorent leurs résultats scolaires jusqu'à 44 %.

Le programme Becoming a Man du "Chicago nonprofit Youth Guidance's Becoming" a réalisé les deux tiers des interventions cognitives recensées dans l'étude, ainsi que celles qui étaient statistiquement les plus efficaces.

La Maison-Blanche a récemment donné 10 millions de dollars à la ville de Chicago, en partie pour étendre et étudier Becoming a Man, qui dessert environ 2 000 élèves dans près de 40 écoles publiques. Le programme, lancé en 2004, cible les jeunes garçons de la 7e à la 12e année qui ont été signalés par les enseignants et les conseillers comme ayant de mauvais résultats scolaires et à risque d'être victimes de gangs.

La violence qui s'empare de la ville est un problème qu'il est temps de repenser radicalement : Il y a eu plus de 200 meurtres cette année et plus de 1 269 fusillades.

À l'école secondaire Bronzeville Scholastic Institute High School, dans le South Side de Chicago, Adeeb Odeh, conseiller en orientation, a récemment lancé à ses élèves un défi de fin d'année pour mettre en œuvre ce qu'ils ont appris lors de la dernière année. Depuis le début de l'année scolaire, ils ont effectués plusieurs étapes avec des exercices chronométrés visant à tester leur concentration et leur patience sous pression.

Dans un exercice, les élèves empilént 36 gobelets en plastique en pyramide en trois minutes. Ceux qui ont réussi ont gardé un rythme régulier jusqu'à la dernière coupe, tandis que la peur de la pression du temps a conduit les autres à se précipiter et à voir leurs pyramides s'effondrer. Un autre exercice exigeait que les élèves tirent à tour de rôle des lancers francs dans un panier de basket-ball tandis que d'autres les tentaient de les décourager activement en criant et en tenant des pancartes genre "Tu ne peux pas le faire" ou "Boo !"

"C'est comme une métaphore de la vie réelle, où il faut se concentrer en se distrayant ", dit Jannie Kirby, porte-parole de l'orientation des jeunes.

Anuj Shah, professeur à l'Université de Chicago, coauteur de l'étude Becoming a Man, note que les étudiants du programme apprennent à penser lentement en prenant conscience de leurs impulsions réflexives dans des situations très variables.

"Très souvent, nous nous laissons emporter par l'instant présent " dit Shah. "Le principe fondamental [de la pensée lente,¨] est que nous avons des réactions automatiques qui dictent nos pensées, nos sentiments et notre comportement. Si tu peux comprendre ta pensée, tu peux comprendre comment elle affecte ton comportement."

Selon Shah, une astuce pour prendre conscience de ces tendances automatiques, qu'il s'agisse de colère ou de précipitation dans les postulats, est de prendre un moment et de s'imaginer sortir de la situation qui se présente. "Mettez la décision dans son contexte. Pensez à ce qu'une caméra verrait et ce qu'un tiers neutre verrait."

Faire ses devoirs, c'est-à-dire raisonner étape par étape à travers un problème, dit Frederick, est l'essence même du slow thinking. "c'est étonnant de constater à quel point les opinions ont tendance à s'adoucir rapidement lorsqu'il y a des données à portée de main ", dit-il. "C'est le moyen parfait d'échapper à vos préjugés. Quel que soit votre parti pris, ça n'a pas d'importance - mettez les chiffres et cela neutralise efficacement tout parti pris que vous pourriez avoir."

Frederick est peut-être mieux connu pour avoir créé le "Test de Réflexion Cognitive", une mesure simple pour savoir si une personne résout un problème "rapidement avec peu de délibération consciente" ou par la réflexion et la pensée lente. Kahneman inclut le test dans son livre.

Il a trois questions :

1) Une batte et une balle coûtent 1,10 $. La batte coûte 1,00 $ de plus que la balle. Combien coûte la balle ? ____ cents

2) S'il faut à cinq machines cinq minutes pour faire cinq gadgets, combien de temps faudrat-il à 100 machines pour faire 100 gadgets ? ____ minutes

3) Dans un lac, il y a une plaque de nénuphars. Chaque jour, le champ double de taille. S'il faut 48 jours pour que la plaque couvre tout le lac, combien de temps faudra-t-il pour que la plaque couvre la moitié du lac ? ____ jours

Ce qui rend ces questions par ailleurs simples si délicates, c'est qu'elles sont conçues pour attirer l'intuition humaine vers des mauvaises réponses spécifiques. Sur les 3 428 personnes interrogées par Frederick dans le cadre de son étude, 33 % ont raté les trois questions et 83 % ont raté au moins une des questions. Parmi les diverses universités auprès desquelles Frederick a recueilli des données, c'est au MIT que le pourcentage d'étudiants ayant répondu correctement à toutes les questions était le plus élevé - seulement 48 pour cent.

Frederick précise que les répondants ont donné les réponses intuitives, incorrectes, suivantes : 1) 10 cents*, 2) 100 minutes et 3) 24 jours. La bonne réponse à la première question est 5 cents. La bonne réponse à la deuxième question est cinq minutes. La bonne réponse au troisième problème est 47 jours.

Frederick partage souvent ce test lors de conférences pour des entreprises intéressées par sa recherche - et la plupart des gens donnent encore des réponses intuitives, mais erronées. "Votre intuition n'est pas aussi bonne que vous le pensez," dit-il. "Je pense que le test ébranle la confiance, et que cela seul peut les amener à passer plus de temps et à voir les choses sous un angle nouveau."

Les avantages de la lenteur de la pensée ne sont pas universellement acceptés. Dans son livre de 2005, Malcolm Gladwell, auteur de Blink, affirme que les meilleurs décideurs ne sont pas ceux qui traitent le plus, mais ceux qui prennent les décisions rapidement.

Frederick rétorque que la lenteur de la pensée est encore utile dans les situations d'urgence et qu'elle sera toujours plus importante que la vitesse, en ce sens qu'elle permet de vérifier constamment notre intuition faillible. "Stop, drop, and roll", ("Arrête, lâche et bouge.") par exemple, est enseigné aux enfants dès leur plus jeune âge pour les former à la sécurité incendie, mais ces étapes spécifiques ne sont pas nécessairement intuitives. La RCR n'est pas non plus vraiment intuitive et exige du raisonnement.

Dan Kahan, un professeur de droit de Yale qui étudie également la cognition, suggère que Gladwell et ses partisans lents pourraient avoir raison. Il croit que la rapidité et la lenteur sont également bénéfiques et imparfaites, les qualifiant de "non pas discrètes et hiérarchiques, mais réciproques et intégrées".

Mais Kahan n'est pas d'accord avec Frederick sur la question de savoir si les préjugés peuvent être complètement éliminés par le slow thinking - ou par toute autre méthode. "Nos préjugés ne sont presque jamais ouverts à l'observation, a dit M. Kahan. "Vous pouvez être patient mais toujours partial."

Kahan va jusqu'à affirmer que, dans certains cas, penser plus longtemps et plus intensément ne peut que servir à renforcer ses préjugés. Le danger, c'est quand les gens ne peuvent pas identifier ce qui est le produit de la lenteur de la pensée et ce qui est le produit de la rapidité. Comme l'a dit Kahan, "Les gens ne manquent jamais de preuves de leur côté."

Néanmoins, le slow thinking se répand lentement. Dan Lovallo, professeur à l'Université de Sydney et chercheur principal à l'Université de Californie à Berkeley, a récemment utilisé ses propres recherches pour démontrer dans un rapport McKinsey Quarterly que les chefs d'entreprise et les investisseurs auront plus de succès s'ils réfléchissent lentement et stratégiquement, en s'en remettant aux analyses et aux modèles commerciaux pour surmonter les biais humains qui sont " bien ficelés et qui ne répondent pas à leurs besoins ". Les préjugés utilisent le "raisonnement associatif plutôt que le raisonnement logique", a déclaré M. Lovallo dans un courriel. "La meilleure façon de surmonter les préjugés est de former une catégorie de référence pour des situations similaires. Cela change la discussion et peut être utilisé pour prévoir."

La pensée lente s'est également infiltrée dans les programmes de MBA militaires, qui utilisent le Cognitive Reflection Test de Frederick dans leur programme d'études. Une revue de la Central Intelligence Agency sur le site Web de l'organisation qualifie le livre de Kahneman de "must read" pour les agents de renseignement.

Pour l'instant, les élèves du Bronzeville Scholastic de Chicago apprennent à appliquer la pensée lente à des scénarios plus immédiats et moins complexes, comme ne pas se battre. Au défi de fin d'année, les élèves devaient se rappeler leur formation sur "'énergie guerrière et l'énergie sauvage", explique le conseiller Adeeb Odeh, la première étant l'énergie sage et contrôlée d'un penseur lent, la seconde étant l'énergie automatique et réactive d'un penseur rapide.

Odeh a vu cette idée transformer le comportement de ses élèves au cours de l'année scolaire : J'ai vu des élèves du programme dans le couloir qui éloignaient leurs camarades du début d'une bagarre, leur répétant et leur rappelant simplement : "Energie guerrière, énergie guerrière". ('Warrior energy, warrior energy.)

Auteur: Kadioglu Tara

Info: Boston Globe, 26 juillet 2015, *(Si la balle coûte 10 cents et que le bâton coûte 1,00 $ de plus que la balle, alors le bâton coûtera 1,10 $ pour un grand total de 1,20 $. La bonne réponse à ce problème est que la balle coûte 5 cents et la batte coûte - à un dollar de plus - 1,05 $ pour un grand total de 1,10 $.)

[ réfléchir avant d'agir ]

 
Commentaires: 5
Ajouté à la BD par miguel

capitalisme

Les élites ne nous sauveront pas
L’attaque, qui dure depuis quatre décennies contre nos institutions démocratiques par les grandes entreprises, les a laissé faibles et largement dysfonctionnelles. Ces institutions, qui ont renoncé à leur efficacité et à leur crédibilité pour servir les intérêts des entreprises, auraient dû être notre pare-feu. Au lieu de quoi, elles chancellent sous l’assaut.
Les syndicats sont une force du passé. La presse est transformée en industrie et suscite la méfiance. Les universités ont été purgées des chercheurs dissidents et indépendants qui critiquent le néolibéralisme et dénoncent la décomposition des institutions démocratiques et des partis politiques. La radio-télévision publique et les arts ne sont plus financés et sont laissés moribonds. Les tribunaux ont été noyautés par des juges dont la carrière juridique s’est passé à servir le pouvoir des grandes sociétés, une tendance dans les nominations qui s’est poursuivie sous Barack Obama. L’argent a remplacé le vote, ce qui explique comment quelqu’un d’aussi non qualifié comme Betsy DeVos peut s’acheter un siège dans un ministère. Le parti démocrate, plutôt que de rompre ses liens avec Wall Street et les grandes entreprises, attend naïvement en coulisse de profiter d’une débâcle de Trump.
"Le plus grand atout de Trump est un parti démocrate décadent, désemparé, narcissique, inféodé aux entreprises et belliciste, m’a dit Ralph Nader lorsque je l’ai joint au téléphone à Washington. Si la stratégie démocrate est d’attendre Godot, attendre que Trump implose, nous sommes en difficulté. Et tout ce que vous dites des démocrates, vous pouvez aussi le dire de l’AFL-CIO [le principal regroupement syndical américain, NdT]. Ils ne contrôlent pas le train."
La perte de crédibilité dans les institutions démocratiques a jeté le pays dans une crise tant existentielle qu’économique. Des dizaines de millions de gens ne font plus confiance aux tribunaux, aux universités et à la presse, qu’ils voient avec raison comme les organes des élites des grandes sociétés. Ces institutions sont traditionnellement les mécanismes par lesquels une société est capable de démasquer les mensonges des puissants, de critiquer les idéologies dominantes et de promouvoir la justice. Parce que les Américains ont été amèrement trahis par leurs institutions, le régime de Trump peut attaquer la presse comme le "parti d’opposition", menacer de couper le financement des universités, se moquer d’un juge fédéral comme d’un "soi-disant juge" et dénoncer une ordonnance d’un tribunal comme "scandaleuse".
La dégradation des institutions démocratiques est la condition préalable à la montée de régimes autoritaires ou fascistes. Cette dégradation a donné de la crédibilité à un menteur pathologique. L’administration Trump, selon un sondage de l’Emerson College, est considérée comme fiable par 49% des électeurs inscrits tandis que les médias ne sont tenus pour fiables que par 39% des électeurs inscrits. Une fois que les institutions démocratiques américaines ne fonctionnent plus, la réalité devient n’importe quelle absurdité que publie la Maison Blanche.
La plupart des règles de la démocratie ne sont pas écrites. Ces règles déterminent le comportement public et garantissent le respect des normes, des procédures et des institutions démocratiques. Le président Trump, à la grande joie de ses partisans, a rejeté cette étiquette politique et culturelle.
Hannah Arendt, dans Les origines du totalitarisme, notait que lorsque les institutions démocratiques s’effondrent, il est "plus facile d’accepter des propositions manifestement absurdes que les anciennes vérités qui sont devenues de pieuses banalités". Le bavardage des élites dirigeantes libérales ["progressistes", NdT] sur notre démocratie est lui-même une absurdité. "La vulgarité, avec son rejet cynique des normes respectées et des théories admises", écrit-elle, infecte le discours politique. Cette vulgarité est "confondue avec le courage et un nouveau style de vie".
"Il détruit un code de comportement après l’autre, dit Nader de Trump. Il est rendu si loin dans cette façon de faire sans en payer le prix. Il brise les normes de comportement – ce qu’il dit des femmes, la commercialisation de la Maison Blanche, "je suis la loi"."
Nader m’a dit qu’il ne pensait pas que le parti républicain se retournera contre Trump ou envisagera la destitution, à moins que sa présidence ne semble menacer ses chances de conserver le pouvoir aux élections de 2018. Nader voir le parti démocrate comme "trop décadent et incompétent" pour contester sérieusement Trump. L’espoir, dit-il, vient des nombreuses protestations qui ont été organisées dans les rues, devant les mairies par les membres du Congrès et sur des points chauds comme Standing Rock. Il peut aussi venir des 2.5 millions de fonctionnaires du gouvernement fédéral si un nombre significatif d’entre eux refuse de coopérer avec l’autoritarisme de Trump.
"Le nouveau président est tout à fait conscient du pouvoir détenu par les fonctionnaires civils, qui prêtent serment d’allégeance à la constitution des États-Unis, et non à un président ou à une administration", écrit Maria J. Stephan, co-auteure de Why Civil Resistance Works dans le Washington Post. "L’un des premiers actes de Trump en tant que président a été un gel général du recrutement fédéral qui touche tous les nouveaux postes et les postes existants exceptés ceux liés à l’armée, à la sécurité nationale et à la sécurité publique. Même avant l’investiture de Trump, la Chambre des représentants dominée par les Républicains a réinstauré une obscure règle de 1876 qui autoriserait le Congrès à réduire les salaires des employés fédéraux individuels. C’était un avertissement clair à ceux qui sont au service du gouvernement de garder le profil bas. Le licenciement très médiatisé par Trump du procureur général par intérim Sally Yates, qui a refusé de suivre l’interdiction d’immigration du président, a envoyé des ondes de choc dans la bureaucratie."
Un soulèvement populaire, soutenu à l’échelle nationale, d’obstruction et de non-coopération non violente est la seule arme qui reste pour sauver la république. Les élites répondront une fois qu’elles auront peur. Si nous ne leur faisons pas peur, nous échouerons.
"La résilience des institutions démocratiques a été encourageante – les tribunaux, les manifestations, dit Nader. Trump se retourne contre lui-même. Il outrage les gens dans tout le pays sur la base de la race, du genre, de la classe, de la géographie, de ses mensonges, ses fausses déclarations, son narcissisme, son manque de connaissances, sa désinvolture et son désir morbide de répondre aux insultes avec des tweets. Il n’est pas un autocrate intelligent. Il s’affaiblit chaque jour. Il permet à l’opposition d’avoir plus d’effet que d’ordinaire."
"La plupart des chefs d’État dictatoriaux s’occupent d’idéologies abstraites – la patrie et ainsi de suite, poursuit Nader. Il n’en fait pas beaucoup sur ce plan. Il attaque personnellement, vise bas sur l’échelle de la sensualité. Vous êtes un faux. Vous êtes un perdant. Vous êtes un escroc. Cela pique davantage les gens, en particulier lorsqu’il le fait en se basant sur le genre, la race et la religion. Donald Trump est ce qu’il y a de mieux pour le réveil démocratique."
Nader dit que Trump sera pourtant capable de consolider son pouvoir si nous subissons un nouvel attentat terroriste catastrophique ou s’il y a une débâcle financière. Les régimes dictatoriaux ont besoin d’une crise, qu’elle soit réelle ou fabriquée, pour justifier la suspension totale des libertés civiles et exercer un contrôle incontesté.
"S’il y a un attentat terroriste apatride sur les États-Unis, il est capable de concentrer une quantité de pouvoir dans la Maison Blanche contre les tribunaux et contre le Congrès, avertit Nader. Il fera des boucs émissaires de ceux qui s’opposent à lui. […] Cela affaiblira toute résistance et toute opposition."
La tension entre la Maison Blanche de Trump et des segments de l’establishment, y compris les tribunaux, la communauté du renseignement et le Département d’État, a été mal interprétée comme une preuve que les élites veulent éloigner Trump du pouvoir. Si les élites peuvent établir des relations avec le régime de Trump pour maximiser leurs profits et protéger leurs intérêts personnels et de classe, elles supporteront volontiers l’embarras d’avoir un démagogue dans le bureau ovale.
L’État des grandes entreprises, ou l’État profond, n’a pas non plus d’engagement à l’égard de la démocratie. Ses forces ont évidé les institutions démocratiques pour les rendre impuissantes. La différence entre le pouvoir des entreprises et le régime de Trump est que le pouvoir des entreprises a cherché à maintenir la fiction de la démocratie, y compris la déférence polie accordée en public aux institutions démocratiques. Trump a effacé cette déférence. Il a plongé le discours politique dans les égouts. Trump ne détruit pas les institutions démocratiques. Elles avaient été détruites avant qu’il entre en fonction.
Même les régimes fascistes les plus virulents ont construit des alliances fragiles avec les élites conservatrices et d’affaires traditionnelles, qui considéraient souvent les fascistes comme maladroits et grossiers.
"Nous n’avons jamais connu un régime fasciste idéologiquement pur", écrit Robert O. Paxton dans The Anatomy of Fascism. "En effet, la chose semble à peine possible. Chaque génération de chercheurs sur le fascisme a noté que les régimes reposaient sur une sorte de pacte ou d’alliance entre le parti fasciste et des forces conservatrices puissantes. Au début des années 1940, le réfugié social-démocrate Franz Neumann a soutenu dans son classique Behemoth qu’un ‘cartel’ formé du parti, de l’industrie, de l’armée et de la bureaucratie régnait sur l’Allemagne nazie, tenu ensemble uniquement par ‘le profit, le pouvoir, le prestige et, surtout, la peur’."
Les régimes fascistes et autoritaires sont gouvernés par de multiples centres de pouvoir qui sont souvent en concurrence les uns avec les autres et ouvertement antagonistes. Ces régimes, comme l’écrit Paxton, reproduisent le "principe du chef" de manière à ce qu’il "descende en cascade le long de la pyramide sociale et politique, créant une foule de petits Führer et Duce en état de guerre hobbesienne de tous contre tous."
Les petits Führer et Duce sont toujours des bouffons. Des démagogues aussi plastronnant ont consterné les élites libérales dans les années 1930. Le romancier allemand Thomas Mann a écrit dans son journal deux mois après l’arrivée des nazis au pouvoir qu’il avait assisté à une révolution "sans idées qui la fondaient, contre les idées, contre tout ce qui est plus noble, meilleur, décent, contre la liberté, la vérité et la justice". Il déplorait que la "lie commune" ait pris le pouvoir "accompagnée de la grande joie d’une bonne partie des masses". Les élites d’affaires en Allemagne n’ont peut-être pas aimé cette "lie", mais elles étaient disposées à travailler avec elle. Et nos élites d’affaires feront la même chose aujourd’hui.
Trump, un produit de la classe des milliardaires, conciliera ces intérêts privés, parallèlement à la machine de guerre, pour construire une alliance mutuellement acceptable. Les laquais au Congrès et dans les tribunaux, les marionnettes des grandes entreprises, seront, je m’y attends, pour la plupart dociles. Et si Trump est destitué, les forces réactionnaires qui cimentent l’autoritarisme en place trouveront un champion dans le vice-président Mike Pence, qui place fiévreusement des membres de la droite chrétienne dans tout le gouvernement fédéral.
"Pence est le président parfait pour les chefs républicains qui contrôlent le Congrès, dit Nader. Il est juste hors du casting principal. Il regarde la partie. Il parle de la partie. Il joue son rôle. Il a connu la partie. Ça ne les dérangerait pas si Trump quittait sa fonction subitement ou s’il devait démissionner. […]"
Nous sommes aux stades crépusculaires du coup d’État permanent des grandes entreprises entamé il y a quarante ans. Il ne nous reste pas grand-chose pour travailler. Nous ne pouvons pas faire confiance à nos élites. Nous devons nous mobiliser pour mener des actions de masse répétées et soutenues. Attendre que l’establishment décapite Trump et restaure la démocratie serait un suicide collectif.

Auteur: Hedges Chris

Info: 12 février 2017, Source Truthdig

[ Usa ] [ vingt-et-unième siècle ]

 

Commentaires: 0

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

annales

Les régimes institutionnels de la mémoire

On pourrait distinguer la reproduction biologique (un individu se reproduit en individus de la même espèce), l’élevage (on sélectionne par la reproduction un profil génétique donné), la domestication (les êtres humains éduquent des animaux, transmettant par le dressage pratiques et comportements) et enfin l’éducation où des individus d’une espèce enseignent à leurs progénitures leurs propres acquis. La domestication n’est pas l’éducation car ce ne sont pas les animaux qui dressent leurs petits, mais leurs maîtres.

La culture commence quand, au delà du patrimoine génétique, des contenus, pratiques et savoir faire sont transmis d’une génération à une autre. Autrement dit, quand il s’agit de passer de l’élevage à l’éducation, de la répétition des capacités propres à l’espèce à la transmission des contenus acquis.

Cela implique d’une part la prise de conscience d’un déjà-là constitué et d’autre part la mise en place d’outils et procédures pour l’entretenir et donc le transmettre. Il s’agit d’avoir des institutions du sens qui régissent, au niveau d’une société ou d’un collectif, les pratiques culturelles et les modalités de leur transmission.

À travers la notion d’institution, nous visons trois caractéristiques principales : la tradition qui sanctionne l’existence d’un déjà-là ("c’est ainsi que l’on a toujours fait"), une normalisation, qui ajuste et régule ses modalités d’expression selon certains critères ("c’est ainsi qu’il convient de faire"), une transmission qui assure une pérennisation de la tradition, de cet héritage reçu et donc à léguer ("c’est ce qu’il faut continuer de faire"). Les institutions du sens sont donc toujours traditionnelles et normatives, garantes de la culture comme acquis constitué et à transmettre. On retrouve ainsi les institutions scolaires, patrimoniales, culturelles, etc. De la langue qu’on apprend à maîtriser même quand elle est sa langue maternelle pour qu’elle devienne sa langue de culture et de réflexion [Judet & Wisman 2004], aux pratiques traditionnelles (cuisines, artisanat) en passant par les pratiques savantes, la culture est un déjà-là qui s’autonomise en tradition normée pour pouvoir être transmise. C’est le rôle et la mission des institutions du sens que d’accompagner la constitution de la tradition normée et d’en assurer la transmission.

La tension propre à ces institutions sera le conflit permanent entre d’une part la normalisation des contenus et d’autre part une transmission autorisant leur appropriation et transformation. Comment transformer sans trahir, comment transmettre sans figer, est la question que doit traiter toute institution du sens. Si la norme donne les conditions de la répétition et de la conservation du déjà-là, l’invention et l’appropriation seront les conditions pour que ce déjà-là reste accessible, signifiant, exploitable voire utile dans l’environnement contemporain. Une norme formelle et dogmatique rend le déjà-là sans intérêt, une appropriation dérégulée revient à une perte de mémoire et de sens.

Si les institutions du sens reposent en leur possibilité sur la constitution d’un déjà-là et sa reconnaissance comme tel, il en ressort qu’on en passe nécessairement par une institutionnalisation de la mémoire qui a pour fonction de fixer le périmètre du déjà-là, de définir les règles de son accroissement et de son enrichissement, et de proposer des modalités de sa consultation, partage et transmission. Les institutions de la mémoire seront donc des instances nécessaires à la reconnaissance d’un déjà-là constitué et à sa pérennisation.

Il y a plusieurs manières de mettre en place de telles institutions et d’en fixer les missions et les contours. Notre civilisation, au cours de son histoire longue, en distingue selon nous quatre modalités principales [Bachimont 2017] : la mémoire de la preuve (les archives), celle de l’œuvre (les bibliothèques et les musées), celle de l’information (les centres de documentation et de ressources) et enfin l’identité culturelle (le patrimoine).

Aussi anciennes que l’écriture elle-même, les archives [Delsalle 1998] sont avant tout une mémoire de l’événement, une trace de ce qui s’est passé, la permanence de cette dernière permettant de pallier l’évanescence de l’événement. L’archive possède une relation organique à ce dont elle est archive : causée par l’événement dont elle consigne la mémoire, l’archive est le signe, par son existence même, de l’événement et du fait qu’il a bien eu lieu. À travers une telle relation organique, on veut insister sur le fait que, même si l’archive est un document produit par des collectifs culturels, elle est néanmoins provoquée, produite quasi naturellement par l’événement qu’elle relate. Autrement dit, elle n’est pas altérée par un processus interprétatif qui viendrait se mettre en l’événement et sa trace. Pour reprendre la belle image de Marie-Anne Chabin [2000], "Les archives procèdent de l’activité de leur auteur comme les alluvions découlent du fleuve", comme si elles consistaient en un processus naturel.

Ainsi, plus tekmerion que semeion, indice que symbole ou icône *, même si en pratique, il faut bien en passer par l’interprétation et les conventions qui lui sont inhérentes, l’archive peut être la preuve que recherchent l’historien, le juge ou l’enquêteur. Mais, puisque l’événement produit le document, ce dernier ne peut être une preuve pleine et entière que si le seul moyen de produire le document qui deviendra l’archive est que l’événement se soit produit. Par exemple, l’acte notarié est ainsi conçu que la seule manière d’avoir un acte est que l’événement associé (une transaction par exemple) ait eu lieu. Sinon, c’est un faux, c’est-à-dire un document établi pour faire croire que l’événement a eu lieu. L’archive officielle est donc une preuve déductive (si on dispose de l’archive, alors l’événement a eu lieu), les autres ont plutôt une valeur abductive plutôt que déductive (si on dispose de l’archive, la cause la plus probable ou la plus simple est que l’événement ait eu lieu mais on en reste à une présomption). C’est la raison pour laquelle l’authenticité, au sens où le document est bien ce qu’il prétend être, est si fondamentale pour les archives. C’est en effet cette dernière qui permet de retracer le schéma causal qui a produit le document à rebours, en remontant à l’événement.

La seconde modalité ou institution de mémoire mobilise les traces du génie humain, autrement dit ce qui reflète les productions de l’esprit et de la culture. Il ne s’agit pas tant d’avoir des preuves de l’événement que de disposer des traces de ce qui a été pensé ou de ce qui fut créé. L’enjeu n’est pas de savoir ce qui s’est passé, mais de connaître comment cela a été pensé. Du monde comme événement (le fait relaté par un témoignage), on remonte à la culture comme monument (le témoignage comme fait). L’authenticité n’est plus ici gagée par le lien organique entre l’événement et le document, mais entre ce dernier et son auteur. L’authenticité reposera sur l’attribution de son auteur et la détermination du contexte de création pour pouvoir en déduire le sens qu’on peut lui conférer. Les institutions en charge des œuvres sont les bibliothèques, les musées, les conservatoires. L’enjeu n’est pas tant de connaître le passé pour lui-même, mais de se reposer sur les œuvres du passé pour appréhender une part des possibilités du génie humain, une province du sens et de l’être. Les œuvres du passé n’appartiennent pas à un passé révolu, mais au présent, un présent permanent et continuel car les œuvres, sitôt produites, restent un témoignage vivant qu’il est toujours temps et opportun de recevoir. Cela ne veut pas dire qu’il n’est pas important de prendre en compte leur historicité ni leur contexte originel, mais qu’en tant que créations humaines, il est toujours actuel et pertinent pour les êtres humains de les recevoir, accueillir et interpréter.

La troisième institution de la mémoire est celle du savoir, de la connaissance et de l’information. Ni preuve ni œuvre, l’information est le savoir anonyme, sans auteur, apportant la connaissance d’un fait, d’un procédé ou d’un raisonnement possibles. Information de personne, mais information pour tous, l’information prend sa valeur à partir de l’institution qui la produit, ou le processus qui la constitue. De l’information savante gagée par la publication scientifique et son système de relecture par les pairs, à l’information journalistique fondée sur une régulation spécifique, en passant par l’institution scolaire et ses programmes, l’information doit être produite par une institution qui lui sert de caution pour être reçue comme telle et valoir comme connaissance. On comprend qu’une telle notion d’information est le cœur même des activités relevant de ce qu’on a appelé par la suite "l’information scientifique et technique", et qu’elle se formalisa lors de la révolution industrielle [Briet 1951]. Une dimension spécifique de l’information, et faisant rupture avec les figures plus anciennes de l’archive et de la bibliothèque (les preuves et les œuvres), est l’indépendance ou plutôt l’indifférence au support. Peu importe que le document soit un article ou un livre, un journal ou une encyclopédie, numérique ou matériel, il n’importe que par l’information qu’il détient. Derrière cette indifférence se cache un présupposé selon lequel le contenant n’influe pas sur le contenu, que le support matériel ne conditionne pas l’intelligibilité de l’inscription consignée sur le support. Présupposé qu’il est facile de réfuter, aucun changement de support ne pouvant être neutre quant à l’intelligibilité du contenu [Bachimont 2010]. Mais on peut voir derrière ce présupposé, non une erreur quant à la réalité de la dépendance du contenu au contenant, mais l’intérêt exclusif pour un invariant sémantique commun aux différentes expressions rencontrées sur différents supports, où l’on s’intéresse au fait, par exemple, que l’eau bout à 100°, indépendamment de l’expression qui nous a permis d’en prendre connaissance.

Cette conception abstraite du support de l’information entraîne un intérêt exclusif à l’inscription comme expression, à sa grammaire et à son lexique. Privilégiant la forme sur la matière, l’information a un tropisme naturel vers la formalisation et la circulation : formalisation car il s’agit de contrôler l’information uniquement à partir de sa forme, indépendamment de son support ; circulation parce que cette indifférence au support permet en principe la migration d’un support à un autre sans altération de l’information. Cela aboutit fort logiquement aux initiatives comme le Web des données (ou Web sémantique) où le formalisme de l’expression assure les conditions de son interprétation et de sa circulation.

Enfin, le dernier régime est celui de l’identité culturelle ou celui du patrimoine. Ce régime est le plus indéterminé des quatre considérés ici dans la mesure où il mobilise le rapport fondamental à la mémoire et à la culture : il concerne tout objet permettant à un collectif d’accéder à une mémoire, à la mémoire de son identité collective. Le patrimoine est donc, pour utiliser le vocabulaire de Gilbert Simondon [2005], ce qui permet l’individuation d’une identité collective et la constitution d’objets comme vecteurs de cette dernière. Le patrimoine est donc un jeu triple entre des objets, des individus, et un collectif tissant ces derniers ensemble. Aussi tout objet peut-il, en principe, devenir patrimonial, les règles de l’individuation n’étant pas fixées a priori. On ne peut que constater a posteriori que tels ou tels objets "font patrimoine".

L’identité collective est un déjà-là revendiqué et assumé par le collectif. Il s’agit d’une mémoire reconnue comme étant la sienne et associée à un objet qui l’incarne et la porte. Mais la seule caractéristique de cet objet est qu’il est distingué dans sa capacité de porter un souvenir, d’incarner une mémoire, de véhiculer un sens partagé. En ce sens, l’objet patrimonial est un mnémophore, un porteur de mémoire, en plagiant le néologisme naguère proposé par Krzystof Pomian, le sémiophore [1996].

L’objet patrimonial, le mnémophore, ne s’oppose pas aux autres régimes de mémoire que nous avons distingués, mais les intègre comme des modalités possibles de sa déclinaison. En effet, les preuves, œuvres et informations sont porteuses de mémoire et permettent par leur entremise un rapport au passé.

Auteur: Bachimont Bruno

Info: https://journals.openedition.org/signata/2980. *CS Peirce (1978) Écrits sur le signe. Paris, Seuil.

[ conservatisme ] [ pré-mémétique ] [ damnatio memoriae ] [ diachronie ] [ sciences ] [ humaines tiercités ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel