Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 653
Temps de recherche: 0.0457s

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

humour

Toujours est-il que la chose m’est apparue d’importance et propre à me hausser d’un cran dans votre estime : vous concevrez que nul travail, cette récompense en vue, n’eût paru d’intérêt suffisant pour retarder la mise en graphie de cette méditation.

Le problème est cette fois, monsieur, celui de la couille. (J’aurais pu dire celui de la coquille, mais je cède au goût du sensationnel, vous voyez, c’est un faible bien inoffensif.) De fait, il s’agit d’un problème de conchyliorchidologie (ou d’orchido-conchyliologie, qui me paraît, si plus orthodoxe, moins expéditif ; donc, je garde le premier).

AXIOME  :  Retirez le Q de la coquille : vous avez la couille, et ceci constitue précisément une coquille.

Je laisse à cet axiome, monsieur, le soin de perforer lui-même, de son bec rotatif à insertions de patacarbure de wolfram, les épaisses membranes dont s’entoure, par mesure de prudence, votre entendement toujours actif. Et je vous assène, le souffle repris, ce corollaire fascinant :

Et ceci est vrai, que la coquille initiale soit une coquille de coquillage ou une coquille d’imprimerie, bien que la coquille obtenue en fin de réaction soit toujours (à moins de marée extrêmement violente) une coquille d’imprimerie en même temps qu’une couille imprimée.

Vous entrevoyez d’un coup, je suppose, les conséquences à peine croyables de cette découverte. La guerre est bien loin.

Partons d’une coquille de coquillage, acarde ou ampullacée, bitestacée ou bivalve, bullée, caniculée ou cataphractée, chambrée, cloisonnée, cucullée… mais je ne vois pas l’intérêt de recopier dans son entier le dictionnaire analogique de Boissière. Bref, partons d’une coquille. La suppression du Q entraîne presque immédiatement la mutation du minéral inerte en un organe vivant et générateur. Et dans le cas d’une coquille initiale d’imprimeur, le résultat est encore plus spectaculaire, car la coquille en question est essence et abstraction, concept, être de raison, noumène. Le Q ôté permet le passage de l’essence à l’existence non seulement existante mais excitable et susceptible de prolongements.

J’aime à croire que parvenu à ce point, vous allez poser votre beau front dans votre main pour imiter l’homme de Rodin – vous conviendrez en passant de la nécessité d’une adéquation des positions aux fonctions, et que vous n’auriez pas l’idée de déféquer à plat ventre sauf caprice. Et vous vous demanderez, monsieur, d’abord, quel est le phénomène qui se produit. Y a-t-il transfert ? Disparition ? Mise en minorité ? ou effacement derrière une partie plus importante, que le trout ? Qui sait ? Qui ? Mais moi, naturellement sans quoi je ne vous écrirais pas. Je ne suis pas de ces brutes malavisées qui soulèvent les problèmes et les laissent retomber sauvagement sur la gueule de leur prochain.

Tiens, pourtant, si, en voilà un autre qui me tracasse, et je vous le dis en passant, car le genre épistolaire permet plus de caprice et de primesaut que le genre oratoire ou dissertatif, lequel je ne me sens pas qualifié pour oser aborder ce jour. L’expression : mettre la dernière main n’implique-t-elle pas, selon vous, que l’une des deux mains – et laquelle – fut créée avant l’autre par le père Ubu ? La dernière main est souvent la droite ; mais d’aucuns sont-ils pas gauchers ? Ainsi, de la dextre ou de la senestre, laquelle est la plus âgée ? Gageons que ce problème va tenter madame de Valsenestre à qui, en passant, vous voudrez bien présenter mes hommages. Et revenons à nos roustons.

Eh bien, monsieur, pour résoudre le mystère de l’absence du Q, nous disposons d’un moyen fécond et qui permet généralement de noyer sans douleur la poiscaille en remplaçant un mystère que l’on ne pénètre point par un mystère plus mou, c’est-à-dire non mystérieux et par conséquent inoffensif. C’est la "comparaison", méthode pataphysique s’il en fût. A cet agent d’exécution puissant, nous donnerons l’outil qui lui manque, c’est-à-dire le terme de.

Le jargon russe en l’espèce, qui sera notre étalon.

Vous le savez, monsieur, et si vous ne le savez pas, vous n’aurez jamais la sottise de le dire en public, il fut procédé en Russie, n’y a pas si longtemps que nos auteurs ne puissent s’en souvenir, à une réforme dite alphabétique, bien qu’en russe, cela ne se prononce point si facilement. Je vous le concède, cette réforme est à l’origine de la mort de Lénine, de la canonisation de sainte Bernadette et de quelques modifications structurales spécifiquement slaves apportées à un Etat de structure d’ailleurs imprécise ; nous passerons sur les épiphénomènes mineurs pour n’en conserver que le plus important. La réforme en question supprimait trois des 36 lettres alors en usage là-bas : le ? ou ’fita, le ? ou ’izitsa et le ? ou is’kratkoï.. [...]

Mais d’ores et déjà, vous voyez comment on peut supprimer le Q : il suffit d’un décret.

La question est de savoir ce que l’on a fait des lettres supprimées. Ne parlons même pas de celles à qui l’on en a substitué d’autres. Le problème est singulièrement précis : Où a-t-on mis les is’kratkoï ?

Vous vous doutez déjà de la suite. Et vous voyez l’origine de certaines rumeurs se découvrir à vos yeux émerveillés d’enfant sage.

D’ailleurs, monsieur, peu importe. Peu importe que l’on ait, par le passé, mésusé des lettres ainsi frappées d’interdit. Sans vouloir faire planer le soupçon sur qui que ce soit, je sais bien où l’on risquerait d’en dénicher quelques muids.

L’expression "lettre morte" n’est pas née de l’écume de la mer du même nom, vous le savez, monsieur. Les vérités les plus désagréables finissent par transpirer, comme l’eau orange d’un chorizo pendu par les pieds ou la sueur délicate d’un fragment d’Emmenthal qui tourne au translucide. Et les cimetières de lettres sont monnaie courante (sans que l’on ait jamais songé à chronométrer cette dernière, ce qui paraît inexcusable en un siècle sportif et ne permet point d’en préciser la vitesse). Nous n’avons pas accoutumé, me direz-vous, de remettre en cause le passé : je sais, et vous savez, que tout y est à refaire. Mais à bien y regarder, on est forcé de constater que c’est sans aucune originalité qu’a été résolu, de notre vivant ou presque, cet ardu problème de l’élimination en masse. Et cela continue.

Avant que la merdecine ait eu l’idée de s’adjoindre des fi ! syciens et des chie-mistes (ou cague-brouillard, comme disent les Anglois), la peste apportait une ingénieuse solution. Et les destructions provoquées parmi la gent corbote et ratière par la chasse, vu l’absence de grenades et de rusées à tête chercheuse, n’étaient point telles que ces bestioles ne fussent à même de procéder hygiéniquement à l’enlèvement des charognes. Il restait les os, que l’on suçait et que l’on perçait pour jouer de la quenia, comme Gaston Leroux l’a soigneusement rapporté dans " L’Epouse du soleil ". Bref, le professeur Yersin imagina de foutre une canule au cul des poux, et vainquit la peste. Le cancer fait des progrès, mais il abêtit, et déprive le frappé du contact de ses semblables – ou plutôt de ses différents – si utile pourtant. Sur quoi l’Allemagne redécouvre le camp de concentration déjà utilisé avant et ailleurs (le premier qui l’a inventé, levez le doigt). Le principe était bon : c’est celui du couvent. Mais si l’on sait où ça mène, l’on se refuse à voir où cela pourrait mener.

Vous avez déjà compris qu’en ce moment, loin de m’égarer, j’arrive à la proposition ferme, concrète et positive. Vous avez vu que, loin de lamenter le révolu, je suggère simplement que l’on améliore. Vous sentez, avec votre grand nez, que si le sort des prisonniers d’autrefois m’indiffère, c’est que la " pataphysique va toujours de l’avant puisqu’elle est immobile dans le temps et que le temps, lui, est rétrograde par définition, puisque l’on nomme “ direct ” celui des aiguilles d’une montre. Et vous voyez que je suis en train de poser les bases du camp de concentration pataphysique, qui est celui de l’avenir.

Grosso modo, une Thélème. Mais une Thélème obligatoire. Une Thélème où tout serait libre, sauf la liberté. Il s’agit bien en l’espèce de cette exception exceptionnelle à laquelle se réfère Le Livre. Un lieu où l’on serait contraint de ne pas s’éloigner du bonheur. Outre que le rendement des divers travaux que l’on pourrait ainsi faire exécuter librement aux détenus serait excellent – mais sachez que cette considération économique n’a pas un instant pesé sur notre choix plus ni moins que son contraire – le camp de concentration paradisiaque satisferait la tendance religieuse profonde qui sommeille au cœur de tout un tas d’individus non satisfaits de leur vie terrestre – et vous concevez qu’un prisonnier a des raisons de ne pas l’être. Il s’y pourrait, naturellement, faire du vélocipède. Vous pensez bien. Je ne développe pas les mille avantages du projet : je me borne à vous dire que, me désintéressant totalement du sort des is’kratkoï, je propose, par la présente, à votre excellence d’accumuler les Q des coquilles dans les camps ainsi com-binés qui prendraient par exemple le nom de camps de cul-centration, et de récupérer outre les coquilles résultantes et régénérées, les bûmes créées de la sorte à partir de rien, ce qui est quelque chose.

Vous ne serez pas sans remarquer que la réaction qui s’établit est assez analogue à celle qui se produirait, selon eux, dans ces breeders autotrophes où se fabrique une espèce de plutonium. Vous prenez la coquille, lui retirez le Q que vous enfermez en liberté, vous obtenez la couille et une nouvelle coquille, et ainsi de suite jusqu’à neuf heures vingt, où un ange passe. Je passe à mon tour sur l’émission de rayons bêta concomitante, d’une part parce qu’elle n’a pas lieu, d’autre part parce que cela ne regarde personne. Que le Q fût en fin de compte bien traité m’importait avant tout, du point de vue moral et parce qu’il est séant de ne point porter atteinte, sauf si l’on se nomme le P. U., à l’intégrité de quelque être que ce soit, (excepté le militaire) vu qu’il peut pêcher à la ligne, boire de l’alcool et s’abonner au Chasseur français, ou les trois. Du moins, c’est une des choses que l’on peut dire, et comme elle diffère de tout ce que l’on pourrait dire d’autre, il me semble qu’elle a sa place ici.

Piste-scrotum 1. Cette lettre vous est personnellement destinée. Néanmoins, au cas où elle n’intéresserait aucun autre membre du Collège, il me paraîtrait urgent de la diffuser. Si vous en décidiez ainsi, il me serait à honneur que vous la fissiez coiffer d’un chapeau à la gloire de Stanislas Leczinski, roi polonais, inventeur de la lanterne sourde à éclairer pendant les tintamarres et autres espèces de révolutions, et dont je ne me sens pas force d’entreprendre la rédaction que j’estime trop au-dessus de mes indignes moyens.

Piste-scrotum 2. En passant, vous constaterez que le principe de la conservation de ce que vous voudrez en prend un vieux coup dans les tabourets.

Auteur: Vian Boris

Info: Lettre au Provéditeur-éditeur sur un problème quapital et quelques autres, 26 mars 1955, In les Cahiers du Collège de Pataphysique.

[ lapsus ]

 

Commentaires: 0

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

réfléchir

Pourquoi le slow thinking gagne

Être rapide, c'est travailler fort et être intelligent - de la réponse aux appels 24 heures sur 24 à la présence d'esprit la plus vive dans les réunions. La lenteur est pour les paresseux, les oisifs, voire les abrutis. Lorsque nous parlons de ralentir, nous entendons généralement qu'il faut y aller doucement, certainement pas être plus productif.

Tout le monde se souvient de l'histoire de la tortue et du lièvre, mais personne ne semble avoir appris la leçon qu'elle enseigne : La lenteur l'emporte.

Il s'avère que la fable a raison. La recherche suggère régulièrement que la pensée dite lente exige une pensée plus disciplinée et donne lieu à des décisions plus productives que les réactions rapides, qui sont moins précises ou moins utiles. Et la lenteur de la pensée - comme la tortue, lentement mais sûrement - fait son chemin par de nouvelles interventions dans des domaines aussi disparates que la justice pénale, le sport, l'éducation, l'investissement et les études militaires.

La maîtrise de cette dualité dans la nature humaine est au cœur du slow thinking. Son principal partisan, l'ancien psychologue de Princeton Daniel Kahneman, seul non-économiste à avoir reçu le prix Nobel d'économie, décrit ces impulsions contraires dans son livre "Thinking, Fast and Slow" de 2011. La plupart du temps, affirme Kahneman, les gens comptent sur la rapidité - mais c'est en fait la lenteur qui permet de prendre de meilleures décisions. "Shane Frederick, professeur à la Yale's School of Management et collaborateur fréquent de Kahneman, explique comment les gens peuvent aller au-delà de l'impulsion la plus évidente qu'ils ressentent d'abord".

La lenteur de la réflexion n'a rien de nouveau pour les amateurs de sport, grâce au best-seller de Michael Lewis en 2003, "Moneyball", qui explique comment le manager Billy Beane a transformé les Oakland Athletics à court d'argent en une équipe compétitive utilisant l'analyse de données. Et après que l'approche délibérée de Beane ait révolutionné le baseball, les chercheurs et les réformateurs sont confiants dans le fait que le même genre de résultats peut être observé lorsque le concept est appliqué à des problèmes sociaux majeurs, comme la violence chronique ou les taux élevés de décrochage chez les élèves du secondaire.

Une nouvelle étude menée par des chercheurs de l'Université de Chicago, de Harvard, Northwestern et de l'Université de Pennsylvanie a révélé que le slow thinking pour les jeunes hommes vivant dans les quartiers les plus touchés par les gangs de Chicago réduisent leurs chances de participer à la criminalité et améliorent leurs résultats scolaires jusqu'à 44 %.

Le programme Becoming a Man du "Chicago nonprofit Youth Guidance's Becoming" a réalisé les deux tiers des interventions cognitives recensées dans l'étude, ainsi que celles qui étaient statistiquement les plus efficaces.

La Maison-Blanche a récemment donné 10 millions de dollars à la ville de Chicago, en partie pour étendre et étudier Becoming a Man, qui dessert environ 2 000 élèves dans près de 40 écoles publiques. Le programme, lancé en 2004, cible les jeunes garçons de la 7e à la 12e année qui ont été signalés par les enseignants et les conseillers comme ayant de mauvais résultats scolaires et à risque d'être victimes de gangs.

La violence qui s'empare de la ville est un problème qu'il est temps de repenser radicalement : Il y a eu plus de 200 meurtres cette année et plus de 1 269 fusillades.

À l'école secondaire Bronzeville Scholastic Institute High School, dans le South Side de Chicago, Adeeb Odeh, conseiller en orientation, a récemment lancé à ses élèves un défi de fin d'année pour mettre en œuvre ce qu'ils ont appris lors de la dernière année. Depuis le début de l'année scolaire, ils ont effectués plusieurs étapes avec des exercices chronométrés visant à tester leur concentration et leur patience sous pression.

Dans un exercice, les élèves empilént 36 gobelets en plastique en pyramide en trois minutes. Ceux qui ont réussi ont gardé un rythme régulier jusqu'à la dernière coupe, tandis que la peur de la pression du temps a conduit les autres à se précipiter et à voir leurs pyramides s'effondrer. Un autre exercice exigeait que les élèves tirent à tour de rôle des lancers francs dans un panier de basket-ball tandis que d'autres les tentaient de les décourager activement en criant et en tenant des pancartes genre "Tu ne peux pas le faire" ou "Boo !"

"C'est comme une métaphore de la vie réelle, où il faut se concentrer en se distrayant ", dit Jannie Kirby, porte-parole de l'orientation des jeunes.

Anuj Shah, professeur à l'Université de Chicago, coauteur de l'étude Becoming a Man, note que les étudiants du programme apprennent à penser lentement en prenant conscience de leurs impulsions réflexives dans des situations très variables.

"Très souvent, nous nous laissons emporter par l'instant présent " dit Shah. "Le principe fondamental [de la pensée lente,¨] est que nous avons des réactions automatiques qui dictent nos pensées, nos sentiments et notre comportement. Si tu peux comprendre ta pensée, tu peux comprendre comment elle affecte ton comportement."

Selon Shah, une astuce pour prendre conscience de ces tendances automatiques, qu'il s'agisse de colère ou de précipitation dans les postulats, est de prendre un moment et de s'imaginer sortir de la situation qui se présente. "Mettez la décision dans son contexte. Pensez à ce qu'une caméra verrait et ce qu'un tiers neutre verrait."

Faire ses devoirs, c'est-à-dire raisonner étape par étape à travers un problème, dit Frederick, est l'essence même du slow thinking. "c'est étonnant de constater à quel point les opinions ont tendance à s'adoucir rapidement lorsqu'il y a des données à portée de main ", dit-il. "C'est le moyen parfait d'échapper à vos préjugés. Quel que soit votre parti pris, ça n'a pas d'importance - mettez les chiffres et cela neutralise efficacement tout parti pris que vous pourriez avoir."

Frederick est peut-être mieux connu pour avoir créé le "Test de Réflexion Cognitive", une mesure simple pour savoir si une personne résout un problème "rapidement avec peu de délibération consciente" ou par la réflexion et la pensée lente. Kahneman inclut le test dans son livre.

Il a trois questions :

1) Une batte et une balle coûtent 1,10 $. La batte coûte 1,00 $ de plus que la balle. Combien coûte la balle ? ____ cents

2) S'il faut à cinq machines cinq minutes pour faire cinq gadgets, combien de temps faudrat-il à 100 machines pour faire 100 gadgets ? ____ minutes

3) Dans un lac, il y a une plaque de nénuphars. Chaque jour, le champ double de taille. S'il faut 48 jours pour que la plaque couvre tout le lac, combien de temps faudra-t-il pour que la plaque couvre la moitié du lac ? ____ jours

Ce qui rend ces questions par ailleurs simples si délicates, c'est qu'elles sont conçues pour attirer l'intuition humaine vers des mauvaises réponses spécifiques. Sur les 3 428 personnes interrogées par Frederick dans le cadre de son étude, 33 % ont raté les trois questions et 83 % ont raté au moins une des questions. Parmi les diverses universités auprès desquelles Frederick a recueilli des données, c'est au MIT que le pourcentage d'étudiants ayant répondu correctement à toutes les questions était le plus élevé - seulement 48 pour cent.

Frederick précise que les répondants ont donné les réponses intuitives, incorrectes, suivantes : 1) 10 cents*, 2) 100 minutes et 3) 24 jours. La bonne réponse à la première question est 5 cents. La bonne réponse à la deuxième question est cinq minutes. La bonne réponse au troisième problème est 47 jours.

Frederick partage souvent ce test lors de conférences pour des entreprises intéressées par sa recherche - et la plupart des gens donnent encore des réponses intuitives, mais erronées. "Votre intuition n'est pas aussi bonne que vous le pensez," dit-il. "Je pense que le test ébranle la confiance, et que cela seul peut les amener à passer plus de temps et à voir les choses sous un angle nouveau."

Les avantages de la lenteur de la pensée ne sont pas universellement acceptés. Dans son livre de 2005, Malcolm Gladwell, auteur de Blink, affirme que les meilleurs décideurs ne sont pas ceux qui traitent le plus, mais ceux qui prennent les décisions rapidement.

Frederick rétorque que la lenteur de la pensée est encore utile dans les situations d'urgence et qu'elle sera toujours plus importante que la vitesse, en ce sens qu'elle permet de vérifier constamment notre intuition faillible. "Stop, drop, and roll", ("Arrête, lâche et bouge.") par exemple, est enseigné aux enfants dès leur plus jeune âge pour les former à la sécurité incendie, mais ces étapes spécifiques ne sont pas nécessairement intuitives. La RCR n'est pas non plus vraiment intuitive et exige du raisonnement.

Dan Kahan, un professeur de droit de Yale qui étudie également la cognition, suggère que Gladwell et ses partisans lents pourraient avoir raison. Il croit que la rapidité et la lenteur sont également bénéfiques et imparfaites, les qualifiant de "non pas discrètes et hiérarchiques, mais réciproques et intégrées".

Mais Kahan n'est pas d'accord avec Frederick sur la question de savoir si les préjugés peuvent être complètement éliminés par le slow thinking - ou par toute autre méthode. "Nos préjugés ne sont presque jamais ouverts à l'observation, a dit M. Kahan. "Vous pouvez être patient mais toujours partial."

Kahan va jusqu'à affirmer que, dans certains cas, penser plus longtemps et plus intensément ne peut que servir à renforcer ses préjugés. Le danger, c'est quand les gens ne peuvent pas identifier ce qui est le produit de la lenteur de la pensée et ce qui est le produit de la rapidité. Comme l'a dit Kahan, "Les gens ne manquent jamais de preuves de leur côté."

Néanmoins, le slow thinking se répand lentement. Dan Lovallo, professeur à l'Université de Sydney et chercheur principal à l'Université de Californie à Berkeley, a récemment utilisé ses propres recherches pour démontrer dans un rapport McKinsey Quarterly que les chefs d'entreprise et les investisseurs auront plus de succès s'ils réfléchissent lentement et stratégiquement, en s'en remettant aux analyses et aux modèles commerciaux pour surmonter les biais humains qui sont " bien ficelés et qui ne répondent pas à leurs besoins ". Les préjugés utilisent le "raisonnement associatif plutôt que le raisonnement logique", a déclaré M. Lovallo dans un courriel. "La meilleure façon de surmonter les préjugés est de former une catégorie de référence pour des situations similaires. Cela change la discussion et peut être utilisé pour prévoir."

La pensée lente s'est également infiltrée dans les programmes de MBA militaires, qui utilisent le Cognitive Reflection Test de Frederick dans leur programme d'études. Une revue de la Central Intelligence Agency sur le site Web de l'organisation qualifie le livre de Kahneman de "must read" pour les agents de renseignement.

Pour l'instant, les élèves du Bronzeville Scholastic de Chicago apprennent à appliquer la pensée lente à des scénarios plus immédiats et moins complexes, comme ne pas se battre. Au défi de fin d'année, les élèves devaient se rappeler leur formation sur "'énergie guerrière et l'énergie sauvage", explique le conseiller Adeeb Odeh, la première étant l'énergie sage et contrôlée d'un penseur lent, la seconde étant l'énergie automatique et réactive d'un penseur rapide.

Odeh a vu cette idée transformer le comportement de ses élèves au cours de l'année scolaire : J'ai vu des élèves du programme dans le couloir qui éloignaient leurs camarades du début d'une bagarre, leur répétant et leur rappelant simplement : "Energie guerrière, énergie guerrière". ('Warrior energy, warrior energy.)

Auteur: Kadioglu Tara

Info: Boston Globe, 26 juillet 2015, *(Si la balle coûte 10 cents et que le bâton coûte 1,00 $ de plus que la balle, alors le bâton coûtera 1,10 $ pour un grand total de 1,20 $. La bonne réponse à ce problème est que la balle coûte 5 cents et la batte coûte - à un dollar de plus - 1,05 $ pour un grand total de 1,10 $.)

[ réfléchir avant d'agir ]

 
Commentaires: 5
Ajouté à la BD par miguel

manipulation des masses

De l'hégémonie du dollar au réchauffement climatique : mondialisation, glyphosate et doctrine du consentement.

Depuis l'abandon des accords de Bretton Woods en 1971, il y a eu un changement tectonique continu en Occident. Qui s'est accéléré lorsque l'URSS a pris fin et a abouti à la " mondialisation néolibérale " que nous connaissons aujourd'hui.

Dans le même temps, une campagne sans précédent a été menée pour réinventer le consensus social en Occident. Une partie de cette stratégie consistant à amener les populations des pays occidentaux à se focaliser sur le "réchauffement climatique", l'"équité entre les sexes" et l'"antiracisme". Les effets dévastateurs et les injustices causés par le capitalisme mondialisé et le militarisme qui en découle restant largement inexprimé pour la masse des gens.

Tel est l'argument présenté par Denis Rancourt, chercheur à l'Ontario Civil Liberties Association, dans un nouveau rapport. M. Rancourt est un ancien professeur titulaire de physique à l'Université d'Ottawa au Canada et auteur de : "La géoéconomie et la géo-politique conduisent à des époques successives de mondialisation prédatrice et d'ingénierie sociale : Historical emergence of climate change, gender equity, and antiracism as state doctrines' (avril 2019)."

Dans ce rapport, Rancourt fait référence au livre de Michael Hudson de 1972 intitulé "Super Imperialism" : The Economic Strategy of American Empire" pour aider à expliquer le rôle clé du maintien de l'hégémonie du dollar et l'importance du pétrodollar dans la domination mondiale des États-Unis. Outre l'importance du pétrole, M. Rancourt soutient que les États-Unis ont un intérêt existentiel à faire en sorte que les opioïdes soient commercialisés en dollars américains, un autre grand produit mondial. Ce qui explique en partie l'occupation américaine de l'Afghanistan. Il souligne également l'importance de l'agro-industrie et de l'industrie de l'armement américaines pour la réalisation des objectifs géostratégiques des États-Unis.

Depuis la chute de l'URSS en 1991, M. Rancourt indique que les campagnes de guerre américaines ont, entre autres, protégé le dollar américain de l'abandon, détruit des nations en quête de souveraineté contre la domination américaine, assuré le commerce de l'opium, renforcé leur contrôle du pétrole et entravé l'intégration eurasiatique. En outre, nous avons vu certains pays faire face à un bombardement de sanctions et d'hostilité dans une tentative de détruire des centres de production d'énergie que les États-Unis ne contrôlent pas, notamment la Russie.

Il souligne également les impacts dans les pays occidentaux, y compris : la perte relative systématique du rang économique de la classe moyenne, la montée du sans-abrisme urbain, la décimation de la classe ouvrière industrielle, les méga-fusions des entreprises, la montée des inégalités, le démantèlement du bien-être, la spéculation financière, les salaires qui stagnent, les dettes, la dérégulation et les privatisation. De plus, l'assouplissement accru de la réglementation des aliments et des médicaments a entraîné une augmentation spectaculaire de l'utilisation de l'herbicide glyphosate, qui s'est accompagnée d'une recrudescence de nombreuses maladies et affections chroniques.

Face à cette dévastation, les pays occidentaux ont dû obtenir le maintien du consentement de leurs propres populations. Pour aider à expliquer comment cela a été réalisé, Rancourt se concentre sur l'équité entre les sexes, l'antiracisme et le réchauffement climatique en tant que doctrines d'État qui ont été utilisées pour détourner l'attention des machinations de l'empire américain (et aussi pour empêcher la prise de conscience de classe). J'ai récemment interrogé Denis Rancourt sur cet aspect de son rapport.

CT : Pouvez-vous nous en dire un peu plus sur vous et sur la façon dont vous avez produit ce rapport ? Quel est son objectif ?

DR : Ancien professeur de physique, scientifique de l'environnement et défenseur des droits civils, je travaille actuellement comme chercheur pour l'Ontario Civil Liberties Association (ocla.ca). Au cours d'une conversation que j'ai eue avec le directeur exécutif de l'OCLA au sujet des droits civils, nous avons identifié plusieurs phénomènes sociaux et économiques importants qui semblaient liés au début des années 1990. J'ai donc fini par m'installer pour faire ce "gros boulot", du point de vue de la recherche.

Bien que nous ne manquions pas d'intellectuels et d'experts engagés pour guider notre perception à tort, mes recherches démontrent qu'il existe un lien entre la montée en flèche de la répression et de l'exploitation à grande échelle des populations nationales et l'accélération d'une mondialisation agressive et abusive.

CT : Dans votre rapport, vous avez décrit les conséquences de l'abandon de Bretton Woods et de la dissolution de l'URSS en termes d'hégémonie du dollar, du militarisme américain et des effets dévastateurs de la "mondialisation néolibérale" tant pour les États nations que pour les citoyens.

Il ne fait guère de doute que les analystes russes et chinois comprennent bien ce que j'ai exposé dans mon rapport. Par exemple, en prévision de la guerre commerciale de Trump, le discours prononcé en avril 2015 par le major-général Qiao Liang de l'Armée populaire de libération du peuple devant le Comité central et le bureau du gouvernement du Parti communiste chinois, comprenait ce qui suit :

"Depuis ce jour [dissolution de Bretton Woods], un véritable empire financier a émergé, l'hégémonie du dollar américain s'est établie, et nous sommes entrés dans une véritable ère de monnaie de papier. Il n'y a pas de métal précieux derrière le dollar américain. Le crédit du gouvernement est le seul soutien du dollar américain. Les États-Unis tirent profit du monde entier. Cela signifie que les Américains peuvent obtenir des richesses matérielles du monde entier en imprimant un morceau de papier vert. (...) Si nous reconnaissons [maintenant] qu'il existe un cycle de l'indice du dollar américain [ponctué de crises machinées, dont la guerre] et que les Américains utilisent ce cycle pour faire la récolte dans les autres pays, alors nous pouvons conclure que le moment était venu pour eux d'en faire autant en Chine..."

CT : Vous discutez de la nécessité pour les États d'obtenir le consentement : la nécessité de pacifier, d'hypnotiser et d'aligner les populations pour poursuivre la mondialisation ; plus précisément, la nécessité de détourner l'attention de la violence structurelle des politiques économiques et de la violence réelle du militarisme. Pouvez-vous nous dire comment la question du réchauffement climatique est liée à cela ?

DR : Que la soi-disant "crise climatique" soit réelle, exagérée ou fabriquée de toutes pièces, il est clair, d'après les données de mon rapport, que l'éthique du réchauffement climatique a été conçue et manipulée à l'échelle mondiale et qu'elle bénéficie aux exploiteurs de l'économie du carbone et, plus indirectement, à l'État.

Par exemple, l'une des études que j'ai passées en revue montre qu'une multiplication des reportages sur le réchauffement climatique dans les médias grand public s'est soudainement produite au milieu des années 2000, dans tous les grands médias, au moment même où les financiers et leurs acolytes, comme Al Gore, ont décidé de créer et de gérer une économie mondiale du carbone. Cette campagne médiatique s'est poursuivie depuis lors et l'éthique du réchauffement climatique a été institutionnalisée.

Les programmes de piégeage du carbone ont dévasté les communautés locales sur tous les continents occupés. En fait, les programmes de réduction des émissions de carbone - des parcs éoliens à la récolte de biocarburants, en passant par la production industrielle de batteries, les installations de panneaux solaires, l'extraction de l'uranium, la construction de méga barrages hydroélectriques, etc. on accéléré les destructions d'habitats.

Pendant ce temps, la guerre économique et militaire fait rage, le glyphosate est déversé dans l'écosphère à un rythme sans précédent (déversé sur des cultures mercantiles résistant aux phytocides GM), des génocides actifs sont en cours (Yémen), les États-Unis se désistent de façon unilatérale et imposent une course aux armes aux machines nucléaires et aux armes nucléaires de prochaine génération ; des prêts extortionnels sont accordés par les Etats-Unis qui ont transformé l'usage de leurs terres au plan national, et des enfants scolarisés développent des crises psychotiques afin de faire "bouger les gouvernements" pour qu'ils "agissent" contre le climat.

Au début des années 1990, une conférence mondiale sur l'environnementalisme climatique fut une réponse expresse à la dissolution de l'Union soviétique. Cela faisait partie d'un projet de propagande globale visant à masquer la nouvelle vague de mondialisation accélérée et prédatrice qui se déchaînait alors que l'URSS était définitivement sortie du droit chemin.

CT : Que pensez-vous de Greta Thunberg et du mouvement qui l'entoure ?

DR : C'est triste et pathétique. Ce mouvement témoigne du succès du projet mondial de propagande que je décris dans mon rapport. Le mouvement est aussi un indicateur du degré d'enracinement du totalitarisme dans les sociétés occidentales, où les individus, les associations et les institutions perdent leur capacité de pensée indépendante pour détourner la société des des desseins d'une élite d'occupation. Les individus (et leurs parents) deviennent la police de la moralité au service de cet "environnementalisme".

CT : Vous parlez aussi de l'émergence de l'égalité des sexes (féminisme de la troisième vague) et de l'antiracisme comme doctrines d'État. Pouvez-vous dire quelque chose à ce sujet ?

DR : Dans mon rapport, j'utilise des documents institutionnels historiques et des données sociétales pour démontrer qu'une triade de "religions d'État" a été engendrée à l'échelle mondiale et qu'elle est apparue au moment opportun après la dissolution de l'Union soviétique. Cette triade se compose d'alarmisme climatique, d'une vision tunnel exagérée de l'équité entre les sexes et d'une campagne antiraciste machinée axée sur les pensées, le langage et les attitudes.

Ces idéologies étatiques ont été conçues et propulsées via les efforts de l'ONU et les protocoles signés qui en ont résulté. Le milieu universitaire de l'Ouest a adopté et institutionnalisé le programme avec enthousiasme. Les médias grand public ont fait la promotion religieuse de l'ethos nouvellement créé. Les partis politiques ont largement appliqué des quotas accrus de représentants élus par sexe et par race.

Ces processus et ces idées ont servi à apaiser, à assouplir, rassembler et à occuper l'esprit occidental, en particulier chez les classes moyennes supérieures, professionnelles et de gestion et les élites des territoires économiquement occupés, mais n'ont rien fait pour atténuer les formes de racisme et de misogynie les plus violentes et répandues dans le monde en raison de la mondialisation prédatrice et du militarisme.

Ironiquement, les atteintes globales à la dignité humaine, à la santé humaine et à l'environnement ont été proportionnelles aux appels systématiques et parfois criards à l'équité entre les sexes, à la lutte contre le racisme et à l'"action" climatique. Tout l'édifice de ces "religions d'Etat" ne laisse aucune place aux conflits de classes nécessaires et sape expressément toute remise en cause des mécanismes et des conséquences de la mondialisation.

CT : Pouvez-vous nous parler des Gilets Jaunes, de Brexit et du phénomène électoral Trump ?

DR : Combiner une mondialisation agressive, une prédation financière constante, l'éviscération des classes ouvrières et moyennes occidentales et un discours désinvolte sur le changement climatique, l'antiracisme et l'équité entre les sexes fait quelque chose ne peut qu'arriver. Le géographe français Christophe Guilluy a prédit ces réactions de façon assez détaillée, ce qui n'est pas difficile à comprendre. Ce n'est pas un hasard si les classes populaires et moyennes qui se révoltent critiquent les récits de la crise climatique, de l'antiracisme et de l'équité entre les sexes, d'autant que les médias grand public les présentent comme racistes, misogynes et ignorants des sciences.

Il semble que toute classe qui s'oppose à sa propre destruction soit accusée d'être peuplée de gens racistes et ignorants qui ne voient pas que le salut réside dans un monde géré par le carbone et globalisé. Il devient donc impératif de fermer tous les lieux où un tel "lot d'ignorants" pourrait communiquer ses vues, tenter de s'organiser et ainsi menacer l'ordre social dominant.

Auteur: Todhunter Colin

Info: Counterpunch.org. Trad Mg

[ géopolitique ] [ ingénierie sociale ]

 

Commentaires: 0

Ajouté à la BD par miguel

FLP post-Peirce

L'"ouverture" du dictionnaire intriqué FLP, nourrie entre autres de l'idée que chaque mots est quasi-esprit (voire symbole), procède beaucoup de l'inventaire et d'un recensement exhaustif, celui de tous les termes créés et imaginables sur cette planète - surtout avec le double apport des intraduisibles et des appellations scientifiques pointues et spécialisées. Tout ça ramené au français. Vocables qui dans l'idéal devraient être utilisés, et sémantiquement précisés, via ces axes, par ordre d'importance. 

1) leur sens-étymologie. Avec une contextualisation animale si possible, distanciation auto-analytique du mammifère humain intégré dans le concert général de la vie. Par exemple les mots-idées-concepts comme foyer-logis-abri seront associés avec ceux de terrier-nid-tanière.

2) leur contexte, syntaxique, syntagmatique,  bio-taxonomique même,  pour qui s'y intéresse et a le temps. En prenant au mieux en compte les paramètres amenés par l'auteur de l'extrait : temporels, topologiques, de formacja, situation politique, sexe, etc.  

3) les caractéristiques de celle ou celui qui insère et étiquette l'extrait sur FLP, c'est à dire qu'il doit s'agir une démarche réflexive sincère, qui pourra éventuellement être analysée par d'autres sous cet angle. 

Ces trois points précédant bien sûr les éventuelles corrections de participants qui aident ainsi à préciser-organiser les mots-langage-tiercités de notre espèce-communauté par la grâce des possibilités de classements intriqués de FLP. Tiercités elles-mêmes images-symboles linguistiques des détails du décor-réalité-priméité que le cerveau humain-secondéité formule-symbolise, avec un langage et des mots toujours plus affinés. 

Et puis, dans le but de développer une meilleure ossature de classification de cette lexicologie perspectiviste, vint l'idée de réfléchir à un concept de tétravalence sémantique, suceptible de dépasser et consolider la puissante triade sémiotique de C.S. Pierce. 

Parce que la quadrivalence, symétrique, d'apparence moins souple et insaisissable que le ternaire, semble offrir, à l'image des bases de l'ADN, de bonnes pistes en terme de taxologie et de développements taxinomiques. Surtout en des heures où l'intrication quantique a montré de bien des manières combien le langage humain est devenu insuffisant, dépassé, dès qu'il doit gérer des problématiques contre-intuitives. En clair : la pensée binaire qui sous-tend nos idiomes-raisonnements, malgré toutes ses possibilités de nuances, a beaucoup de peine à empoigner sémantiquement le contre-intuitif quantique comme, par exemple, ce qu'a pu montrer Alain Aspect. (Qui a reçu le prix Nobel avec 2 autres confrères ce mois. Bravo à eux).  

Il suffirait donc d'intégrer un 4e élément à la triade de Peirce. Hum... 

Attardons nous d'abord sur le concept de tiercité ; qui englobe les infinis signes-signaux possibles générés par les interactions-chocs entre acteurs-objets-secondéités issus de la priméité : vents contre arbres, météorites percutant la terre, hommes vs animaux, réflexion contre idées, animaux entre eux, insectes avec végétaux, etc. Signes qui peuvent se transformer en routines, plus ou moins éphémères, dont certaines deviendront des traces-symboles, qui s'organiseront ensuite pour "durer un peu plus", à l'image du langage des hommes. On remarquera au passage qu'existe au niveau de chaque monade humaine un processus d'itération-imprégnation-adaptation qui va en progressant, se stabilise, et régresse avec l'âge, bref le canevas de toutes nos vies. Ici monades-bulles-existences humaines aptes à laisser des "combinaisons sémantiques" dans le corpus linguistique communautaire. Bribes que certains formuleront par le terme assez dérisoire de postérité. 

Tiens, voilà que nous avons dérivé, l'air de rien, pour nous retrouver en pleine secondéité humaine. Examinons alors l'autre bout de la triade, la priméité, ce réel-source-décor, dont tout est issu ?...  

Thème à discuter avec un alien, qui nous décrira probablement quelque chose qui n'a rien à voir avec ce que nous connaissons, certes. Mais - avec la distanciation et le temps nécessaires - nous devrions certainement pouvoir relier SA priméité-réalité à lui avec NOTRE priméité-réel à nous. N'est que parce qu'on imagine mal plusieurs "sources primordiales", même dans un GRAND TOUT infini, emplis de multivers intriqués, en constantes et étourdissantes interactions qui mélangent vitesses et échelles. Source indicible et insondable au point de tant "séparer" les entités émergées en son sein que ces dernières seraient incapables de communiquer entre elles ? Allons allons... Des étages et hiérarchies infinies oui...  Mais stop. 

Ici encore nous voilà en train d'exprimer notre propre reflet-image de secondéités qui observent, formulent, et projettent.

Qu'est-ce alors que cette secondéité ? Ce JE-NOUS monade. Mais aussi tout sujet-élément-idée-entité susceptible d'interagir avec moi, lui, ou les autres. C'est à dire tout élément jailli de la priméité-univers... Comme ce caillou au sol, ou la civilisation alien des lignes précédentes ? Interactions, répétons-le, à la sources des signes-tiercités-langage (humain limité certes ici... ) Aptes à s'auto-analyser ?!?!?!

Signes qui nomment-définissent les "choses-autres" avec des mots "quasi-esprits"... En amont de manipulations sémantiques qui s'ensuivront. Hum Hum...

On remarquera qu'au 3e étage tiercitaire des signes-idées analysés-partagés, communications mimétiques et autres, les possibilités sont aussi infinies qu'aux deux autres niveaux. On notera aussi que beaucoup de ces idiomes-signes consensus ne peuvent se développer qu'au travers de longs développements évolutifs, bien plus encore pour qui voudra aller au-delà des pulsions-interaction basiques - de l'ordre de la physique pure et du simple bon sens gravitationnel - avant de devenir pulsions de vie, de survie surtout. Tout ça se développant/envoyant/recevant des signes que bientôt le langage organisera. Combien de temps, d'éons, nécessaires pour arriver au héron et sa magnifique spécialisation de chasseur de poissons ? Bestiole capable de montrer à ses petits comment attirer les proies aquatiques en mettant des insectes dans l'eau. J.L. Borges aura bien aidé à le comprendre. L'existence, les existences ensembles sont des signes qui se mélangent et parfois se répondent.

Nous voilà donc avec le langage externalisé, humain ; magnifique engin télépathique communautaire trans-époques, (oui oui je vous parle, à vous chères âmes de l'an 2050... ah ah ah). Mais aussi oeillère-buttée, puisqu'on dirait bien que la bulle linguistique humaine nous isole via quelque chose qui ressemble à un solipsisme de la race, une monade collective. Le déséquilibre planétaire dont nous sommes source et victime apparaissant comme un de ses effets. Monade de primates, secondéité collective, machin qui "agit" bien plus qu'il interagit, alors qu'elle devrait probablement comprendre que son action sur la matrice qui l'a fait émerger se retourne contre elle. Dialogue terre-hommes où ces derniers feraient mieux de tenir compte des "signes" de Gaïa. Gamin qui réalise qu'il devrait faire un peu plus attention à ce que lui exprime, sans mots, sa Moman !!

Tout ceci est fort intéressant... mais le parcours des lignes qui précèdent ramène sans désemparer vers nous qui lisons-écrivons ces lignes, encore et toujours représentants du concept de secondéité, de la prison humaine (même si dans un système ternaire chaque pointe peut être pensée comme centrale, ah ah ah).

En bref nos rodomontades sémantiques semblent faire un peu trop abstration du reste, surtout à partir de l'ère industrielle. Déspiritualisation, sécularisation ?

Précisons et resituons : il est question d'une secondéité-hommes, issue de la priméité matrice univers-terre, en train de développer son propre champ exponentiel de tiercités, dont Internet fait la démonstration chaque jour. (Ainsi pour FLP, le web, hors les films et images, n'est qu'un amas sémantique, souvent désordonné, babélien... géré numériquement par des machines cybernétiques. Web au sein duquel - ou à la pointe duquel -, notre application se propose d'ordonner-classifier-recenser les mots-pensées en les intriquant. L'homme singe ne change pas, il fait des listes, encore... Désormais plus compliquées.) 

Mais de modification de la triade de Peirce, rien ne semble possible. Trop costaud.

Résignons-nous, c'est d'ici - au sein même de nos sémantiques, qu'il faudra chercher à identifier... puis établir-asseoir-développer... un système tétravalent en faisant bien gaffe de demeurer dans le langage, strico sensu. Français même, afin de ne pas (trop) nous perdre. 

Résumons : une secondéité bien comprise : objet, être, participant, interprétant, réfléchisseur, observateur... va nécessairement - en fonction d'infinis paramètres, (pour faire simple nous dirons "en fonction des contextes") - GENERER quelque chose. Autrement dit une secondéité, planète, arbre, fusée lunaire, caillou, civilisation, atome, (Ah non, pas atome... kr kr kr, le quantique échappe à tout ça), une fois en interaction avec une autre secondéité, ou avec un des autres pôles de notre triplette peircéenne, va ORIENTER le résultat de l'interaction. A l'image du météore qui percute l'océan et dont la trajectoire est modifiée-stoppée par la masse liquide. Où, inversément, de l'océan secoué par le météore. Ainsi, s'infléchissant et s'influençant mutuellement, les deux acteurs d'un choc-interaction enfantent, délivrent, consciemment ou pas, des tiercités. Ici vagues et tsunami, vapeurs et tremblement de terre... On constatera au passage que ce genre de tiercité océano-sismiques convient mieux à une approche téléologique terrestre (pensons à l'extinction des dinosaures) que nos tiercités linguistiques, beaucoup plus futiles et superficielles d'apparence. Mais c'est à voir.

Se pose ici aussi, nécessairement peut-être, une question étonnante, évidente : celle de la responsabilité de secondéités telles que la notre. Mais pas que. Interrogation qui ouvre les perspectives, vers l'inconscient, l'épigénétique, le panpsychisme, l'animisme... La science-fiction....  Question qui exponentialise aussi les possibilités de bascule historique, de déclics...  de déclenchements, d'effets papillons infimes, suceptibles de modifier notre réél et sa continuité... Telle la mouche écrasée qui inverse la polarité de la planète. Nous pensons que cette question ouvre un peu plus les possibilités d'une intervention externe, invisible, qui pourra orienter les choses, que ce soit souvent ou pas. Il est vrai que les dernières découvertes sur les mécanismes épigénétiques montrent que de telles interactions - invisibles et souvent contre-intuitives - se passent sans cesse, que ce soit entre nous et les fourmis ou entre le soleil et les végétaux, etc. Mais basta.

Une secondéité-OBSERVATRICE, disons évoluée comme nous, par la magie des signes organisés et du langage, développe sa réprésentation-compréhension du monde. Elle crée et développe son univers consensuel, transmute du réel-matériel en langage esprit-virtuel. 

C'est donc dans l'espace sémantique humain que nous nous proposerons de traquer les émergences tétravalentes, en partant de celles qui se trouvent DEJA (souvent en germe à l'image du chiasme et éventuellement de l'oxymoron) au sein des raisonnements du langage des interprétants-humains. Solide assise - au centre de la triade peircéenne - pour une tâche au très long cours, celle de notre propre auto-analyse via l'étude-classification sémantique du corpus linguistique d'humains-transcripteurs-secondéités, vus comme une "race du verbe" fondamentalement tétravalente

Monade des hommes formulée-présentée ci-dessous, au centre, de trois manières assez similaires.

a) priméité   -  secondéité  (récepteur, émetteur, influenceur.... )                               -  tiercité

b) réalité    -  humains responsables-irresponsables, humanistes, dictateurs, etc...             -  effets sur le monde 

c) signifiant -  interprétant (pouvoir-ouverture-transpositeur-orienteur-confusion ontologique-déverrouillage mental)  -  signifié     

Nous nous référerons à ces trois exemples comme socle au développement de notre idée, gardant en tête que si l'humanité est, comme tout élément, plus ou moins transitoire, la durabilité et les effets de sa lexico-littérature - par comparaison avec les développements de la vie-adn - sont risibles. Ce qui n'empêche rien. 

Au-delà de l'analogie comme quoi ADN et écriture sont "transgénérationnels", on entrevoit les incroyables possibilités de bases tétravalentes combinées sémantiquement, quelque chose qui dépasse littéralement les auteurs de ces lignes, à savoir une forme de mémoire évolutionnaire sur le temps long (comme les requins), mémorisée/structurée sur d'interminables chaines ADN, chaines aptes, par exemple, à réutiliser une imprégnation-expérience vécue très en arrière dans le temps.

Il s'agit selon nous d'une entreprise pré-mémétique.

Auteur: Mg

Info: sept oct 2022 - réflexion possiblement liée à la notion de septénaire, articulation binaire + ternaire dont FLP s'amuse à recenser les déclinaisons

[ citation s'appliquant à ce logiciel ] [ méthodologie ] [ métalinguistique ] [ prospective ] [ au coeur de FLP ]

 
Commentaires: 4
Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Les insectes et autres animaux ont une conscience, déclarent les experts

Un groupe d'éminents biologistes et philosophes a annoncé un nouveau consensus : il existe " une possibilité réaliste " que les insectes, les poulpes, les crustacés, les poissons et d'autres animaux négligés fassent l'expérience de la conscience.  

En 2022, des chercheurs du Bee Sensory and Behavioral Ecology Lab de l’Université Queen Mary de Londres ont observé des bourdons faire quelque chose de remarquable : ces petites créatures floues se livraient à une activité qui ne pouvait être décrite que comme un jeu. Une fois face à de minuscules boules de bois, les abeilles les poussent et les font tourner. Ce comportement n’avait aucun lien évident avec l’accouplement ou la survie, et n’était pas non plus récompensé par les scientifiques. Apparemment, c'était juste pour s'amuser.

L’étude sur les abeilles joueuses fait partie d’un ensemble de recherches citées aujourd’hui par un groupe d’éminents spécialistes de l’esprit animal, étayant une nouvelle déclaration qui étend le soutien scientifique à la conscience à un plus grand nombre d’animaux que ce qui avait été formellement reconnu auparavant. Depuis des décennies, les scientifiques s’accordent largement sur le fait que les animaux semblables à nous – les grands singes, par exemple – ont une expérience consciente, même si leur conscience diffère de la nôtre. Ces dernières années, cependant, les chercheurs ont commencé à reconnaître que la conscience pourrait également être répandue chez des animaux très différents de nous, notamment des invertébrés dotés d’un système nerveux complètement différent et bien plus simple.

La nouvelle déclaration, signée par des biologistes et des philosophes, adhère formellement à ce point de vue. On y lit notamment : " Les preuves empiriques indiquent au moins une possibilité réaliste d’expérience consciente chez tous les vertébrés (y compris tous les reptiles, amphibiens et poissons) et de nombreux invertébrés (y compris, au minimum, les mollusques céphalopodes, les crustacés décapodes et les insectes). " Inspiré par les résultats de recherches récentes décrivant des comportements cognitifs complexes chez ces animaux et chez d'autres animaux, le document représente un nouveau consensus et suggère que les chercheurs ont peut-être surestimé le degré de complexité neuronale requis pour la conscience.

La Déclaration de New York sur la conscience animale en quatre paragraphes a été dévoilée aujourd'hui, le 19 avril, lors d'une conférence d'une journée intitulée " La science émergente de la conscience animale " qui s'est tenue à l'Université de New York. Menée par la philosophe et spécialiste des sciences cognitives Kristin Andrews de l'Université York en Ontario, le philosophe et spécialiste de l'environnement Jeff Sebo de l'Université de New York et le philosophe Jonathan Birch de la London School of Economics and Political Science, la déclaration a jusqu'à présent été signée par 39 chercheurs, dont les psychologues Nicola Clayton et Irene Pepperberg, les neuroscientifiques Anil Seth et Christof Koch , le zoologiste Lars Chittka et les philosophes David Chalmers et Peter Godfrey-Smith .

La déclaration se concentre sur le type de conscience le plus fondamental, connu sous le nom de conscience phénoménale. En gros, si une créature a une conscience phénoménale, alors c'est " comme quelque chose " qu'être cette créature — une idée énoncée par le philosophe Thomas Nagel dans son essai influent de 1974, " Qu'est-ce que ça fait d'être une chauve-souris ? " Même si une créature est très différente de nous, écrit Nagel, " " Un organisme a fondamentalement des états mentaux conscients qui correspondent à ce qu'est cet organisme, si et seulement si. ... Nous pouvons appeler cela le caractère subjectif de l'expérience. Si une créature est ainsi consciente, elle a la capacité d’éprouver des sentiments tels que la douleur, le plaisir ou la faim, mais pas nécessairement des états mentaux plus complexes comme la conscience de soi.

" J'espère que celà attire une plus grande attention aux problèmes de la conscience non humaine et aux défis éthiques qui accompagnent la possibilité d'expériences conscientes bien au-delà de l'humain", a écrit Seth, neuroscientifique à l'Université du Sussex, dans un e-mail. " J'espère que cela suscitera des discussions, éclairera les politiques et les pratiques en matière de bien-être animal et galvanisera la compréhension et l'appréciation du fait que nous avons beaucoup plus en commun avec d'autres animaux qu'avec des choses comme ChatGPT. "

Une prise de conscience croissante

La déclaration a commencé à prendre forme l’automne dernier, à la suite de conversations entre Sebo, Andrews et Birch. " Nous parlions tous les trois de tout ce qui s'est passé au cours des 10 ou 15 dernières années dans la science de la conscience animale", se souvient Sebo. Nous savons maintenant, par exemple, que les poulpes ressentent de la douleur et que les seiches se souviennent des détails d'événements passés spécifiques. Des études sur les poissons ont montré que les labres (Labroides dimidiatus) semblent réussir une version du " test du miroir ", qui indique un certain degré d'auto-reconnaissance, et que les poissons zèbres montrent des signes de curiosité. Dans le monde des insectes, les abeilles présentent un comportement de jeu apparent, tandis que les mouches des fruits de la drosophile ont des habitudes de sommeil distinctes influencées par leur environnement social. Pendant ce temps, les écrevisses présentent des états de type anxiété – et ces états peuvent être modifiés par des médicaments anti-anxiété.

Ces signes, ainsi que d’autres, d’états de conscience chez des animaux qui ont longtemps été considérés comme moins conscients ont excité et interpellé les biologistes, les spécialistes des sciences cognitives et les philosophes de l’esprit. "Beaucoup de gens acceptent depuis un certain temps que, par exemple, les mammifères et les oiseaux sont soit conscients, soit très susceptibles de l'être, mais moins d'attention a été accordée aux autres taxons de vertébrés et en particulier d'invertébrés", a déclaré Sebo. Lors de conversations et de réunions, les experts ont largement convenu que ces animaux devaient avoir une conscience. Cependant, ce consensus nouvellement formé n’a pas été communiqué au grand public, notamment aux autres scientifiques et décideurs politiques. Les trois chercheurs ont donc décidé de rédiger une déclaration claire et concise et de la faire circuler parmi leurs collègues pour approbation. La déclaration n’est pas censée être exhaustive mais plutôt " indiquer où nous pensons que le domaine se trouve actuellement et où il se dirige ", a déclaré Sebo.

La nouvelle déclaration met à jour les efforts les plus récents visant à établir un consensus scientifique sur la conscience animale. En 2012, des chercheurs ont publié la Déclaration de Cambridge sur la conscience, qui affirmait qu'un grand nombre d'animaux non humains, y compris, mais sans s'y limiter, les mammifères et les oiseaux, ont " la capacité de manifester des comportements intentionnels " et que " les humains ne sont pas les seuls à posséder les substrats neurologiques " qui génèrent la conscience.

La nouvelle déclaration élargit la portée de son prédécesseur et est également rédigée avec plus de soin, a écrit Seth. " Elle n'essaie pas de faire de la science par diktat, mais souligne plutôt ce que nous devrions prendre au sérieux concernant la conscience animale et l'éthique pertinente, compte tenu des preuves et des théories dont nous disposons." Il a écrit qu’il n’était " pas favorable aux avalanches de lettres ouvertes et autres ", mais qu’il était finalement " parvenu à la conclusion que cette déclaration méritait vraiment d’être soutenue ".

Godfrey-Smith, philosophe des sciences à l'Université de Sydney qui a beaucoup travaillé avec les poulpes, estime que les comportements complexes que présentent ces créatures – notamment la résolution de problèmes, l'utilisation d'outils et le comportement de jeu – ne peuvent être interprétés que comme des indicateurs de conscience. "Elles ont cet engagement attentif avec les choses, avec nous et avec de nouveaux objets qui fait qu'il est très difficile de ne pas penser qu'il se passe beaucoup de choses à l'intérieur d'elles", a-t-il déclaré. Il a noté que des articles récents portant sur la douleur et les états oniriques chez les poulpes et les seiches " vont dans la même direction… ".

Même si de nombreux animaux mentionnés dans la déclaration ont un cerveau et un système nerveux très différents de ceux des humains, les chercheurs affirment que cela ne constitue pas nécessairement un obstacle à la conscience. Par exemple, le cerveau d’une abeille ne contient qu’environ un million de neurones, contre environ 86 milliards dans le cas des humains. Mais chacun de ces neurones d’abeille peut être structurellement aussi complexe qu’un chêne. Le réseau de connexions qu’ils forment est également incroyablement dense, chaque neurone en contactant peut-être 10 000 ou 100 000 autres. Le système nerveux d’une pieuvre, en revanche, est complexe à d’autres égards. Son organisation est hautement distribuée plutôt que centralisée ; un bras coupé peut présenter de nombreux comportements de l'animal intact.

(4 photos : Des recherches récentes sur l’esprit des animaux – notamment ceux des écrevisses, des poulpes, des serpents et des poissons – suggèrent que la conscience " peut exister dans une architecture neurale qui semble complètement étrangère " à la nôtre, a déclaré Peter Godfrey-Smith.)

Le résultat, a déclaré Andrews, est que "  nous n’avons peut-être pas besoin d’autant d’équipement que nous le pensions " pour atteindre la conscience. Elle note, par exemple, que même un cortex cérébral – la couche externe du cerveau des mammifères, censée jouer un rôle dans l’attention, la perception, la mémoire et d’autres aspects clés de la conscience – n’est peut-être pas nécessaire pour une conscience phénoménale plus simple comme celle ciblée dans la déclaration.

"Il y a eu un grand débat sur la question de savoir si les poissons sont conscients, et cela était en grande partie dû au fait qu'ils n'avaient pas les structures cérébrales que nous observons chez les mammifères", a-t-elle déclaré. "Mais quand vous regardez les oiseaux, les reptiles et les amphibiens, ils ont des structures cérébrales très différentes et des pressions évolutives différentes - et pourtant certaines de ces structures cérébrales, comme nous le constatons, font le même genre de travail qu'un cortex cérébral chez l'homme. " Godfrey-Smith est d’accord, notant que des comportements révélateurs de conscience " peuvent exister dans une architecture qui semble complètement étrangère à l’architecture des vertébrés ou des humains ".

Relations conscientes

Bien que la déclaration ait des implications pour le traitement des animaux, et en particulier pour la prévention de la souffrance animale, Sebo a noté que l'accent devrait aller au-delà de la douleur. Il ne suffit pas d'empêcher les animaux en captivité de ressentir des douleurs et des inconforts corporels, a-t-il déclaré. " Nous devons également leur offrir le type d’enrichissement et d’opportunités qui leur permettent d’exprimer leurs instincts, d’explorer leur environnement, de s’engager dans les systèmes sociaux et d’être par ailleurs le genre d’agents complexes qu’ils sont. "

Mais les conséquences de l’attribution du label " conscient " à un plus grand nombre d’animaux – en particulier à des animaux dont nous n’avons pas l’habitude de prendre en compte les intérêts – ne sont pas simples. Par exemple, notre relation avec les insectes peut être " inévitablement quelque peu antagoniste ", a déclaré Godfrey-Smith. Certains ravageurs dévorent les récoltes et les moustiques peuvent être porteurs de maladies. " L'idée selon laquelle nous pourrions simplement faire la paix avec les moustiques est une pensée très différente de l'idée selon laquelle nous pourrions faire la paix avec les poissons et les poulpes", a-t-il déclaré.

De même, peu d’attention est accordée au bien-être des insectes comme la drosophile, largement utilisés dans la recherche en biologie. " Dans la recherche, nous pensons au bien-être du bétail et des souris, mais nous ne pensons jamais au bien-être des insectes ", a déclaré Matilda Gibbons , qui étudie les bases neuronales de la conscience à l'Université de Pennsylvanie et a signé la déclaration.

Même si les organismes scientifiques ont créé certaines normes pour le traitement des souris de laboratoire, il n'est pas clair si la déclaration d'aujourd'hui mènera à de nouvelles normes pour le traitement des insectes. Mais les nouvelles découvertes scientifiques suscitent parfois de nouvelles politiques. La Grande-Bretagne, par exemple, a adopté une législation visant à accroître la protection des poulpes, des crabes et des homards après qu'un rapport de la London School of Economics  ait indiqué que ces animaux pouvaient ressentir de la douleur, de la détresse ou être blessés.

Bien que la déclaration ne fasse aucune mention de l’intelligence artificielle, la question d’une éventuelle conscience de l’IA préoccupe les chercheurs en conscience animale. "Il est très peu probable que les systèmes d'IA actuels soient conscients", a déclaré Sebo. Cependant, ce qu’il a appris sur l’esprit animal " me fait réfléchir et me donne envie d’aborder le sujet avec prudence et humilité ".

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Dan Falk  19 avril 2024

[ entités vivantes ] [ monades ] [ animal-végétal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel