Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 103
Temps de recherche: 0.0673s

femmes-hommes

L'esprit pourrait affecter les machines selon les sexes
Pendant 26 ans, des conversations étranges ont eu lieu dans un laboratoire du sous-sol de l'université de Princeton. On utilise des ordinateurs au rendement aléatoire et les expériences font se concentrer des participants sur le contrôle d'une ou de plusieurs machines. Après plusieurs million d'épreuves on peut détecter de petits signes "statistiquement significatifs" comme quoi les esprits semblent pouvoir agir sur les machines. Cependant les chercheurs font attention à ne pas annoncer que les esprits ont cet effet ou qu'ils connaissent la nature de cette communication.
Les services secrets, la défense et les agences de l'espace ont également montré de l'intérêt pour cette recherche. Le premier support que les chercheurs ont employé était un bruit aléatoire à haute fréquence. Les chercheurs ont branché des circuits au dispositif pour traduire ce bruit en code binaire. Chaque participant, après un protocole pré-enregistré, devait développer une intention dans son esprit pour faire que le générateur ait plus ou moins de zéros. Les effets furent faibles mais mesurables. Depuis les mêmes résultats se sont reproduits avec d'autres expériences, telles qu'en impliquant un pendule relié à un mécanisme commandé par ordinateur. Quand la machine libère le pendule pour qu'il se balance, les participants se concentrent sur modifier le taux avec lequel le pendule ralentit. D'autres expériences impliquent une machine à tambour que les participants essayent de commander et une machine de cascade mécanique dans laquelle un dispositif laisse tomber des milliers de petites boules noires de polystyrène, le but est que ces boules tombent dans une rangée de fentes. Les participants essayent alors de les diriger pour les faire tomber d'un côté de ou de l'autre. Au final les participants ont pu "diriger " un bit sur 10.000 issus des données mesurées dans tous les essais. Ce qui pourrait sembler petit, mais le doyen Radin, scientifique à l'institut des sciences de Noetic et ancien chercheur aux laboratoires Bell et de AT&T, dit que c'était prévisible. Radin compare l'état actuel de cette recherche avec celui où les scientifiques commencèrent à étudier l'électricité statique et ne surent pas, au début, que les niveaux d'humidité pouvaient affecter la quantité de l'électricité statique produite.
Les chercheurs ne comprennent pas grand-chose sur ce phénomène, mais ils savent que les résultats ne sont pas affectés par la distance ou le temps. Les participants, par exemple, peuvent avoir le même impact sur une machine de l'extérieur de la salle ou d'ailleurs dans le pays. Ils peuvent également avoir le même effet s'ils ont une intention avant qu'elle soit allumée ou même s'ils lisent un livre ou écoutent la musique tandis alors que la machine fonctionne. Les conditions environnementales - telles que la température ambiante - n'importent pas, mais l'humeur et l'attitude des gens qui contrôlent l'appareil oui. Cela aide, si par exemple le participant croit qu'il peut affecter la machine. Jahn dit que la résonance avec la machine est un autre facteur important. Il la compare à ce qui se produit quand un grand musicien semble faire un avec son violon. Le sexe importe aussi. Les hommes tendent à obtenir des résultats assortis à leurs intentions, bien que le degré de l'effet soit souvent petit. Les femmes tendent à obtenir un plus grand effet, mais pas nécessairement celui qu'elles prévoient. Par exemple, elles voudraient diriger des boules dans la machine aléatoire de cascade pour une chute vers la gauche, mais elles tombent plutôt vers la droite. Les résultats qui sont également plus grands si un mâle et une femelle travaillent ensemble, les couple de même sexe ne produisent aucun résultat significatif. Les couple de sexe opposé qui sont impliqué de manière romantique donnent de bien meilleurs résultats - souvent sept fois plus grands que quand les mêmes individus sont examinés seuls.
Brenda Dunne, psychologue développementaliste et directrice du laboratoire dit que dans ces cas les résultats reflètent souvent le styles des deux modèles de sexes. Les effets sont plus grands, en accord avec ce que seule la femelle tendrait à produire, et plus ciblés, en accord avec ce que seul le mâle produirait.
"C'est presque comme si il y avait deux modèles ou deux variables et qu'elles étaient complémentaires" dit Dunne." le modèle masculin est associé à l'intention, le modèle féminin est plus associé à la résonance."
Que signifie tout ceci ? Personne ne le sait. Radin et Jahn indiquent que ce n'est pas parce qu'il y a une corrélation entre l'intention du participant et les actions de la machine que cela signifie qu'un cause l'autre. " Il y a une inférence (qui les deux sont connexes) mais aucune évidence directe" dit Radin qui indique que le phénomène pourrait être semblable à l'indétermination d'Heisenberg dans lequel deux particules séparées l'une de l'autre semblent être reliées sans qu'on sache comment... sous quelle forme de communication.
"la différence est nous ne parlons pas en envoyant des signaux du cerveau à la machine par un circuit" dit Jahn au sujet de ces essais. "quoi qu'il se passe, se passe par un itinéraire que nous ne connaissons pas. Nous savons seulement quelque chose au sujet des conditions qui la favorisent.." Bien que les effets produits dans ces expériences soient faibles, ils ont toujours été répétés, cependant pas toujours de façon prévisible. Un participant peut avoir un effet un jour et répéter l'expérience le jour suivant sans résultats.
Le laboratoire a beaucoup de détracteurs qui pointent sur des défauts de la méthode et écartent ce travail le traitant de divertissement, comparant ses résultats aux automobilistes qui souhaitent qu'une lumière rouge passe au vert et pensent que le changement de lumière est causé par eux.
Stanley Jeffers, professeur de physique à l'université d'York à Toronto, a tenté des expériences semblables, mais il ne put pas répliquer les résultats. Les chercheurs de deux laboratoires allemands, fonctionnant en coopération avec Pegg, ne purent également pas répliquer ces résultats à l'aide du même équipement utilisé par Pegg.
"Si leurs annonces veulent être prises au sérieux par la science elles doivent être répliquées" dit Jeffers. "Si elles ne peuvent pas être répliquées, cela ne signifie pas qu'elles sont fausses, mais la science y perdra rapidement son intérêt."
Dunne, psychologue développementaliste dit que Pegg a répété ses propres expériences et a obtenu des résultats significatifs. Et ces méta-analyses - une douzaine - faites depuis les années 80 ont donné une base pour les résultats de Pegg dans les expériences faites par d'autres chercheurs. La Méta-analyse utilise de grands stocks de données à travers de beaucoup d'expériences et les combine statistiquement pour voir si les effets répètent la même combinaison. "Nous analysons les déviations statistiques par rapport à la chance au travers de cette batterie d'expériences" dit Jahn... "quand on fait assez de ces expériences, les effets analysés ont un poids statistique. Il n'y a aucun doute sur la validité de ces effets."
Radin, qui n'est pas affilié au Pegg, écarte les critiques qui disent que ce groupe ne pratique pas de science solide. "Ce domaine a reçu bien plus d'examen minutieux et critique que beaucoup d'autres, ordinaires... les personnes qui font ce genre de recherche sont bien conscientes du fait que leur recherche doit être faite au mieux. Le laboratoire de Pegg a pris les meilleurs principes de science rigoureuse et s'est appliqué a des questions extrêmement difficiles et a proposé quelques jolies réponses intéressantes."
Jahn pense que les critiques s'attendent à ce que les phénomènes suivent les règles habituelles de la cause et de l'effet. Au lieu de cela, il pense qu'ils appartiennent à la catégorie de ce que Karl Jung a appelé "des phénomènes acausal," qui incluent des choses comme la synchronicité. "Cela se joue par des règles plus compliquées, plus lunatiques, évasives... ... mais cela joue." dit Jahn
Jeffers est sceptique " cela ne peut se passer de deux manières - dire qu'on est des scientifiques honorables et avoir des affirmations pour un effet particulier dans des conditions contrôlées, et ensuite quand les résultats ne marchent pas, dire que les méthodes scientifiques rigoureuses ne s'appliquent pas." Mais Jahn dit que justement que puisque que les scientifiques ne peuvent pas expliquer ces phénomènes cela ne signifie pas qu'ils ne sont pas vrais. "si ces choses existent... je pense que notre société a le droit de demander à la science d'y faire attention et de fournir un certain outillage pour avoir affaire avec de manière constructive.

Auteur: Zetter Kim

Info: Juillet 2005, Fortean Times

[ mâles-femelles ] [ vus-scientifiquement ] [ parapsychologie ] [ femmes-hommes ]

 

Commentaires: 0

nord-sud

Les "élites" autoproclamées de Davos ont peur. Très peur. Lors des réunions du Forum économique mondial de cette semaine, le maître à penser Klaus Schwab - affichant son numéro de méchant de James Bond - n'a cessé de répéter un impératif catégorique : nous avons besoin de "coopération dans un monde fragmenté".

Bien que son diagnostic de la "fragmentation la plus critique" dans laquelle le monde est aujourd'hui embourbé soit, comme on pouvait s'y attendre, sombre, Herr Schwab maintient que "l'esprit de Davos est positif" et qu'au final, nous pourrons tous vivre heureux dans une "économie verte et durable".

Ce que Davos a su faire cette semaine, c'est inonder l'opinion publique de nouveaux mantras. Il y a le "nouveau système" qui, compte tenu de l'échec lamentable de la grande réinitialisation tant vantée, ressemble maintenant à une mise à jour hâtive du système d'exploitation actuel, qui a été ébranlé.

Davos a besoin de nouveau matériel, de nouvelles compétences en programmation, voire d'un nouveau virus. Pourtant, pour l'instant, tout ce qui est disponible est une "polycrise" ou, en langage de Davos, un "ensemble de risques mondiaux liés entre eux et dont les effets s'aggravent". 

En clair : une parfaite tempête.

Les insupportables raseurs de l'île "Diviser pour régner" du nord de l'Europe viennent de découvrir que la "géopolitique", hélas, n'est jamais vraiment entrée dans le pénible tunnel de la "fin de l'histoire" : à leur grande surprise, elle est maintenant centrée - à nouveau - sur le Heartland, comme elle le fut pendant la majeure partie de l'histoire connue.

Ils se plaignent d'une géopolitique "menaçante", synonyme de Russie-Chine, l'Iran en plus.

Mais la cerise sur le gâteau alpin, c'est l'arrogance/la stupidité qui révèle le jeu : la City de Londres et ses vassaux sont livides parce que le "monde créé par Davos" s'effondre rapidement.

Davos n'a pas " inventé " le monde, si ce n'est son propre simulacre.

Davos n'a jamais rien compris, car ces "élites" ont toujours été occupées à faire l'éloge de l'Empire du Chaos et de ses "aventures" meurtrières dans le Sud.

Non seulement Davos n'a pas su prévoir toutes les crises économiques majeures récentes, mais surtout la "tempête parfaite" actuelle, liée à la désindustrialisation de l'Occident collectif engendrée par le néolibéralisme.

Et, bien sûr, Davos n'a aucune idée de la véritable remise à zéro qui tend à aller vers la multipolarité. 

Des leaders d'opinion autoproclamés sont occupés à "redécouvrir" qu'un siècle plus tard La Montagne magique de Thomas Mann se déroule à Davos - "avec pour toile de fond une maladie mortelle et une guerre mondiale imminente".

Eh bien, de nos jours, la "maladie" - arme entièrement bio-institutionnalisée - n'est pas vraiment mortelle en soi. Et la "guerre mondiale imminente" est de fait activement encouragée par une cabale de néo-cons et autres néolibéraux américains : un État profond non élu, non responsable, bipartisan et même pas soumis à une idéologie. Le criminel de guerre centenaire Henry Kissinger ne l'a toujours pas compris.

Le panel de Davos sur la démondialisation a multiplié les non-séquences, mais le ministre hongrois des affaires étrangères, Peter Szijjarto, a au moins apporté une dose de réalité.

Quant au vice-premier ministre chinois Liu He, avec sa vaste connaissance de la finance, de la science et de la technologie, il a au moins été très utile pour définir les cinq grandes lignes directrices de Pékin pour l'avenir prévisible - au-delà de la sinophobie impériale habituelle.

La Chine se concentrera sur l'expansion de la demande intérieure, le maintien de chaînes industrielles et d'approvisionnement "fluides", le "développement sain du secteur privé", l'approfondissement de la réforme des entreprises d'État et la recherche d'"investissements étrangers attrayants".

Résistance russe, précipice américain 

Emmanuel Todd n'était pas à Davos. Mais c'est l'anthropologue, historien, démographe et analyste géopolitique français qui a fini par hérisser toutes les plumes supposément compétentes de l'Occident collectif ces derniers jours avec un objet anthropologique fascinant : une interview basée sur la réalité.

Todd s'est entretenu avec Le Figaro - journal de prédilection de l'establishment et de la haute bourgeoisie française. L'interview a été publiée vendredi dernier à la page 22, entre les proverbiales tirades russophobes et avec une mention extrêmement brève en bas de la première page. Il fallait donc que les gens fassent des efforts pour la trouver.   

Todd a plaisanté en disant qu'il avait l'image - absurde - d'un "rebelle destroy" en France, alors qu'au Japon, il est respecté, qu'il fait l'objet d'articles dans les médias grand public et que ses livres sont publiés avec grand succès, y compris le dernier (plus de 100 000 exemplaires vendus) : "La troisième guerre mondiale a déjà commencé".

Il est significatif que ce best-seller japonais n'existe pas en français, étant donné que toute l'industrie de l'édition basée à Paris suit la ligne de l'UE et de l'OTAN sur l'Ukraine.

Le fait que Todd ait raison sur plusieurs points est un petit miracle dans le paysage intellectuel européen actuel, d'une myopie abyssale (il existe d'autres analystes, notamment en Italie et en Allemagne, mais ils ont bien moins de poids que Todd).

Voici le résumé des thème principaux abordés par Todd.

- Une nouvelle guerre mondiale est en cours : En "passant d'une guerre territoriale limitée à un affrontement économique mondial, entre l'Occident collectif d'un côté et la Russie liée à la Chine de l'autre, cette guerre est devenue une guerre mondiale".

- Selon Todd, le Kremlin a commis une erreur en calculant qu'une société ukrainienne décomposée s'effondrerait immédiatement. Bien entendu, il n'explique pas en détail comment l'Ukraine a été militarisée à outrance par l'alliance militaire de l'OTAN.

- Todd a raison lorsqu'il souligne que l'Allemagne et la France sont devenues des partenaires mineurs de l'OTAN et n'étaient pas au courant de ce qui se tramait en Ukraine sur le plan militaire : "Ils ne savaient pas même que les Américains, les Britanniques et les Polonais pouvaient permettre à l'Ukraine de mener une guerre prolongée. L'axe fondamental de l'OTAN est désormais Washington-Londres-Varsovie-Kiev".

- La principale révélation de Todd est meurtrière : "La résistance de l'économie russe conduit le système impérial américain vers le précipice. Personne n'avait prévu que l'économie russe tiendrait face à la 'puissance économique' de l'OTAN".

- Conséquence, "les contrôles monétaires et financiers américains sur le monde peuvent s'effondrer, et avec eux la possibilité pour les USA de financer pour rien leur énorme déficit commercial".

- "C'est pourquoi nous sommes dans une guerre sans fin, dans un affrontement dont la conclusion est l'effondrement de l'un ou l'autre." 

- Sur la Chine, Todd pourrait faire penser à une version plus féroce de celle de Liu He à Davos : "C'est le dilemme fondamental de l'économie américaine : elle ne peut pas faire face à la concurrence chinoise sans importer une main-d'œuvre chinoise qualifiée."

- Quant à l'économie russe, "elle accepte les règles du marché, mais avec un rôle important de l'État, et elle garde la flexibilité de former des ingénieurs qui permettent des adaptations, industrielles et militaires."

- Tout cela nous amène, une fois de plus, à la globalisation, d'une manière que les tables rondes de Davos ont été incapables de comprendre : "Nous avons tellement délocalisé notre activité industrielle que nous ne savons pas si notre production de guerre peut être soutenue".

- Dans une interprétation plus érudite de ce sophisme du "choc des civilisations", Todd s'intéresse au soft power et arrive à une conclusion surprenante : "Sur 75 % de la planète, l'organisation de la parentalité était de type patrilinéaire*, et c'est pourquoi nous pouvons identifier une forte compréhension de la position russe. Pour le collectif non-occidental, la Russie affirme un conservatisme moral rassurant."

- Ainsi, ce que Moscou a réussi à faire, c'est de "se repositionner comme l'archétype d'une grande puissance, non seulement "anticolonialiste" mais aussi patrilinéaire et conservatrice en termes de mœurs traditionnelles."

Sur la base de tout ce qui précède, Todd brise le mythe vendu par les "élites" de l'UE/OTAN - Davos inclus - selon lequel la Russie est "isolée", en soulignant comment les votes à l'ONU et le sentiment général à travers le Sud global caractérisent la guerre, "décrite par les médias grand public comme un conflit de valeurs politiques, en fait, à un niveau plus profond, comme un conflit de valeurs anthropologiques."      

Entre lumière et obscurité

Se pourrait-il que la Russie - aux côtés du vrai Quad, tel que je l'ai défini (avec la Chine, l'Inde et l'Iran) - l'emporte sur le terrain des enjeux anthropologiques ?  

Le vrai Quad a tout ce qu'il faut pour s'épanouir en un nouveau foyer interculturel d'espoir dans un "monde fragmenté".

Mélangez la Chine confucéenne (non dualiste, sans divinité transcendante, mais avec le Tao qui coule à travers tout) avec la Russie (chrétienne orthodoxe, vénérant la divine Sophia) ; l'Inde polythéiste (roue de la renaissance, loi du karma) ; et l'Iran chiite (islam précédé par le zoroastrisme, l'éternelle bataille cosmique entre la Lumière et les Ténèbres).

Cette unité dans la diversité est certainement plus attrayante, et plus édifiante, que l'axe de la guerre éternelle.

Le monde en tirera-t-il une leçon ? Ou, pour citer Hegel - "ce que nous apprenons de l'histoire, c'est que personne n'apprend de l'histoire" - sommes-nous irrémédiablement condamnés ?

Auteur: Escobar Pepe

Info: https://www.presstv.ir, 18 janvier 2023, *système de filiation dans lequel chacun relève du lignage de son père

[ ukraine 2023 ] [ point chaud ] [ inertie patriarcale ]

 

Commentaires: 0

Ajouté à la BD par miguel

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

exo-contact

Rice News : - Comment un professeur des religions comparées devient-il un expert des OVNIs ? 

JK : - Eh bien, personne n'est expert de ceci. Personne. C'est la première chose à savoir. Pour ma part, je réfléchis et écris sur le phénomène OVNI depuis 2004 environ. J'y ai d'abord été confronté parce que j'y étais obligé :  on le retrouvait tout simplement partout dans les sources historiques et ethnographiques avec lesquelles je travaillais pour une grande histoire des courants spirituels alternatifs dans la contre-culture californienne que j'écrivais à l'époque. Mes propres intérêts ont définitivement commencé là, à l'Institut Esalen.

Les gens supposaient alors couramment que le phénomène OVNI n'était pas sérieux ou qu'il s'agissait d'une sorte de truc "californien". Mais ce n'est tout simplement pas vrai, et ne l'a jamais été. Certaines des rencontres modernes les plus documentées et les plus spectaculaires ont eu lieu autour de sites militaires nucléaires et dans des cultures et des lieux comme le Brésil, la France, le Nouveau-Mexique - au cours de l'été 1945, à quelques kilomètres du site de la bombe atomique Trinity récemment irradiée et une semaine seulement après les bombardements d'Hiroshima et de Nagasaki - et la Nouvelle-Angleterre. Plus récemment on peut voir un grand mélange quant à l'appréciation de cette problématique : par exemple les militant des droits civiques, rien que ça. L'armée et les services de renseignement américains, son exploration spatiale aussi, le colonialisme occidental, les cosmologies indigènes américaines, avec une religion noire importante - la Nation of Islam. Les zones frontalières entre États-Unis et Mexique, l'Amérique latine, les relations américano-soviétiques et maintenant américano-russes, l'OTAN, les industries aérospatiales et aéronautiques, les courants ésotériques et mystiques occidentaux, la littérature de science-fiction et l'histoire des sciences ont tous été impliqués. Et ce n'est qu'un début.

Étudier convenablement le phénomène ovni, c'est en fait étudier à peu près tout. C'est aussi se heurter, durement, à la prise de conscience que l'ordre institutionnel ou universitaire de la connaissance dans lequel nous travaillons et pensons aujourd'hui - un ordre qui sépare effectivement les sciences des humanités - n'est tout simplement pas utile, et ne reflète certainement pas la réalité que nous essayons de comprendre. La difficile vérité est que le phénomène OVNI présente à la fois un aspect "matériel" objectif (pensez aux vidéos et photographies d'avions de chasse, aux prétendus méta-matériaux, aux méthodes de propulsion apparemment avancées et aux marques d'atterrissage) et un aspect "humain" subjectif (pensez aux rencontres rapprochées, aux observations visuelles multiples et coordonnées, aux états de conscience altérés, aux manifestations visionnaires, souvent de type baroque ou science-fictionnel, et aux enlèvements traumatiques ou transcendants vécus). Et les deux côtés - les dimensions matérielles et mentales - sont incroyablement importants pour avoir une idée de l'ensemble du tableau.

Bien sûr, on peut découper le phénomène ovni en deux catégories, "scientifique" et "humaniste", mais on ne le comprendra jamais en procédant ainsi. C'est, en fin de compte, la raison pour laquelle je pense que le sujet est si incroyablement important : il a le pouvoir particulier de défier, ou simplement d'effacer, notre ordre actuel de connaissance et ses divisions arbitraires. Quel que soit ce "ça", il ne se comporte tout simplement pas selon nos règles et hypothèses.  

RN : - Quelle est donc votre évaluation globale de ce nouveau rapport ?

JK : - Eh bien, j'ai un truc positif à dire, avec une forte critique. La chose positive est la suivante : La récente publication, ainsi que la fuite de la vidéo radar datant de décembre 2017 qui a été si efficacement rapportée dans le New York Times par mes collègues Leslie Kean, Ralph Blumenthal et Helene Cooper, a fondamentalement changé la conversation publique autour du sujet. Les chercheurs sérieux ne sont plus regardés avec autant de mépris, et les débunkers dogmatiques n'ont plus le dessus - si jamais ils l'ont vraiment eu.

En outre, et c'est tout aussi important, des gens de tous horizons qui se sont tus jusque-là, sortent maintenant de leur placard et prennent la parole. Pour ne prendre qu'un petit exemple, Miles O'Brien, le correspondant scientifique de PBS, a reconnu devant la caméra il y a quelques jours avoir été témoin d'un OVNI avec un comportement fondamentalement identique à celui des objets rapportés dans le document. Bref le point le plus fondamental de l'interview d'O'Brien est que la publication du gouvernement constitue une sorte de "tournant" dans la conversation publique. 

RN : - OK, quelle est la critique alors ?

JK : - La mauvaise nouvelle concerne la nature de cette "révélation " erratique et classifié de données - le refus du gouvernement de libérer la marchandise, pour ainsi dire, et de donner aux chercheurs sérieux un accès complet à toutes les données. Toutes les données. En procédant de la sorte, ils essaient essentiellement de contrôler le récit. Mon souci peut être résumé par cette sagesse populaire "si vous n'avez qu'un marteau, vous ne verrez que des clous". Dans ce contexte, vu que les données sont collectées par des professionnels de l'armée dont le but premier est de protéger l'État-nation contre les intrus ou les ennemis, le phénomène UAP ou OVNI est inévitablement présenté en termes de "menaces" potentielles. Je veux dire, mon Dieu, les vidéos que nous regardons ont été prises par les systèmes radar d'avions de chasse avancés conçus pour faire une seule chose : abattre un objet ennemi. Faut-il s'étonner que ces objets filmés soient présentés, littéralement et métaphoriquement, comme des menaces ?

RN : - Et sont-ils vraiment des menaces ? Nous n'en avons aucune idée.

JK : - Dans la culture populaire américaine, dans le cinéma et la science-fiction, ce que j'appelle la "mythologie de l'invasion de la guerre froide" a été dominante jusqu'à très récemment. Dans cette mythologie, l'OVNI est considéré comme une invasion "extraterrestre" qui doit être combattue ou à laquelle doivent résister les citoyens patriotes et craignant Dieu. Pensez, par exemple, au roman de 1898 de H.G. Wells "La guerre des mondes", une histoire d'invasion, soit dit en passant, inspirée par le colonialisme britannique. Ou, du côté américain, "Independence Day" en 1996. Ce n'est que récemment que les écrivains et les cinéastes ont commencé à s'éloigner de cette mythologie de l'invasion de la guerre froide pour s'orienter vers quelque chose de beaucoup plus positif, et franchement plus fidèle à ce que nous voyons réellement dans les cas de rencontre et de contact, si nous les étudions vraiment au lieu de simplement supposer des choses à leur sujet. Comme le récent film d'un réalisateur canadien, assez significatif en ce sens - "Arrival" sorti en 2016. 

Ce film frise la profondeur, car il tourne avec amour et contemplation autour de la transformation paranormale de son personnage central, une linguiste humaniste douée, le Dr Louise Banks. En effet, dans les faits historiques, les témoins humains sont souvent radicalement transformés par leurs rencontres, souvent de manière extrêmement positive, mais aussi difficile.

Ces rencontres, par exemple, peuvent être de nature profondément spirituelle, et je ne veux pas dire "bonnes" ou "agréables". Les gens éprouvent de la crainte, de la peur, de l'étrangeté et une terreur absolue ; le psychiatre de Harvard John Mack a appelé cela à juste titre "choc ontologique". Ils font l'expérience, soit pendant l'événement lui-même, soit plus tard, de nouvelles capacités étonnantes - pensez à la télépathie et, oui, à la précognition. Et ils adoptent de nouvelles visions du monde, beaucoup plus cosmiques.

Ainsi, dans le film, le Dr Louise Banks développe la capacité de précognition : Elle se "souvient" de la mort précoce et tragique de sa fille, pas encore née, alors qu'elle apprend progressivement que le temps, comme la grammaire de la langue extraterrestre qu'elle déchiffre, est circulaire et non linéaire. Cette idée de l'espace-temps est d'ailleurs bien connue des humanistes, de la philosophie grecque antique à Nietzsche.

Ce où je veux en venir ? Que nous devrions aborder le phénomène OVNI beaucoup plus comme "Arrival" et beaucoup moins comme "La Guerre des Mondes". Mais nous n'y arrivons pas. Au lieu de cela, nous parlons encore et encore de "menaces" potentielles et promulguons des mesures de sécurité et de secret sans fin. Et ensuite nous nous demandons pourquoi personne ne comprend cela ? En conséquence de ces actions, les témoins humains, leurs observations, leurs transformations et leurs traumatismes sont ignorés avec arrogance et dédaignés comme étant "anecdotiques" et donc indignes d'être étudiés.

J'avoue que je méprise l'aspect narquois de ce mot - anecdotique - et la façon dont il empêche une enquête complète. Toute expérience humaine, après tout, est techniquement "anecdotique". En ce sens, je suis moi aussi une "anecdote". Vous aussi. Nous le sommes tous. Et pourtant, il n'y a pas de science ou de mathématiques, pas de littérature, de langue, d'art ou de religion, et certainement pas d'OVNI, sans ce sujet humain, sans ce témoin anecdotique, ce penseur ou ce voyant. Alors pourquoi ne parlons-nous pas des expériences de ces témoins humains et de la façon dont ce phénomène semble déclencher ou catalyser l'imagination humaine de manière fantastique ? Pourquoi ne voyons-nous pas avec empathie ces drames, soi-disant imaginaires, comme des signes significatifs au lieu de les ignorer avec arrogance comme de l'écume neurologique ? Pourquoi ne parlons-nous pas de ce qu'il advient des pilotes terrifiés, des professionnels de l'armée désorientés, ou des citoyens confus qui voient ces choses, parfois de très près et de manière très personnelle ? Cela ne fait-il pas également partie du phénomène OVNI ? Pourquoi détournons-nous le regard ? Et de quoi ?

RN : - Ce serait le sujet d'une nouvelle conversation. Comment voulez-vous conclure ?

JK : On a jamais fini avec ça. J'aimerais conclure en mettant l'accent sur le fait que la pièce de technologie la plus sophistiquée sur terre pour détecter des présences non humaines ou surhumaines n'est pas un ordinateur quantique ou un système de radar militaire avancé. C'est le corps, le cerveau et l'être humain évolué. Je voudrais également suggérer que l'humain détecte d'étranges présences humanoïdes dans le ciel et l'environnement non pas depuis quelques années ou quelques décennies, mais depuis des millénaires. Tout ce que nous avons à faire est d'ouvrir nos yeux et regarder. Il suffit de ranger notre marteau et de regarder attentivement l'histoire, nos littératures et, surtout, nos religions.

Ainsi au sein de cette nouvelle grande toile humaniste et historique, ce que nous rencontrons dans le ciel et voyons du sol aujourd'hui, pourra prendre des significations fondamentalement nouvelles, et d'autres futurs potentiels. Je ne prétends pas savoir ce que cela impliquera - et ne crois certainement pas non plus aux mythologies régnantes, qu'elles soient politiques, séculaires ou religieuses - mais je parie qu'elles auront très peu à voir avec l'évaluation de ces "menaces". C'est la vieille mythologie de la guerre froide qu'il est temps de dépasser, et bien au-delà.

RN : Vous parlez de l'absence de toute limite.

JK : Oui. Il n'y en a aucune.

Auteur: Kripal Jeffrey

Info: Entretien avec Katharine Shilcut sur " how to think about the UFO phenomenon" http://news.rice.edu/ - June 30, 2021

[ US paranoïa ] [ rencontre du 3e type ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

capitalisme

Les élites ne nous sauveront pas
L’attaque, qui dure depuis quatre décennies contre nos institutions démocratiques par les grandes entreprises, les a laissé faibles et largement dysfonctionnelles. Ces institutions, qui ont renoncé à leur efficacité et à leur crédibilité pour servir les intérêts des entreprises, auraient dû être notre pare-feu. Au lieu de quoi, elles chancellent sous l’assaut.
Les syndicats sont une force du passé. La presse est transformée en industrie et suscite la méfiance. Les universités ont été purgées des chercheurs dissidents et indépendants qui critiquent le néolibéralisme et dénoncent la décomposition des institutions démocratiques et des partis politiques. La radio-télévision publique et les arts ne sont plus financés et sont laissés moribonds. Les tribunaux ont été noyautés par des juges dont la carrière juridique s’est passé à servir le pouvoir des grandes sociétés, une tendance dans les nominations qui s’est poursuivie sous Barack Obama. L’argent a remplacé le vote, ce qui explique comment quelqu’un d’aussi non qualifié comme Betsy DeVos peut s’acheter un siège dans un ministère. Le parti démocrate, plutôt que de rompre ses liens avec Wall Street et les grandes entreprises, attend naïvement en coulisse de profiter d’une débâcle de Trump.
"Le plus grand atout de Trump est un parti démocrate décadent, désemparé, narcissique, inféodé aux entreprises et belliciste, m’a dit Ralph Nader lorsque je l’ai joint au téléphone à Washington. Si la stratégie démocrate est d’attendre Godot, attendre que Trump implose, nous sommes en difficulté. Et tout ce que vous dites des démocrates, vous pouvez aussi le dire de l’AFL-CIO [le principal regroupement syndical américain, NdT]. Ils ne contrôlent pas le train."
La perte de crédibilité dans les institutions démocratiques a jeté le pays dans une crise tant existentielle qu’économique. Des dizaines de millions de gens ne font plus confiance aux tribunaux, aux universités et à la presse, qu’ils voient avec raison comme les organes des élites des grandes sociétés. Ces institutions sont traditionnellement les mécanismes par lesquels une société est capable de démasquer les mensonges des puissants, de critiquer les idéologies dominantes et de promouvoir la justice. Parce que les Américains ont été amèrement trahis par leurs institutions, le régime de Trump peut attaquer la presse comme le "parti d’opposition", menacer de couper le financement des universités, se moquer d’un juge fédéral comme d’un "soi-disant juge" et dénoncer une ordonnance d’un tribunal comme "scandaleuse".
La dégradation des institutions démocratiques est la condition préalable à la montée de régimes autoritaires ou fascistes. Cette dégradation a donné de la crédibilité à un menteur pathologique. L’administration Trump, selon un sondage de l’Emerson College, est considérée comme fiable par 49% des électeurs inscrits tandis que les médias ne sont tenus pour fiables que par 39% des électeurs inscrits. Une fois que les institutions démocratiques américaines ne fonctionnent plus, la réalité devient n’importe quelle absurdité que publie la Maison Blanche.
La plupart des règles de la démocratie ne sont pas écrites. Ces règles déterminent le comportement public et garantissent le respect des normes, des procédures et des institutions démocratiques. Le président Trump, à la grande joie de ses partisans, a rejeté cette étiquette politique et culturelle.
Hannah Arendt, dans Les origines du totalitarisme, notait que lorsque les institutions démocratiques s’effondrent, il est "plus facile d’accepter des propositions manifestement absurdes que les anciennes vérités qui sont devenues de pieuses banalités". Le bavardage des élites dirigeantes libérales ["progressistes", NdT] sur notre démocratie est lui-même une absurdité. "La vulgarité, avec son rejet cynique des normes respectées et des théories admises", écrit-elle, infecte le discours politique. Cette vulgarité est "confondue avec le courage et un nouveau style de vie".
"Il détruit un code de comportement après l’autre, dit Nader de Trump. Il est rendu si loin dans cette façon de faire sans en payer le prix. Il brise les normes de comportement – ce qu’il dit des femmes, la commercialisation de la Maison Blanche, "je suis la loi"."
Nader m’a dit qu’il ne pensait pas que le parti républicain se retournera contre Trump ou envisagera la destitution, à moins que sa présidence ne semble menacer ses chances de conserver le pouvoir aux élections de 2018. Nader voir le parti démocrate comme "trop décadent et incompétent" pour contester sérieusement Trump. L’espoir, dit-il, vient des nombreuses protestations qui ont été organisées dans les rues, devant les mairies par les membres du Congrès et sur des points chauds comme Standing Rock. Il peut aussi venir des 2.5 millions de fonctionnaires du gouvernement fédéral si un nombre significatif d’entre eux refuse de coopérer avec l’autoritarisme de Trump.
"Le nouveau président est tout à fait conscient du pouvoir détenu par les fonctionnaires civils, qui prêtent serment d’allégeance à la constitution des États-Unis, et non à un président ou à une administration", écrit Maria J. Stephan, co-auteure de Why Civil Resistance Works dans le Washington Post. "L’un des premiers actes de Trump en tant que président a été un gel général du recrutement fédéral qui touche tous les nouveaux postes et les postes existants exceptés ceux liés à l’armée, à la sécurité nationale et à la sécurité publique. Même avant l’investiture de Trump, la Chambre des représentants dominée par les Républicains a réinstauré une obscure règle de 1876 qui autoriserait le Congrès à réduire les salaires des employés fédéraux individuels. C’était un avertissement clair à ceux qui sont au service du gouvernement de garder le profil bas. Le licenciement très médiatisé par Trump du procureur général par intérim Sally Yates, qui a refusé de suivre l’interdiction d’immigration du président, a envoyé des ondes de choc dans la bureaucratie."
Un soulèvement populaire, soutenu à l’échelle nationale, d’obstruction et de non-coopération non violente est la seule arme qui reste pour sauver la république. Les élites répondront une fois qu’elles auront peur. Si nous ne leur faisons pas peur, nous échouerons.
"La résilience des institutions démocratiques a été encourageante – les tribunaux, les manifestations, dit Nader. Trump se retourne contre lui-même. Il outrage les gens dans tout le pays sur la base de la race, du genre, de la classe, de la géographie, de ses mensonges, ses fausses déclarations, son narcissisme, son manque de connaissances, sa désinvolture et son désir morbide de répondre aux insultes avec des tweets. Il n’est pas un autocrate intelligent. Il s’affaiblit chaque jour. Il permet à l’opposition d’avoir plus d’effet que d’ordinaire."
"La plupart des chefs d’État dictatoriaux s’occupent d’idéologies abstraites – la patrie et ainsi de suite, poursuit Nader. Il n’en fait pas beaucoup sur ce plan. Il attaque personnellement, vise bas sur l’échelle de la sensualité. Vous êtes un faux. Vous êtes un perdant. Vous êtes un escroc. Cela pique davantage les gens, en particulier lorsqu’il le fait en se basant sur le genre, la race et la religion. Donald Trump est ce qu’il y a de mieux pour le réveil démocratique."
Nader dit que Trump sera pourtant capable de consolider son pouvoir si nous subissons un nouvel attentat terroriste catastrophique ou s’il y a une débâcle financière. Les régimes dictatoriaux ont besoin d’une crise, qu’elle soit réelle ou fabriquée, pour justifier la suspension totale des libertés civiles et exercer un contrôle incontesté.
"S’il y a un attentat terroriste apatride sur les États-Unis, il est capable de concentrer une quantité de pouvoir dans la Maison Blanche contre les tribunaux et contre le Congrès, avertit Nader. Il fera des boucs émissaires de ceux qui s’opposent à lui. […] Cela affaiblira toute résistance et toute opposition."
La tension entre la Maison Blanche de Trump et des segments de l’establishment, y compris les tribunaux, la communauté du renseignement et le Département d’État, a été mal interprétée comme une preuve que les élites veulent éloigner Trump du pouvoir. Si les élites peuvent établir des relations avec le régime de Trump pour maximiser leurs profits et protéger leurs intérêts personnels et de classe, elles supporteront volontiers l’embarras d’avoir un démagogue dans le bureau ovale.
L’État des grandes entreprises, ou l’État profond, n’a pas non plus d’engagement à l’égard de la démocratie. Ses forces ont évidé les institutions démocratiques pour les rendre impuissantes. La différence entre le pouvoir des entreprises et le régime de Trump est que le pouvoir des entreprises a cherché à maintenir la fiction de la démocratie, y compris la déférence polie accordée en public aux institutions démocratiques. Trump a effacé cette déférence. Il a plongé le discours politique dans les égouts. Trump ne détruit pas les institutions démocratiques. Elles avaient été détruites avant qu’il entre en fonction.
Même les régimes fascistes les plus virulents ont construit des alliances fragiles avec les élites conservatrices et d’affaires traditionnelles, qui considéraient souvent les fascistes comme maladroits et grossiers.
"Nous n’avons jamais connu un régime fasciste idéologiquement pur", écrit Robert O. Paxton dans The Anatomy of Fascism. "En effet, la chose semble à peine possible. Chaque génération de chercheurs sur le fascisme a noté que les régimes reposaient sur une sorte de pacte ou d’alliance entre le parti fasciste et des forces conservatrices puissantes. Au début des années 1940, le réfugié social-démocrate Franz Neumann a soutenu dans son classique Behemoth qu’un ‘cartel’ formé du parti, de l’industrie, de l’armée et de la bureaucratie régnait sur l’Allemagne nazie, tenu ensemble uniquement par ‘le profit, le pouvoir, le prestige et, surtout, la peur’."
Les régimes fascistes et autoritaires sont gouvernés par de multiples centres de pouvoir qui sont souvent en concurrence les uns avec les autres et ouvertement antagonistes. Ces régimes, comme l’écrit Paxton, reproduisent le "principe du chef" de manière à ce qu’il "descende en cascade le long de la pyramide sociale et politique, créant une foule de petits Führer et Duce en état de guerre hobbesienne de tous contre tous."
Les petits Führer et Duce sont toujours des bouffons. Des démagogues aussi plastronnant ont consterné les élites libérales dans les années 1930. Le romancier allemand Thomas Mann a écrit dans son journal deux mois après l’arrivée des nazis au pouvoir qu’il avait assisté à une révolution "sans idées qui la fondaient, contre les idées, contre tout ce qui est plus noble, meilleur, décent, contre la liberté, la vérité et la justice". Il déplorait que la "lie commune" ait pris le pouvoir "accompagnée de la grande joie d’une bonne partie des masses". Les élites d’affaires en Allemagne n’ont peut-être pas aimé cette "lie", mais elles étaient disposées à travailler avec elle. Et nos élites d’affaires feront la même chose aujourd’hui.
Trump, un produit de la classe des milliardaires, conciliera ces intérêts privés, parallèlement à la machine de guerre, pour construire une alliance mutuellement acceptable. Les laquais au Congrès et dans les tribunaux, les marionnettes des grandes entreprises, seront, je m’y attends, pour la plupart dociles. Et si Trump est destitué, les forces réactionnaires qui cimentent l’autoritarisme en place trouveront un champion dans le vice-président Mike Pence, qui place fiévreusement des membres de la droite chrétienne dans tout le gouvernement fédéral.
"Pence est le président parfait pour les chefs républicains qui contrôlent le Congrès, dit Nader. Il est juste hors du casting principal. Il regarde la partie. Il parle de la partie. Il joue son rôle. Il a connu la partie. Ça ne les dérangerait pas si Trump quittait sa fonction subitement ou s’il devait démissionner. […]"
Nous sommes aux stades crépusculaires du coup d’État permanent des grandes entreprises entamé il y a quarante ans. Il ne nous reste pas grand-chose pour travailler. Nous ne pouvons pas faire confiance à nos élites. Nous devons nous mobiliser pour mener des actions de masse répétées et soutenues. Attendre que l’establishment décapite Trump et restaure la démocratie serait un suicide collectif.

Auteur: Hedges Chris

Info: 12 février 2017, Source Truthdig

[ Usa ] [ vingt-et-unième siècle ]

 

Commentaires: 0

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

civilisation

Pour expliquer les États-Unis d'Amérique, on les a comparés, avec raison, à un creuset. L'Amérique est en effet un de ces cas où, à partir d'une matière première on ne peut plus hétérogène, a pris naissance un type d'homme dont les caractéristiques sont, dans une large mesure, uniformes et constantes. Des hommes des peuples les plus divers reçoivent donc, en s'installant en Amérique, la même empreinte. Presque toujours, après deux générations, ils perdent leurs caractéristiques originelles et reproduisent un type assez unitaire pour ce qui est de la mentalité, de la sensibilité et des modes de comportement : le type américain justement.

Mais, dans ce cas précis, des théories comme celles formulées par Frobenius et Spengler – il y a aurait une étroite relation entre les formes d'une civilisation et une sorte d' "âme" liée au milieu naturel, au "paysage" et à la population originelle – ne semblent pas pertinentes. S'il en était ainsi, en Amérique l'élément constitué par les Amérindiens, par les Peaux-Rouges, aurait dû jouer un rôle important. Les Peaux-Rouges étaient une race fière, possédant style, dignité, sensibilité et religiosité ; ce n'est pas sans raison qu'un auteur traditionaliste, F. Schuon, a parlé de la présence en eux de quelque chose "d'aquilin et de solaire". Et nous n'hésitons pas à affirmer que si leur esprit avait marqué, sous ses meilleurs aspects et sur un plan adéquat, la matière mélangée dans le "creuset américain", le niveau de la civilisation américaine aurait été probablement plus élevé. Mais, abstraction faite de la composante puritaine et protestante (qui se ressent à son tour, en raison de l'insistance fétichiste sur l'Ancien Testament, d'influences judaïsantes négatives), il semble que ce soit l'élément noir, avec son primitivisme, qui ait donné le ton à bien des traits décisifs de la mentalité américaine.

Une première chose est, à elle seule, caractéristique : quand on parle de folklore en Amérique, c'est aux Noirs qu'on pense, comme s'ils avaient été les premiers habitants du pays. Si bien qu'on traite, aux États-Unis, comme un oeuvre classique inspirée du "folklore américain", le fameux Porgy and Bess du musicien d'origine juive Gershwin, oeuvre qui ne parle que des Noirs. Cet auteur déclara d'ailleurs que, pour écrire son oeuvre, il se plongea pendant un certain temps dans l'ambiance des Noirs américains. Le phénomène représenté par la musique légère et la danse est encore plus frappant. On ne peut pas donner tort à Fitzgerald, qui a dit que, sous un de ses principaux aspects, la civilisation américaine peut être appelée une civilisation du jazz, ce qui veut dire d'une musique et d'une danse d'origine noire ou négrifiée. Dans ce domaine, des "affinités électives" très singulières ont amené l'Amérique, tout au long d'un processus de régression et de retour au primitif, à s'inspirer justement des Noirs, comme si elle n'avait pas pu trouver, dans son désir compréhensible de création de rythmes et de formes frénétiques en mesure de compenser le côté desséché de la civilisation mécanique et matérielle moderne, rien de mieux. Alors que de nombreuses sources européennes s'offraient à elle - nous avons déjà fait allusion, en une autre occasion, aux rythmes de danse de l'Europe balkanique, qui ont vraiment quelque chose de dionysiaque. Mais l'Amérique a choisi les Noirs et les rythmes afro-cubains, et la contagion, à partir d'elle, a gagné peu à peu les autres pays.

Le psychanalyste C.-G. Jung avait déjà remarqué la composante noire du psychisme américain. Certaines de ses observations méritent d'être reproduites ici : "Ce qui m'étonna beaucoup, chez les Américains, ce fut la grande influence du Noir. Influence psychologique, car je ne veux pas parler de certains mélanges de sang. Les expressions émotives de l'Américain et, en premier lieu, sa façon de rire, on peut les étudier fort bien dans les suppléments des journaux américains consacrés au society gossip. Cette façon inimitable de rire, de rire à la Roosevelt, est visible chez le Noir américain sous sa forme originelle. Cette manière caractéristique de marcher, avec les articulations relâchées ou en balançant des hanches, qu'on remarque souvent chez les Américains, vient des Noirs. La musique américaine doit aux Noirs l'essentiel de son inspiration. Les danses américaines sont des danses de Noirs. Les manifestations du sentiment religieux, les revival meetings, les holy rollers et d'autres phénomènes américains anormaux sont grandement influencés par le Noir. Le tempérament extrêmement vif en général, qui s'exprime non seulement dans un jeu comme le base ball, mais aussi, et en particulier, dans l'expression verbale – le flux continu, illimité, de bavardages, typique des journaux américains, en est un exemple remarquable –, ne provient certainement pas des ancêtres d'origine germanique, mais ressemble au chattering de village nègre. L'absence presque totale d'intimité et la vie collective qui contient tout rappellent, en Amérique, la vie primitive des cabanes ouvertes où règne une promiscuité complète entre les membres de la tribu".

Poursuivant des observations de ce genre, Jung a fini par se demander si les habitants du nouveau continent peuvent encore être considérés comme des Européens. Mais ses remarques doivent être prolongées. Cette brutalité, qui est un des traits évidents de l'Américain, on peut dire qu'elle possède une empreinte noire. D'une manière générale, le goût de la brutalité fait désormais partie de la mentalité américaine. II est exact que le sport le plus brutal, la boxe, est né en Angleterre ; mais il est tout aussi exact que c'est aux États-Unis qu'il a connu les développements les plus aberrants au point de faire l'objet d'un véritable fanatisme collectif, bien vite transmis aux autres peuples. En ce qui concerne la tendance à en venir aux mains de la façon la plus sauvage qui soit, il suffit d'ailleurs de songer à une quantité de films américains et à l'essentiel de la littérature populaire américaine, la littérature "policière" : les coups de poing y sont monnaie courante, parce qu'ils répondent évidemment aux goûts des spectateurs et des lecteurs d'outre-Atlantique, pour lesquels la brutalité semble être la marque de la vraie virilité. La nation-guide américaine a depuis longtemps relégué, plus que toute autre, parmi les ridicules antiquailles européennes, la manière de régler un différend par les voies du droit, en suivant des normes rigoureuses, sans recourir à la force brute et primitive du bras et du poing, manière qui pouvait correspondre au duel traditionnel. On ne peut que souligner l'abîme séparant ce trait de la mentalité américaine de ce que fut l'idéal de comportement du gentleman anglais, et ce, bien que les Anglais aient été une composante de la population blanche originelle des États-Unis. On peut comparer l'homme occidental moderne, qui est dans une large mesure un type humain régressif, à un crustacé : il est d'autant plus "dur" dans son comportement extérieur d'homme d'action, d'entrepreneur sans scrupules, qu'il est "mou" et inconsistant sur le plan de l'intériorité. Or, cela est éminemment vrai de l'Américain, en tant qu'il incarne le type occidental dévié jusqu'à l'extrême limite.

On rencontre ici une autre affinité avec le Noir. Un sentimentalisme fade, un pathos banal, notamment dans les relations sentimentales, rapprochent bien plus l'Américain du Noir que de l'Européen vraiment civilisé. L'observateur peut à ce sujet tirer aisément les preuves irréfutables à partir de nombreux romans américains typiques, à partir aussi des chansons, du cinéma et de la vie privée courante. Que l'érotisme de l'Américain soit aussi pandémique que techniquement primitif, c'est une chose qu'ont déplorée aussi et surtout des jeunes filles et des femmes américaines. Ce qui ramène une fois de plus aux races noires, chez lesquelles l'importance, parfois obsessionnelle, qu'ont toujours eu l'érotisme et la sexualité, s'associe, justement, à un primitivisme ; ces races, à la différence des Orientaux, du monde occidental antique et d'autres peuples encore, n'ont jamais connu un ars amatoria digne de ce nom. Les grands exploits sexuels, si vantés, des Noirs, n'ont en réalité qu'un grossier caractère quantitatif et priapique.

Un autre aspect typique du primitivisme américain concerne l'idée de "grandeur". Werner Sombart a parfaitement vu la chose en disant : they mistake bigness for greatness, phrase qu'on pourrait traduire ainsi : ils prennent la grandeur matérielle pour la vraie grandeur, pour la grandeur spirituelle. Or, ce trait n'est pas propre à tous les peuples de couleur en général. Par exemple, un Arabe de vieille race, un Peau-Rouge, un Extrême-Oriental ne se laissent pas trop impressionner par tout ce qui est grandeur de surface, matérielle, quantitative, y compris la grandeur liée aux machines, à la technique, à l'économie (abstraction faite, naturellement, des éléments déjà occidentalisés de ces peuples). Pour se laisser prendre par tout cela ; il fallait une race vraiment primitive et infantile comme la race noire. Il n'est donc pas exagéré de dire que le stupide orgueil des Américains pour la "grandeur" spectaculaire, pour les achievements de leur civilisation, se ressent lui aussi d'une disposition du psychisme nègre. On peut aussi parler d'une des bêtises que l'on entend souvent répéter, à savoir que les Américains seraient une "race jeune", avec pour corollaire tacite que c'est à eux qu'appartient l'avenir. Car un regard myope peut facilement confondre les traits d'une jeunesse effective avec ceux d'un infantilisme régressif. Du reste, il suffit de reprendre la conception traditionnelle pour que la perspective soit renversée. En dépit des apparences, les peuples récemment formés doivent être considérés comme les peuples les plus vieux et, éventuellement, comme des peuples crépusculaires, parce qu'ils sont venus en dernier justement, parce qu'ils sont encore plus éloignés des origines.

Cette manière de voir les choses trouve d'ailleurs une correspondance dans le monde des organismes vivants. Ceci explique la rencontre paradoxale des peuples présumés "jeunes" (au sens de peuples venus en dernier) avec des races vraiment primitives, toujours restées en dehors de la grande histoire ; cela explique le goût de ce qui est primitif et le retour à ce qui est primitif. Nous l'avons déjà fait remarquer à propos du choix fait par les Américains, à cause d'une affinité élective profonde, en faveur de la musique nègre et sub-tropicale ; mais le même phénomène est perceptible aussi dans d'autres domaines de la culture et de l'art. On peut se référer, par exemple, au culte assez récent de la négritude qu'avaient fondé en France des existentialistes, des intellectuels et des artistes "progressistes".

Une autre conclusion à tirer de tout cela, c'est que les Européens et les représentants de civilisations supérieures non européennes font preuve, à leur tour, de la même mentalité de primitif et de provincial lorsqu'ils admirent l'Amérique, lorsqu'ils se laissent impressionner par l'Amérique, lorsqu'ils s'américanisent avec stupidité et enthousiasme, croyant ainsi marcher au pas du progrès et témoigner d'un esprit "libre" et "ouvert". La marche du progrès concerne aussi l' "intégration" sociale et culturelle du Noir, qui se répand en Europe même et qui est favorisée, même en Italie, par une action sournoise, notamment au moyen de films importés (où Blancs et Noirs remplissent ensemble des fonctions sociales : juges, policiers, avocats, etc.) et par la télévision, avec des spectacles où danseuses et chanteuses noires sont mélangées à des blanches, afin que le grand public s'accoutume peu à peu à la promiscuité des races, perde tout reste de conscience raciale naturelle et tout sentiment de la distance. Le fanatisme collectif qu'a provoqué en Italie, lors de ses exhibitions, cette masse de chair informe et hurlante qu'est la Noire Ella Fitzgerald, est un signe aussi triste que révélateur. On peut en dire autant du fait que l'exaltation la plus délirante de la "culture" nègre, de la négritude, soit due à un Allemand, Janheinz Jahn, dont le livre Muntu, publié par une vieille et respectable maison d'édition allemande (donc dans le pays du racisme aryen !), a été immédiatement traduit et diffusé par un éditeur italien de gauche bien connu, Einaudi. Dans cet ouvrage invraisemblable, l'auteur en arrive à soutenir que la "culture" nègre serait un excellent moyen de relever et de régénérer la "civilisation matérielle" occidentale... Au sujet des affinités électives américaines, nous ferons allusion à un dernier point. On peut dire qu'il y a eu aux États-Unis d'Amérique quelque chose de valable, vraiment prometteur : le phénomène de cette jeune génération qui prônait une sorte d'existentialisme révolté, anarchiste, anticonformiste et nihiliste ; ce qu'on a appelé la beat generation, les beats, les hipsters et compagnie, sur lesquels nous reviendrons d'ailleurs. Or, même dans ce cas, la fraternisation avec les Noirs, l'instauration d'une véritable religion du jazz nègre, la promiscuité affichée, y compris sur le plan sexuel, avec les Noirs, ont fait partie des caractéristiques de ce mouvement.

Dans un essai célèbre, Norman Mailer, qui a été un des principaux représentants de la beat generation, avait même établi une sorte d'équivalence entre le Noir et le type humain de la génération en question ; il avait carrément appelé ce dernier the white Negro, le "nègre blanc". A ce propos, Fausto Gianfranceschi a écrit très justement : "En raison de la fascination exercée par la 'culture' nègre, sous la forme décrite par Mailer, on ne peut s'empêcher d'établir immédiatement un parallèle – irrespectueux – avec l'impression que fit le message de Friedrich Nietzsche au début du XIXe siècle. Le point de départ, c'est le même désir de rompre tout ce qui est fossilisé et conformiste par une prise de conscience brutale du donné vital et existentiel ; mais quelle confusion lorsqu'on met le Noir, comme on l'a fait de nos jours, avec le jazz et l'orgasme sexuel, sur le piédestal du "surhomme" !

Pour la bonne bouche nous terminerons par un témoignage significatif dû à un écrivain américain particulièrement intéressant, James Burnham (dans "The struggle for the world") : "On trouve dans la vie américaine les signes d'une indiscutable brutalité. Ces signes se révèlent aussi bien dans le lynchage et le gangstérisme que dans la prétention et la goujaterie des soldats et des touristes à l'étranger. Le provincialisme de la mentalité américaine s'exprime par un manque de compréhension pour tout autre peuple et toute autre culture. Il y a, chez de nombreux Américains, un mépris de rustre pour les idées, les traditions, l'histoire, un mépris lié à l'orgueil pour les petites choses dues au progrès matériel. Qui, après avoir écouté une radio américaine, ne sentira pas un frisson à la pensée que le prix de la survie serait l'américanisation du monde ?"

Ce qui, malheureusement, est déjà en train de se produire sous nos yeux.

Auteur: Evola Julius

Info: L'arc et la massue (1971, 275p.)

[ racialisme ] [ melting-pot ] [ nouveau monde ] [ désintégration ] [ ethno-différentialisme ]

 
Commentaires: 2

homme-machine

Une nouvelle approche du calcul réinvente l'intelligence artificielle

Par l'imprégnation d'énormes vecteurs de sens sémantique, nous pouvons amener les machines à raisonner de manière plus abstraite et plus efficace qu'auparavant.

M
algré le succès retentissant de ChatGPT et d'autres grands modèles de langage, les réseaux de neurones artificiels (ANN) qui sous-tendent ces systèmes pourraient être sur la mauvaise voie.

D'une part, les ANN sont "super gourmands en énergie", a déclaré Cornelia Fermüller , informaticienne à l'Université du Maryland. "Et l'autre problème est [leur] manque de transparence." De tels systèmes sont si compliqués que personne ne comprend vraiment ce qu'ils font, ou pourquoi ils fonctionnent si bien. Ceci, à son tour, rend presque impossible de les amener à raisonner par analogie, ce que font les humains - en utilisant des symboles pour les objets, les idées et les relations entre eux.

Ces lacunes proviennent probablement de la structure actuelle des RNA et de leurs éléments constitutifs : les neurones artificiels individuels. Chaque neurone reçoit des entrées, effectue des calculs et produit des sorties. Les RNA modernes sont des réseaux élaborés de ces unités de calcul, formés pour effectuer des tâches spécifiques.

Pourtant, les limites des RNA sont évidentes depuis longtemps. Considérez, par exemple, un ANN qui sépare les cercles et les carrés. Une façon de le faire est d'avoir deux neurones dans sa couche de sortie, un qui indique un cercle et un qui indique un carré. Si vous voulez que votre ANN discerne également la couleur de la forme - bleu ou rouge - vous aurez besoin de quatre neurones de sortie : un pour le cercle bleu, le carré bleu, le cercle rouge et le carré rouge. Plus de fonctionnalités signifie encore plus de neurones.

Cela ne peut pas être la façon dont notre cerveau perçoit le monde naturel, avec toutes ses variations. "Vous devez proposer que, eh bien, vous avez un neurone pour toutes les combinaisons", a déclaré Bruno Olshausen , neuroscientifique à l'Université de Californie à Berkeley. "Donc, vous auriez dans votre cerveau, [disons,] un détecteur Volkswagen violet."

Au lieu de cela, Olshausen et d'autres soutiennent que l'information dans le cerveau est représentée par l'activité de nombreux neurones. Ainsi, la perception d'une Volkswagen violette n'est pas codée comme les actions d'un seul neurone, mais comme celles de milliers de neurones. Le même ensemble de neurones, tirant différemment, pourrait représenter un concept entièrement différent (une Cadillac rose, peut-être).

C'est le point de départ d'une approche radicalement différente de l'informatique connue sous le nom d'informatique hyperdimensionnelle. La clé est que chaque élément d'information, comme la notion d'une voiture, ou sa marque, son modèle ou sa couleur, ou tout cela ensemble, est représenté comme une seule entité : un vecteur hyperdimensionnel.

Un vecteur est simplement un tableau ordonné de nombres. Un vecteur 3D, par exemple, comprend trois nombres : les coordonnées x , y et z d'un point dans l'espace 3D. Un vecteur hyperdimensionnel, ou hypervecteur, pourrait être un tableau de 10 000 nombres, par exemple, représentant un point dans un espace à 10 000 dimensions. Ces objets mathématiques et l'algèbre pour les manipuler sont suffisamment flexibles et puissants pour amener l'informatique moderne au-delà de certaines de ses limites actuelles et favoriser une nouvelle approche de l'intelligence artificielle.

"C'est ce qui m'a le plus enthousiasmé, pratiquement de toute ma carrière", a déclaré Olshausen. Pour lui et pour beaucoup d'autres, l'informatique hyperdimensionnelle promet un nouveau monde dans lequel l'informatique est efficace et robuste, et les décisions prises par les machines sont entièrement transparentes.

Entrez dans les espaces de grande dimension

Pour comprendre comment les hypervecteurs rendent le calcul possible, revenons aux images avec des cercles rouges et des carrés bleus. Nous avons d'abord besoin de vecteurs pour représenter les variables SHAPE et COLOR. Ensuite, nous avons également besoin de vecteurs pour les valeurs pouvant être affectées aux variables : CERCLE, CARRÉ, BLEU et ROUGE.

Les vecteurs doivent être distincts. Cette distinction peut être quantifiée par une propriété appelée orthogonalité, ce qui signifie être à angle droit. Dans l'espace 3D, il existe trois vecteurs orthogonaux entre eux : un dans la direction x , un autre dans la direction y et un troisième dans la direction z . Dans un espace à 10 000 dimensions, il existe 10 000 vecteurs mutuellement orthogonaux.

Mais si nous permettons aux vecteurs d'être presque orthogonaux, le nombre de ces vecteurs distincts dans un espace de grande dimension explose. Dans un espace à 10 000 dimensions, il existe des millions de vecteurs presque orthogonaux.

Créons maintenant des vecteurs distincts pour représenter FORME, COULEUR, CERCLE, CARRÉ, BLEU et ROUGE. Parce qu'il y a tellement de vecteurs presque orthogonaux possibles dans un espace de grande dimension, vous pouvez simplement assigner six vecteurs aléatoires pour représenter les six éléments ; ils sont presque garantis d'être presque orthogonaux. "La facilité de créer des vecteurs presque orthogonaux est une raison majeure d'utiliser la représentation hyperdimensionnelle", a écrit Pentti Kanerva , chercheur au Redwood Center for Theoretical Neuroscience de l'Université de Californie à Berkeley, dans un article influent de 2009.

L'article s'appuyait sur des travaux effectués au milieu des années 1990 par Kanerva et Tony Plate, alors étudiant au doctorat avec Geoff Hinton à l'Université de Toronto. Les deux ont développé indépendamment l'algèbre pour manipuler les hypervecteurs et ont fait allusion à son utilité pour le calcul en haute dimension.

Étant donné nos hypervecteurs pour les formes et les couleurs, le système développé par Kanerva et Plate nous montre comment les manipuler à l'aide de certaines opérations mathématiques. Ces actions correspondent à des manières de manipuler symboliquement des concepts.

La première opération est la multiplication. C'est une façon de combiner les idées. Par exemple, multiplier le vecteur FORME par le vecteur CERCLE lie les deux en une représentation de l'idée "LA FORME est CERCLE". Ce nouveau vecteur "lié" est presque orthogonal à la fois à SHAPE et à CIRCLE. Et les composants individuels sont récupérables - une caractéristique importante si vous souhaitez extraire des informations à partir de vecteurs liés. Étant donné un vecteur lié qui représente votre Volkswagen, vous pouvez dissocier et récupérer le vecteur pour sa couleur : VIOLET.

La deuxième opération, l'addition, crée un nouveau vecteur qui représente ce qu'on appelle une superposition de concepts. Par exemple, vous pouvez prendre deux vecteurs liés, "SHAPE is CIRCLE" et "COLOR is RED", et les additionner pour créer un vecteur qui représente une forme circulaire de couleur rouge. Là encore, le vecteur superposé peut être décomposé en ses constituants.

La troisième opération est la permutation ; cela implique de réorganiser les éléments individuels des vecteurs. Par exemple, si vous avez un vecteur tridimensionnel avec des valeurs étiquetées x , y et z , la permutation peut déplacer la valeur de x vers y , y vers z et z vers x. "La permutation vous permet de construire une structure", a déclaré Kanerva. "Ça permet de gérer des séquences, des choses qui se succèdent." Considérons deux événements, représentés par les hypervecteurs A et B. Nous pouvons les superposer en un seul vecteur, mais cela détruirait les informations sur l'ordre des événements. La combinaison de l'addition et de la permutation préserve l'ordre ; les événements peuvent être récupérés dans l'ordre en inversant les opérations.

Ensemble, ces trois opérations se sont avérées suffisantes pour créer une algèbre formelle d'hypervecteurs permettant un raisonnement symbolique. Mais de nombreux chercheurs ont été lents à saisir le potentiel de l'informatique hyperdimensionnelle, y compris Olshausen. "Cela n'a tout simplement pas été pris en compte", a-t-il déclaré.

Exploiter le pouvoir

En 2015, un étudiant d'Olshausen nommé Eric Weiss a démontré un aspect des capacités uniques de l'informatique hyperdimensionnelle. Weiss a compris comment représenter une image complexe comme un seul vecteur hyperdimensionnel contenant des informations sur tous les objets de l'image, y compris leurs propriétés, telles que les couleurs, les positions et les tailles.

"Je suis pratiquement tombé de ma chaise", a déclaré Olshausen. "Tout d'un coup, l'ampoule s'est allumée."

Bientôt, d'autres équipes ont commencé à développer des algorithmes hyperdimensionnels pour reproduire des tâches simples que les réseaux de neurones profonds avaient commencé à effectuer environ deux décennies auparavant, comme la classification d'images.

Considérons un ensemble de données annotées composé d'images de chiffres manuscrits. Un algorithme analyse les caractéristiques de chaque image en utilisant un schéma prédéterminé. Il crée ensuite un hypervecteur pour chaque image. Ensuite, l'algorithme ajoute les hypervecteurs pour toutes les images de zéro pour créer un hypervecteur pour l'idée de zéro. Il fait ensuite la même chose pour tous les chiffres, créant 10 hypervecteurs "de classe", un pour chaque chiffre.

Maintenant, l'algorithme reçoit une image non étiquetée. Il crée un hypervecteur pour cette nouvelle image, puis compare l'hypervecteur aux hypervecteurs de classe stockés. Cette comparaison détermine le chiffre auquel la nouvelle image ressemble le plus.

Pourtant, ce n'est que le début. Les points forts de l'informatique hyperdimensionnelle résident dans la capacité de composer et de décomposer des hypervecteurs pour le raisonnement. La dernière démonstration en date a eu lieu en mars, lorsqu'Abbas Rahimi et ses collègues d'IBM Research à Zurich ont utilisé l'informatique hyperdimensionnelle avec des réseaux de neurones pour résoudre un problème classique de raisonnement visuel abstrait - un défi important pour les RNA typiques, et même certains humains. Connu sous le nom de matrices progressives de Raven, le problème présente des images d'objets géométriques dans, disons, une grille 3 par 3. Une position dans la grille est vide. Le sujet doit choisir, parmi un ensemble d'images candidates, l'image qui correspond le mieux au blanc.

"Nous avons dit:" C'est vraiment ... l'exemple qui tue pour le raisonnement abstrait visuel, allons-y "", a déclaré Rahimi.

Pour résoudre le problème à l'aide de l'informatique hyperdimensionnelle, l'équipe a d'abord créé un dictionnaire d'hypervecteurs pour représenter les objets dans chaque image ; chaque hypervecteur du dictionnaire représente un objet et une combinaison de ses attributs. L'équipe a ensuite formé un réseau de neurones pour examiner une image et générer un hypervecteur bipolaire - un élément peut être +1 ou -1 - aussi proche que possible d'une superposition d'hypervecteurs dans le dictionnaire ; l'hypervecteur généré contient donc des informations sur tous les objets et leurs attributs dans l'image. "Vous guidez le réseau de neurones vers un espace conceptuel significatif", a déclaré Rahimi.

Une fois que le réseau a généré des hypervecteurs pour chacune des images de contexte et pour chaque candidat pour l'emplacement vide, un autre algorithme analyse les hypervecteurs pour créer des distributions de probabilité pour le nombre d'objets dans chaque image, leur taille et d'autres caractéristiques. Ces distributions de probabilité, qui parlent des caractéristiques probables à la fois du contexte et des images candidates, peuvent être transformées en hypervecteurs, permettant l'utilisation de l'algèbre pour prédire l'image candidate la plus susceptible de remplir l'emplacement vacant.

Leur approche était précise à près de 88 % sur un ensemble de problèmes, tandis que les solutions de réseau neuronal uniquement étaient précises à moins de 61 %. L'équipe a également montré que, pour les grilles 3 par 3, leur système était presque 250 fois plus rapide qu'une méthode traditionnelle qui utilise des règles de logique symbolique pour raisonner, car cette méthode doit parcourir un énorme livre de règles pour déterminer la bonne prochaine étape.

Un début prometteur

Non seulement l'informatique hyperdimensionnelle nous donne le pouvoir de résoudre symboliquement des problèmes, mais elle résout également certains problèmes épineux de l'informatique traditionnelle. Les performances des ordinateurs d'aujourd'hui se dégradent rapidement si les erreurs causées, par exemple, par un retournement de bit aléatoire (un 0 devient 1 ou vice versa) ne peuvent pas être corrigées par des mécanismes de correction d'erreurs intégrés. De plus, ces mécanismes de correction d'erreurs peuvent imposer une pénalité sur les performances allant jusqu'à 25 %, a déclaré Xun Jiao , informaticien à l'Université de Villanova.

Le calcul hyperdimensionnel tolère mieux les erreurs, car même si un hypervecteur subit un nombre important de retournements de bits aléatoires, il reste proche du vecteur d'origine. Cela implique que tout raisonnement utilisant ces vecteurs n'est pas significativement impacté face aux erreurs. L'équipe de Jiao a montré que ces systèmes sont au moins 10 fois plus tolérants aux pannes matérielles que les ANN traditionnels, qui sont eux-mêmes des ordres de grandeur plus résistants que les architectures informatiques traditionnelles. "Nous pouvons tirer parti de toute [cette] résilience pour concevoir du matériel efficace", a déclaré Jiao.

Un autre avantage de l'informatique hyperdimensionnelle est la transparence : l'algèbre vous indique clairement pourquoi le système a choisi la réponse qu'il a choisie. Il n'en va pas de même pour les réseaux de neurones traditionnels. Olshausen, Rahimi et d'autres développent des systèmes hybrides dans lesquels les réseaux de neurones cartographient les éléments du monde physique en hypervecteurs, puis l'algèbre hyperdimensionnelle prend le relais. "Des choses comme le raisonnement analogique vous tombent dessus", a déclaré Olshausen. "C'est ce que nous devrions attendre de tout système d'IA. Nous devrions pouvoir le comprendre comme nous comprenons un avion ou un téléviseur.

Tous ces avantages par rapport à l'informatique traditionnelle suggèrent que l'informatique hyperdimensionnelle est bien adaptée à une nouvelle génération de matériel extrêmement robuste et à faible consommation d'énergie. Il est également compatible avec les "systèmes informatiques en mémoire", qui effectuent le calcul sur le même matériel qui stocke les données (contrairement aux ordinateurs von Neumann existants qui transfèrent inefficacement les données entre la mémoire et l'unité centrale de traitement). Certains de ces nouveaux appareils peuvent être analogiques, fonctionnant à très basse tension, ce qui les rend économes en énergie mais également sujets aux bruits aléatoires. Pour l'informatique de von Neumann, ce caractère aléatoire est "le mur que vous ne pouvez pas franchir", a déclaré Olshausen. Mais avec l'informatique hyperdimensionnelle, "vous pouvez simplement percer".

Malgré ces avantages, l'informatique hyperdimensionnelle en est encore à ses balbutiements. "Il y a un vrai potentiel ici", a déclaré Fermüller. Mais elle souligne qu'il doit encore être testé contre des problèmes du monde réel et à des échelles plus grandes, plus proches de la taille des réseaux de neurones modernes.

"Pour les problèmes à grande échelle, cela nécessite un matériel très efficace", a déclaré Rahimi. "Par exemple, comment [faites-vous] une recherche efficace sur plus d'un milliard d'articles ?"

Tout cela devrait venir avec le temps, a déclaré Kanerva. "Il y a d'autres secrets [que] les espaces de grande dimension détiennent", a-t-il déclaré. "Je vois cela comme le tout début du temps pour le calcul avec des vecteurs."

Auteur: Ananthaswamy Anil

Info: https://www.quantamagazine.org/ Mais 2023

[ machine learning ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie occidentale

Le symbolique, l'imaginaire et le réel : Lacan, Lévi-Strauss et Freud

" Tout comportement est communication." Gregory Bateson

Contrairement à l'expérience de la psychanalyse aux Etats-Unis, Freud arriva très tard en France où il fut plus ou moins réfuté par Sartre dans Son "Etre et Néant" avant même son arrivée. Curieusement, c'est à l'apogée de l'existentialisme et de la psychanalyse existentielle, dans les années cinquante et au début des années soixante, qu'un analyste français inconnu de la génération Sartre entama une relecture radicale des textes freudiens.
Son travail devait avoir une telle influence dans les années soixante-dix qu'il sauva entièrement Freud de l'orientation médicale positiviste apportée par la société psychanalytique parisienne, et réintégra son travail dans ce que les Français appellent encore les sciences humaines.
Il s'agit de Jacques Lacan, pilier de l'Ecole freudienne de Paris - styliste hermétique et obscur, conférencier envoûtant, penseur intransigeant et inflexible, profondément préoccupé par ses propres écrits et prérogatives - qui fut interdit par la Fédération internationale lorsque lui et ses collègues, principalement du à des rivalités internes, quittèrent la société parisienne en 1953.
Il y a sans doute plus d'anecdotes dénigrantes, et probablement calomnieuses, qui circulent sur Lacan au sein de l'incestueux climat intellectuel parisien que sur tout autre penseur influent. Mais si le travail de Lacan signifie quelque chose, nous devons séparer les idiosyncrasies personnelles bien connues de Lacan de la contribution unique qu'il apporta à notre compréhension de Freud.

Bien que Lacan ait commencé son oeuvre originale à la fin des années trente, sous l'influence de la phénoménologie et de l'existentialisme husserliens, ce n'est que dans les années soixante qu'il commença à être réellement écouté en France, et ses écrits ne commencèrent à arriver en Angleterre et aux Etats-Unis que récemment. S'attaquant à l'"intellectualisme" français et au culte de l'"expert", à l'"empirisme", tout comme à la "biologisation" britanniques et à l'"adaptation" et au "behaviorisme" américains dans une série de polémiques cinglantes, son seul travail a rendu impossible, à tout penseur français qui se respecte, de continuer à ignorer les textes de Freud. L'intégration de ce texte dans la culture du cogito cartésien a déjà eu des résultats surprenants et féconds. Reste à savoir ce que Lacan va faire passer aux Etats-Unis - où l'enthousiasme même de l'acceptation initiale de Freud par les Américains eut tendance à réduire ses idées à des banalités et ses théories quasi au statut de jeu social.

Nous découvrons maintenant, par exemple, un nouveau retour à la théorie de Breuer-Freud sur la catharsis thérapeutique - autrefois popularisée en tant que "psychodrame" - sous une nouvelle forme de "désublimation répressive" : thérapie du "cri primal". Mais les héros des talk-shows de fin de soirée vont et viennent avec une régularité monotone et, en fin de compte, il nous reste toujours les grandes œuvres du génie pour y méditer : Hegel, Marx, Freud, Dostoïevski, Rousseau, Balzac, pour ne citer que quelques-uns de nos prédécesseurs les plus récents. Et ce que nous découvrons, c'est que nous devons apprendre à lire avant de parler, que nous devons apprendre à les lire d'un point de vue social critique, aussi libre de préjugés ethnocentriques, socioéconomiques et culturels que possible.
En un mot, nous devons apprendre à lire dans une perspective non académique, dans la perspective d'une expérience de vie où ces auteurs et leurs quêtes personnelles font partie de notre quête individuelle et collective. Je préférerais lire l'Interprétation des rêves comme un roman, par exemple, ou le célèbre cas du docteur " psychotique " Schreber comme de la philosophie, ou les Frères Karamazov comme une étude métapsychologique, que l'inverse. Lacan a contribué à rendre ce genre de lecture possible.
Une grande partie de ce que Lacan cherchait à accomplir avec ses étudiants dans les années cinquante n'a plus grand intérêt aujourd'hui, car il s'agissait d'attaques contre la technique thérapeutique d'un groupe de psychanalystes français très peu doués, objectivées et liés à la culture. Mais son attaque contre la "psychologie de l'ego" de praticiens comme Hartmann, Kris et Lbwenstein, ou le "behaviorisme " de Massermann, est toujours valable (Lacan, 1956a ; Wilden, 196Sa : 1-87). Et ceux qui s'y sont opposés avec tant de véhémence en France constatent aujourd'hui qu'ils ne peuvent rejeter ses analyses critiques des textes freudiens et s'appeler encore Freudiens. Mais si Lacann inspira une école française d'analyse qui se veut anti-institutionnelle, anti-psychiatrique et profondément critique à la fois à l'égard de "l'ajustement" de l'individu et de ceux que Marcuse nommait "révisionnistes néofreudiens", il n'a probablement pas fait plus pour les pratiques analytiques que ce qui a été réalisé par des thérapeutes comme Laing, Esterson et Cooper, au Royaume-Uni, et par des gens comme Ruesch, Bateson, Haley, Weakland ou Jackson, aux Etats-Unis.
De plus, la psychanalyse est un privilège socio-économique réservé aux personnes qui ont argent et loisirs pour se faire plaisir. La question de "la guérison" est en tout cas tout à fait débattable, et nous savons bien que la psychologie, la psychiatrie et la psychothérapie en général ont toujours été les véhicules des valeurs du statu quo (à l'exception extraordinaire de Wilhelm Reich, dont les théories ne correspondent malheureusement jamais au niveau élevé de son engagement social).
Et comme la plupart d'entre nous apprenons à vivre avec nos blocages, il est alors très peu probable que nous devions apprendre un jour apprendre à vivre avec les effets aliénants de notre société unidimensionnelle et technologique en ayant à nous préoccuper de psychanalyse ? En tout état de cause, personne, en quête d'une perspective véritablement critique, ne tentera de construire une théorie de l'homme et de la femme essentiellement basée sur la psychologie humaine, car le "discours scientifique" de la psychologie vise à nier ou à omettre le contenu socio-économique collectif à l'intérieur duquel les facteurs psychologiques jouent leur rôle.
J'essaierai de montrer plus loin que l'axiomatique fermeture de la plupart des psychanalystes dans la plénitude de ce contexte - et, je crois, dans sa primauté - génère des problèmes purement logiques dans la théorie, problèmes dont elle n'est pas, logiquement, équipée pour les surmonter. Ainsi, ce qui apparaît dans la théorie logico-mathématique de Bateson de la " double liaison " (chapitre V) comme une oscillation, apparaît nécessairement en psychanalyse, sous une forme ou une autre, comme une théorie de la répétition. Lacan, par exemple, fit appel à Kierkegaard (Repetition, 1843) pour étayer son interprétation de Freud, et pourtant si l'on regarde de près les écrits de Kierkegaard, en particulier les siens propres ou ceux également publiés en 1843, on découvre que la théorie entière dépend de l'incapacité de Kierkegaard à dépasser, de manière logique ou existentielle, les injonctions (doubles liens) paradoxales qu'il reçoit de son environnement familial et social. Par conséquent, le voilà condamné à osciller sans cesse entre un "soit" et un "ou". Ce qui apparaît dans la théorie de Bateson comme une réponse nécessaire aux injonctions émanant des rapports de pouvoir et de domination dans l'ordre social, et qui apparaît généralement dans la psychanalyse, et plus particulièrement chez Lacan, comme de la "compulsion itérative". Ainsi, soit la responsabilité est renvoyée à l'individu (par les "instincts" ou quelque autre métaphore de ces constructions biomécaniques), soit, comme chez Lacan, elle se transforme subtilement en une forme "d'ordre naturel des choses", via les paradoxes que le langage crée dans la condition humaine.
Contrairement à la théorie du double lien, les deux points de vue supposent une homogénéité dans la société qui n'existe tout simplement pas et servent à rationaliser les dominations en refusant de traiter la relation entre pouvoir, connaissance et oppression, ils ne voient pas la différence, dans la société, entre ce que Marcuse appela "répression" et "sur-répression". Malgré l'incompréhension de Marcuse à l'égard du Freud "clinique" - et malgré sa dépendance à la théorie bioénergétique des instincts - la distinction est importante. Peu de théoriciens américains, par exemple, envisageraient sérieusement le calvaire des minorités américaines dans leur lutte pour les droits socio-économiques élémentaires, simplement en termes de "compulsion itératives" telle une révolte contre le père (ou la mère).
Il m'est impossible de parler de Freud ou de Lacan sans utiliser les contributions que Bateson et Marcuse - de manières différentes et même mutuellement opposées - ont apportées à notre compréhension des relations humaines. Il faut d'une part traiter la perception de la psychanalyse et de la psychologie comme des rationalisations des valeurs de notre culture (l'oppression des femmes, en particulier), et d'autre part, montrer comment elles peuvent contribuer à une dévalorisation de ces valeurs. L'analyse de Bateson des relations de pouvoir par la double contrainte est, je crois, essentielle à la théorie sociale et psychologique, et je ne sais comment expliquer la théorie de l'imaginaire de Lacan sans elle. En tout cas, Freud décrit la relation entre l'ego et l'idéal de l'ego en des termes similaires à ceux d'une double liaison (double bind, dans The Ego and the I, Standard Edition, XIX, 34) : "Tu devrais être ainsi (comme ton père), mais tu ne dois pas être ainsi (comme ton père)."
Dans le monde contemporain de la contestation, il n'y a aucune réponse à la façon dont la psychanalyse est régulièrement - et nécessairement - remise en question, si le Freud dont nous parlons est le déterminant hydraulique, instinctif, électromagnétique et entropique que nous pensions tous connaître.
Il y a une réponse, cependant, si nous découvrons la perspective communicationnelle et linguistique derrière l'acceptation explicite ou implicite par Freud des principes mécanistes de la science physique et économique du XIXe siècle. Après tout, la psychanalyse est bien la "cure parlante", comme Lacan n'a jamais manqué d'insister dessus, et les pages des écrits de Freud s'intéressent avant tout au langage. Bien plus intéressante que la théorie de l'ego, de la personnalité et du surmoi, par exemple, est la conception que Freud a de l'inconscient et du rêve comme des scènes (Darstellungen) de distorsions (Entstellungen) et de (re)présentations (Vorstellungen). Mieux que coller à la préoccupation contemporaine pour les systèmes et les structures que la "psychologie de l'ego" de Freud, dans son premier modèle de processus primaires et secondaires. Plus significative que son déterminisme il y a sa théorie de la "surdétermination" du symptôme ou du rêve, qui est un concept proche de la redondance en théorie de l'information et de l'équifinalité en gestaltisme et biologie.
Si nous devons rejeter les principes mécanistes du principe du plaisir, nous pouvons encore découvrir le modèle sémiotique des niveaux de communication dans les premiers travaux de Freud. Plus utile que la "deuxième" théorie du symbolisme (dérivée de Stekel), qui assimile les icônes ou les images (analogues) aux symboles sexuels (Jones, Ferenczi, et al.), est la "première" ou théorie "dialectique", qui dépend de la condensation et du déplacement des signes (Zeichen). Le rêve doit être traduit de l'image en texte avant de pouvoir être interprété (par le rêveur), et la refoulement est, comme le disait Freud en 1896, "un échec de la traduction". De plus, aucune théorie actuelle de la mémoire n'est essentiellement différente de la métaphore originale de Freud sur le "traçage" de voies via les traces de mémoire dans le cerveau.Je reviendrai dans un instant sur une description plus précise de l'orientation sémiotique et linguistique de Freud. Le fait est que, sans le travail de Lacan, je doute que nous aurions découvert ce Freud - bien que l'analyse de Karl Pribram du Projet neuropsychologique pour une psychologie scientifique (1895) aille dans le sens d'une relecture de Freud au moins au niveau de la théorie de l'information et du feedback (Pribram, 1962).
Le problème avec Lacan, c'est qu'à première vue, ses écrits sont presque impossibles à comprendre. Ses Ecrits (1966) - et seul un Lacan pouvait avoir l'orgueil d'intituler son oeuvre simplement "Écrits" - titre peut-être plus à lire comme "discours de schizophrène" - ou comme de la poésie ou autres absurdités, selon vos préjugés et votre tendance au transfert positif ou négatif - que tout autre.
L'hermétisme de Lacan ne peut être excusé - pas plus que son attitude envers le lecteur, qui pourrait s'exprimer ainsi : "aime-le" ou "c'est à prendre ou à laisser". Mais bien que la destruction personnelle de la syntaxe française par Lacan le rende assez ardu même pour le lecteur français, il y a au moins une tradition intellectuelle suffisamment homogène à Paris qui fait que Lacan y est bien moins étranger qu'en Grande-Bretagne ou aux Etats Unis. La tradition phénoménologique, existentialiste et hégélienne-marxiste en France rend moins nécessaire d'expliquer ce que vous entendez par Hegel, ou Husserl, ou Heidegger, ou Kojéve, ou Sartre. Et la plupart des gens reconnaîtront de toute façon une idée, même si vous ne mentionnez pas la source, ou si vous citez ou paraphrasez sans référence, car ce genre de "plagiat" est généralement acceptable en France.
Fait assez significatif cependant, Lacan n'aurait pas pu réaliser son analyse de Freud sans l'influence de l'école de linguistique suisso-américano-russe représentée par Roman Jakobson, qui a longtemps témoigné de l'influence du formalisme russe et du linguistique structurel de Saussure aux Etats-Unis. Mais même cette influence est parvenue indirectement à Lacan. L'influence la plus importante sur Lacan fut celle de l'anthropologue structurel français Claude-Lévi-Strauss, qui rencontra et travailla avec Jakobson à la New School for Social Research de New York, en 1942-1945.

Lévi-Strauss tend à ne pas être très apprécié par les anthropologues américains et britanniques qui sont redevables à la tradition analytique et dite empiriste, ce qui en dit long sur lui. Il est à l'origine d'une nouvelle méthodologie et d'une épistémologie d'accompagnement en sciences humaines en France, généralement appelée "structuralisme". (Aujourd'hui, cependant, le terme désigne simplement une mode, un peu comme l'existentialisme.) Le structuralisme, dans le sens d'une méthodologie non empiriste, non atomiste, non positiviste des lois de la relation, est d'autre part complété par les avancées en théorie des systèmes généraux, en cybernétique non mécanique, en théorie de la communication et en études écologiques. Tant la nouvelle approche structurelle que la nouvelle approche systémique-cybernétique semblent parler en fait d'une véritable révolution épistémologique dans les sciences de la vie et les sciences sociales, dont nous entendrons beaucoup plus parler au cours de la prochaine décennie (si nous y survivons, bien sûr).
Lévi-Strauss chercha à utiliser les travaux des phonologues structuraux sur "l'opposition binaire" des phonèmes en tant que modèle pour l'analyse des mythes et des relations et échanges au sein des sociétés dites "primitives" - dont il a ensuite remis en question le supposé "primitivisme". Constatant qu'un nombre relativement faible d'"oppositions" entre "traits distinctifs" (graves/aigus, voix/silence, etc.) sont suffisants pour former l'infrastructure acoustique de toute langue connue, Lévi-Strauss tenta de découvrir des ensembles analogues d'oppositions dans les systèmes de parenté et dans les mythes. Ses travaux les plus récents se sont concentrés sur le mythe en tant que musique.
Avec tous ces machins douteux dans son approche, Lévi-Strauss a néanmoins introduit un type de signification dans l'étude du mythe - auparavant presque exclusivement axé sur le contenu plutôt que sur la forme - là où ça n'existait pas avant. Comme pour l'œuvre de Lacan - ou celle de Freud - le principal problème du structuralisme lévi-straussien ne réside pas dans la méthodologie, mais dans son application, c'est-à-dire dans les revendications universelles formulées en son nom.
Je reviendrai sur la critique plus détaillée du "structuralisme" dans les chapitres suivants. Pour l'instant, il suffira de donner un exemple bref et purement illustratif de l'utilisation par Lévi-Strauss du concept d'"opposition binaire" dans l'étude du mythe (Lévi-Strauss, 1958 : chap. 11).
Pour lui, le mythe est une représentation diachronique (succession dans le temps) d'un ensemble d'oppositions synchroniques (intemporelles). Il croit que la découverte de ces oppositions synchroniques est une déclaration sur la "structure fondamentale de l'esprit humain". Dans les chapitres suivants, j'analyserai et critiquerai le terme "opposition" - qui cache les catégories de "différence", "distinction", "opposition", "contradiction" et "paradoxe" . Je critiquerai également le concept de relations "binaires" " - qui dissimule toute une série de malentendus sur la communication analogique et numérique en général, et plus particulièrement sur "non", "négation", "exclusion", "zéro" et "moins un", ainsi que sur la relation entre "A" et "non-A". J'essaierai également de démontrer l'idée fausse que Lévi-Strauss se fait de la confusion entre "esprit", "cerveau" et "individu". Ceci est étroitement lié à la conception de Piaget de l'organisme comme "structure paradigmatique", et à l'incapacité, dans la plupart des travaux actuels en sciences de la vie et sciences sociales, de comprendre le problème logico-mathématique et existentiel des frontières et des niveaux dans les systèmes ouverts de communication et d'échange (systèmes impliquant ou simulant la vie ou "esprit", systèmes vivants et sociaux).

La méthode de lecture des mythes de Lévi-Strauss est entièrement nouvelle, simple à comprendre, globale et satisfaisante sur le plan esthétique. Il suggère de regarder le mythe comme on regarderait une partition d'orchestre dans laquelle les notes et les mesures à jouer en harmonie simultanée par différents instruments se sont mêlées à la cacophonie d'une succession linéaire. Ainsi, si nous représentons cette succession par les nombres 1, 2, 4, 7, 8, 2, 3, 4, 6, 8, 1, 4, 5, 7, nous pouvons rétablir la partition originale en mettant tous les nombres semblables ensemble en colonnes verticales :

112234444567788

Cette matrice est exactement ce que l'on peut construire dans l'analyse phonologique d'une phrase, où l'on peut montrer qu'une séquence linéaire de mots se construit sur une succession d'oppositions binaires entre des éléments acoustiques distinctifs.
Malheureusement pour ce que Lévi-Strauss considère comme la clé de voûte de sa méthode, l'analogie qu'il fait entre phonologie structurelle et mythe est fausse, alors que sa méthodologie est extrêmement fertile. Ce problème met en évidence la difficulté centrale de l'utilisation de l'œuvre de Lévi-Strauss et de Lacan. Il faut montrer que les sources supposées de leurs nouvelles contributions aux sciences sociales ne sont pas ce qu'elles pensent être ; il faut démontrer où et comment leurs points de vue servent une fonction idéologique répressive ; et il faut montrer l'inadéquation à la fois de nombreux axiomes de la méthode et de nombreuses applications supposées.

Sans développer une critique détaillée à ce stade, on peut dire d'emblée que c'est une erreur de traiter un système d'oppositions sans contexte entre caractéristiques acoustiques des "bits" des informations (traits caractéristiques) comme étant isomorphe avec un mythe, qui est un système avec un contexte. Le mythe est nécessairement contextuel parce qu'il manipule l'information afin d'organiser et de contrôler certains aspects d'un système social, et il ne peut donc être considéré comme isolé de cette totalité. Contrairement aux "mythemes" de Lévi-Strauss ("éléments constitutifs bruts" du mythe, par analogie avec le "phonème"), les phonèmes sont des bits d'information insignifiants et non significatifs. Les phonèmes et les oppositions phonémiques sont les outils d'analyse et d'articulation (dont la caractéristique fondamentale est la différence) dans un système dans lequel signification et sens sont en dehors de la structure phonémique. Mythemes' et oppositions' entre mythemes, au contraire, impliquent à la fois signification et sens : ils ont 'du contenu'. Lévi-Strauss traite le mythe comme s'il s'agissait d'une langue représentative sous la forme d'une grammaire sans contexte, ou traite les mythemes comme des "informations" au sens technique des systèmes quantitatifs fermés de la transmission des informations comme étudiés par Shannon et Weaver. La science de l'information concerne l'étude statistique des processus stochastiques et des chaînes de Markov (chapitre IX) - et Chomsky a démontré qu'aucun langage connu ne peut être correctement généré à partir d'une grammaire modelée sur ces processus. Il a également été démontré que le langage est un système d'un type logique supérieur à celui qui peut être généré par des algorithmes sans contexte (grammaires).

Bien que Lévi-Strauss parle du mytheme comme d'un caractère "supérieur" à tout élément similaire du langage, le modèle de l'opposition phonémique binaire reste ce qu'il considère comme le fondement scientifique de sa méthode. Ainsi le mytheme devient l'équivalent d'un outil d'articulation (un trait distinctif) employé par un système de signification d'un autre type logique (langage). Lorsque nous cherchons à découvrir ce qu'est cet autre système chez Lévi-Strauss, nous trouvons cette catégorie de "pensée mythique". Mais la pensée mythique est déjà définie sur la base des mythemes eux-mêmes. C'est un système d'articulation des oppositions par "une machine à supprimer le temps" (le mythe). Ce qui manque dans ce cercle, c'est le contexte réel et matériel dans lequel le mythe surgit et auquel il fait référence.
Cependant, Lévi-Strauss insistera sur le fait que sa méthodologie, contrairement au formalisme pur, est bien "contextuelle" (Lévi-Strauss, 1960a). Il se réfère constamment aux catégories de parenté, au contexte zoologique et botanique du mythe et aux caractéristiques des entités matérielles ("crues", "cuites", "pourries" et ainsi de suite). En réalité, cependant, toutes les "entités matérielles" et les "relations matérielles" qu'il emploie parviennent à cette analyse déjà définie, de façon tautologique, comme des catégories de pensée mythique. Par conséquent, le "contexte" qu'évoque Lévi-Strauss est invariablement le contexte des "idées" ou de "l'esprit", qu'il conçoit, comme Kant, comme étant un antécédent de l'organisation sociale, tant épistémologiquement qu'ontologiquement. Au sein de ce cadre idéaliste, il fait ensuite un saut rapide vers les catégories matérielles de la physique et de la chimie, qu'il évoque régulièrement comme le fondement ultime de ses catégories idéales.

Mais entre le contexte des idées et le contexte des atomes et des molécules (ou même celui du code génétique) il manque un niveau d'organisation unique mais énorme : le contexte socio-économique de la réalité humaine. Et ce niveau d'organisation contient un paramètre que l'on ne retrouve pas en physique, en biologie, en sciences de l'information, dans les langages, les idées, ou les mythes considérés comme systèmes d'opposition synchrones : la ponctuation du système par le pouvoir de certaines de ses parties à en exploiter les autres (en incluant la "nature" même). Toutes les idées, tous les électrons et "bits" d'information sont en effet égaux, aucun d'entre eux n'est différent des autres, et aucun groupe n'exploite les autres. Et alors que dans les systèmes qui n'impliquent pas l'exploitation sociale, les mythes peuvent à juste titre être considérés comme remplissant une fonction d'organisation "pure" ou "neutre", dans tous les autres systèmes, les mythes deviennent la propriété d'une classe, caste ou sexe. Un mythe qui est la propriété d'une classe est en fait une définition de l'idéologie. Le mythe cesse alors de servir la fonction neutre d'organisation pure et simple ; il sert de rationalisation d'une forme donnée d'organisation sociale.
L'étude structurelle du mythe est, comme Lévi-Strauss l'a souvent dit, une autre variante des mythes qu'il analyse. Comme eux, c'est un système d'oppositions binaires. Mais ce n'est pas une mécanique pour la suppression du temps, mais pour la suppression de l'histoire. Et puisque le "structuralisme" est effectivement la propriété d'une classe, nous pouvons donc l'identifier comme un système de rationalisation idéologique - ce qui n'est pas la même chose, de dire qu'il n'a aucune valeur.

L'analogie erronée de Lévi-Strauss entre un système sans contexte et un système contextuel - et donc tout l'édifice que les structuralistes ont érigé - provient d'une confusion entre langage et communication. D'une part, une telle confusion n'est possible que dans des théories ponctuées de façon à exclure la catégorie sociale objective de l'exploitation. D'autre part, elle dépend d'une unique isomorphie réelle, qui est ensuite utilisée pour réduire les différents niveaux d'organisation les uns par rapport aux autres : le fait que le langage, les systèmes de parenté, l'étude structurelle des mythes et la science de la phonologie soient des communications numériques (discontinues) au sujet de rapports analogues (continus). Une caractéristique unique de la communication numérique, à savoir qu'il s'agit d'un système de communication comportant limites et lacunes, est réifiée par l'argument structuraliste de sorte qu'il peut être appliqué sans distinction, comme catégorie ontologique implicite, à chaque niveau de complexité où apparaissent des "limites et des lacunes ". De telles formes numériques apparaissent nécessairement, comme instrument de communication, à tous les niveaux de complexité biologique et sociale. Par conséquent, l'argument réductionniste des structuralistes est grandement facilité. De plus, le fait que l'opposition binaire soit aussi une catégorie importante en physique classique (électromagnétisme par exemple) autorise les structuralistes à faire l'erreur épistémologique supplémentaire de confondre matière-énergie et information.

Auteur: Wilden Anthony

Info: Extrait de System and Structure (1972) sur http://www.haussite.net. Trad. Mg

[ anti structuralisme ] [ vingtième siècle ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel