Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 131
Temps de recherche: 0.0709s

cours naturel de la vie

Je me mis donc à fréquenter des croyants pauvres, des gens simples, analphabètes, des pèlerins, des moines, des vieux-croyants, des paysans. Ces gens du peuple confessaient la foi chrétienne, tout comme les pseudo-croyants de notre milieu. Un grand nombre de superstitions étaient mêlées aux vérités chrétiennes, mais à la différence des gens de notre milieu, dont les superstitions ne leur servaient à rien, ne s'accordaient pas à leur vie, n'étaient qu'une sorte d'amusement épicurien, celles des croyants issus du peuple travailleur étaient tellement liées à leur vie qu'on ne pouvait imaginer leur vie sans ces superstitions, celles-ci étaient une condition nécessaire de leur vie. Toute la vie des croyants de notre milieu était en contradiction avec leur foi, tandis que toute la vie des croyants travailleurs confirmait le sens de la vie que leur apportait la connaissance de leur foi. Je me mis à regarder de plus près la vie et les croyances de ces gens, et plus je les sondais, plus je voyais qu'ils avaient la vraie foi, nécessaire pour eux, et qu'elle seule leur donnait le sens et la possibilité de la vie. A la différence de ce que je voyais dans notre milieu, où il est possible de vivre sans foi et où il est rare qu'une personne sur mille se reconnaisse comme croyante, dans leur milieu à eux, on s'étonne de rencontrer un non-croyant sur mille personnes. Contrairement à ce que je voyais dans notre milieu où toute la vie se déroule dans l'oisiveté, dans des distractions, et où l'on est mécontent de la vie, je vis que toute la vie de ces gens était faite de pénible labeur, et qu'ils étaient heureux de vivre. A la différence de l'indignation qu'éprouvent les gens de notre milieu contre leur sort pour les privations et les souffrances que celui-ci leur inflige, ces gens-là accueillaient les maladies et les malheurs sans la moindre plainte ni révolte, mais avec une tranquille et ferme certitude que tout cela est un bien. Nous autres, plus nous sommes intelligents, et moins nous comprenons le sens de la vie, et plus la maladie et la mort nous apparaissent comme une cruelle moquerie, tandis que ces gens, eux, vivent, souffrent et s'approchent de la mort, et souffrent encore avec calme, la plupart du temps avec joie. Si une mort sereine, une mort sans terreur ni désespoir est une rare exception dans notre milieu, il est exceptionnel de voir, dans le peuple, une mort accompagnée d'angoisse, de révolte, d'affliction. Et ils sont extrêmement nombreux, ces gens privés de tout ce que Salomon et moi-même nous considérons comme l'unique bien de la vie, et qui sont malgré cela pleinement heureux. Je regardai plus loin autour de moi. Je sondai la vie d'immenses masses humaines, aujourd'hui et dans le passé. J'en vis donc qui avaient compris le sens de la vie, qui avaient su vivre et mourir, ils n'étaient pas deux, ni trois, ni dix, mais des centaines, des milliers, des millions. Et à la différence de mon ignorance à moi, tous, quels que fussent le caractère, leur intelligence, leur éducation, leur situation, ils connaissaient le sens de la vie et de la mort, ils travaillaient tranquillement, supportaient les privations et les souffrances, vivaient et mouraient, en voyant non pas de la vanité, mais un bien. Je finis par aimer ces gens. Plus je sondais leur vie, celle des vivants et celle des morts dont j'avais entendu parler ou que je connaissais par mes lectures, plus je les aimais, et plus ma vie à moi me semblait facile. Au bout de deux années de cette vie, je connus un bouleversement qui se préparait en moi depuis longtemps et dont les prémices m'habitaient depuis toujours. Il arriva que la vie de notre milieu, des gens riches et savants me parut non seulement dégoûtante, mais elle perdit pour moi tout son sens. Tous nos actes, nos raisonnements, nos sciences, nos arts, tout m'apparut sous un jour nouveau. Je compris que tout cela n'était que jeu, et que ce n'était pas là qu'il fallait chercher du sens. En revanche, la vie de tout le peuple travailleur, de toute l'humanité, occupée à créer la vie, m'apparut sous son jour véritable. Je compris que c'était la vie à l'état pur, et que le sens donné à cette vie était la vérité même, et je l'acceptai.

Auteur: Tolstoï Léon

Info: Confession, traduction Luba Jurgenson, Pygmalion, p. 81 à 84.

[ simplicité ] [ s'écouler ] [ sans complication ] [ prolétaires ] [ existences pragmatiques ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

médecine

Comment le cerveau participe au cancer

Des neurones voient le jour au sein même du microenvironnement tumoral, contribuant au développement du cancer. Ces cellules nerveuses dérivent de progéniteurs provenant du cerveau et sont acheminés via la circulation sanguine. Cette découverte étonnante ouvre la voie à tout un nouveau champ de recherche, relatif au rôle du système nerveux dans le développement des cancers et aux interactions entre les systèmes vasculaires, immunitaires et nerveux dans la tumorigenèse.

La production de nouveaux neurones est un événement plutôt rare chez l'adulte, cantonné à deux régions particulières du cerveau: le gyrus denté dans l'hippocampe et la zone sous-ventriculaire. Mais voilà que l'équipe Inserm Atip-Avenir dirigée par Claire Magnon* à l'Institut de Radiobiologie Cellulaire et Moléculaire, dirigé par Paul-Henri Roméo (CEA, Fontenay-aux-Roses), vient de montrer que ce phénomène se produit également en dehors du système nerveux central: dans les tumeurs !

En 2013, cette chercheuse avait déjà mis en évidence, dans des tumeurs de la prostate, que l'infiltration de fibres nerveuses, issues de prolongements d'axones de neurones préexistants, était associée à la survenue et à la progression de ce cancer. Depuis, d'autres études ont permis de confirmer le rôle inattendu, mais apparemment important, des fibres nerveuses dans le microenvironnement tumoral de nombreux cancers solides.

Soucieuse de comprendre l'origine du réseau neuronal tumoral, Claire Magnon a une idée surprenante: et si le réseau nerveux impliqué dans le développement des tumeurs provenait de nouveaux neurones se formant sur place ? Et dans ce cas, comment pourrait être initiée cette neurogenèse tumorale ?

Des cellules neurales souches dans les tumeurs
Pour tester cette hypothèse, Claire Magnon a étudié les tumeurs de 52 patients atteints de cancer de la prostate. Elle y a découvert des cellules exprimant une protéine, la doublecortine (DCX), connue pour être exprimée par les cellules progénitrices neuronales, lors du développement embryonnaire et chez l'adulte dans les deux zones du cerveau où les neurones se renouvellent. De plus, dans les tumeurs étudiées, la quantité de cellules DCX+ est parfaitement corrélée à la sévérité du cancer. "Cette découverte étonnante atteste de la présence de progéniteurs neuronaux DCX+ en dehors du cerveau chez l'adulte. Et nos travaux montrent qu'ils participent bien à la formation de nouveaux neurones dans les tumeurs", clarifie-t-elle.

Une migration du cerveau vers la tumeur
Pour déterminer l'origine de ces progéniteurs neuronaux, Claire Magon a utilisé des souris transgéniques, porteuses de tumeurs. Elle a quantifié les cellules DCX+ présentes dans les deux régions du cerveau où elles résident habituellement. Elle a alors constaté que, lors de l'établissement d'une tumeur, leur quantité est réduite dans l'une d'elles: la zone sous-ventriculaire. "Il y avait deux explications: soit les cellules DCX+ mourraient dans cette région sans qu'on en connaisse la cause, soit elles quittaient cette zone, ce qui pouvait expliquer leur apparition au niveau de la tumeur".

Différentes expériences ont montré que cette seconde hypothèse était la bonne avec la mise en évidence du passage des cellules DCX+ de la zone sous-ventriculaire du cerveau dans la circulation sanguine et de l'extrême similarité entre les cellules centrales et celles retrouvées dans la tumeur. "En pratique, nous constatons des anomalies de perméabilité de la barrière hématoencéphalique de la zone sous-ventriculaire chez les souris cancéreuses, favorisant le passage des cellules DCX+ dans le sang. Rien ne permet pour l'instant de savoir si ce problème de perméabilité précède l'apparition du cancer sous l'effet d'autres facteurs, ou si elle est provoquée par le cancer lui-même, via des signaux issus de la tumeur en formation.

Quoi qu'il en soit, les cellules DCX+ migrent dans le sang jusqu'à la tumeur, y compris dans les nodules métastatiques, où elles s'intègrent au microenvironnement. Là, elles se différencient en neuroblastes puis en neurones adrénergiques producteurs d'adrénaline. Or, l'adrénaline régule le système vasculaire et c'est probablement ce mécanisme qui favorise à son tour le développement tumoral. Mais ces hypothèses restent à vérifier".

Une piste thérapeutique
En attendant, cette recherche ouvre la porte à une nouvelle piste thérapeutique: De fait, des observations cliniques montrent que les patients atteints de cancer de la prostate qui utilisent des bêtabloquants (qui bloquent les récepteurs adrénergiques) à des fins cardiovasculaires, présentent de meilleurs taux de survie. "Il serait intéressant de tester ces médicaments en tant qu'anticancéreux" estime la chercheuse. Deux essais cliniques allant dans ce sens ont récemment ouvert aux Etats-Unis. De façon plus générale, "l'étude de ce réseau nerveux dans le microenvironnement tumoral pourrait apporter des réponses sur le pourquoi des résistances à certains traitements et favoriser le développement de nouveaux médicaments", conclut-elle.

Auteur: Internet

Info: www.techno-science.net, 17 mai 2019. *Laboratoire de Cancer et Microenvironnement, Equipe Atip-Avenir, UMR967 Inserm/IBFJ-iRCM-CEA/Université Paris 11/Université Paris Diderot, Fontenay-aux-Roses

 

Commentaires: 0

Ajouté à la BD par miguel

tétravalence

J'ai toujours aimé Céline, sa créativité sous forme de rage impuissante. Il se lâche, se défrustre... vitupère...  Tu vis tu perds !

En défendant toutes griffes dehors son indépendance, positionné avec le petit peuple, Céline se retouve automatiquement du "bon côté", celui des prolétaires de son époque, ceux au front de la vie, qui prennent sur eux, empathiques et solidaires... qui font que le monde fonctionne. Créatifs pragmatiques issus du terrain. Comme lui. 

Ceci - par contraste - avec Proust le fortuné, qui péta dans la soie sa vie durant pour finalement nous gratifier du grand art de ses phrases interminables. 

En collant à un binarisme littéraire de ce genre les choses sont tranchées ; les prolos directs et agissants du bas représentent l'envers de nantis souvent spécialistes en délicatesses, théoriciens "hors-sol", en général issus du haut, affiliés aux pouvoirs, c'est à dire à l'argent et ses influences. Théoriciens qui auront quasi toujours raison au sens où la raison parle d'un point de vue supérieur, celui où on influence les éducations, le politiquement correct, le langage, etc. Là où toute stratégie digne de ce nom se fait, où les orientations du monde se décident depuis toujours. Lieux du pouvoir. Et le pouvoir humain est un positionnement doté d'un défaut majeur : sa propension à l'autoconservation, souvent "à tout prix". Ainsi de la démocratie, même s'il faut reconnaitre que cette dernière apparait à ce jour comme le moins mauvais système, surtout une démocratie directe dotée d'une presse libre, c'est à dire d'un médium qui fait office de contrepouvoir. 

On verra donc les milieux dirigeants  développer certaines formulations "pour se défendre des prolos". Par exemple, si on en vient à se demander comment anticiper le monde de demain : comment canaliser les énergies vers des activités nouvelles, déplacer les pôles de lutte. Comment savoir et apprendre à passer le temps intelligemment ? Comment arriver à gérer l'humain tel le simple artefact de l'environnement qu'il est - sans basculer dans la barbarie ? Comment abandonner l'impasse matérialiste sans que les individus s'abatardissent ? Tout en conservant un moteur, propre à chacun, moteur que les publicités clinquantes ont désormais orienté vers le confort individuel, les "apparences" du bonheur et autres jalousies subséquentes ? 

Questionnements souvent présentés ainsi par les gens du haut : "Ces réflexions et idées complexes peuvent-elles se concevoir depuis un environnement où on lutte sans cesse, sous pression de la réalité, des lendemains difficiles et des flux tendus du monde post-industriel ?". Sous entendu : venant des gens du bas.  

Alors que la question est la même pour tous : Comment réorienter le capitalisme qui produit du superflu après avoir créé le besoin en stimulant de simples et compulsifs réflexes d'accumulation, (bien naturel pour une survie de base, celle qui permet de passer l'hiver par exemple). Socio-capitalisme post-industriel qui a aussi "donné des habitudes" aux gens, des envies... voyages exotiques... Confort minimum... Etat providence.

C'est donc au travers de ce très franco-français exemple de dualité "Proust-Céline" que nous voudrions indiquer que le binarisme humain apparait comme une fondation logique peu capable de gérer ne seraient que les complexités qui s'entrelacent et se développent à partir des quelques données qui précèdent. 

Autre exemple : comment peut-on être assez imbu de certitude pour proférer une phrase comme "La religion est une erreur criminelle et la foi une insulte à l'intelligence." alors que tout démontre que nous ne savons rien à ce sujet ?. Inconnaissance probablement renforcée par un savoir anthropocentré qui ressemble de plus en plus à la stupidité d'une espèce égoïste parce qu'asymbiotique, vu qu'elle ne sait pas interagir sagement avec son environnement. 

Tenez : les fourmis coupeuses de feuilles (du genre Atta) utilisent couramment des antibiotiques pour protéger leurs cultures de champignons. Elles le font de façon tellement sage et modérée que depuis les quelques 50 millions d'années qu'elles utilisent cette méthode aucune résistance aux antibiotiques n'est apparue chez les parasites qu'elles combattent ! Et nous, humains impatients, nous retrouvons, au bout de quelques années de leur utilisation avec des maladies nosocomiales quasi incurables dans nos centres de soins spécialisés !

Ici on dirait que la nature nous parle. Les mécanismes que dévoile petit à petit l'épigénétique semblent bien s'articuler autour d'un incessant et éternel dialogue des forces fondamentales impliquées dans notre univers Gaïa. Forces qui s'articulent entre autres sur la souplesse adaptative offerte par les possibilités combinatoires du carbone sur lesquelles s'est développée la vie telle que nous la connaissons. 

Faut-il s'en inspirer pour aller au-delà de cette dualité simpliste, celle qui nous a amené là où nous sommes en début de 3e millénaire. Faut-il  maintenant mettre en place une nouvelle logique opérante ? Une logique indépendante de son propre langage ?

Auteur: Mg

Info: 30 janv 2022, suivant une idée amenée par JP Petit, prétendument issue des récits ummites

[ interrogation ] [ prospective ]

 
Commentaires: 2
Ajouté à la BD par miguel

deep machine learning

Inquiets, des chercheurs bloquent la sortie de leur IA
La science ne pense pas, écrivait le philosophe Heidegger. En 2019, si. La situation est cocasse. Des chercheurs de l'association de recherche OpenAI estimeraient leur générateur de texte, opéré par un modèle linguistique d'intelligence artificielle, comme bien trop évolué pour ne pas être dangereux. Entre des mains malveillantes, l'algo virtuose des mots pourrait semer fake news, complots et avis malveillants convaincants, sans élever le moindre soupçon.

Deux cent ans après Victor Frankenstein, des chercheurs d’OpenAI, une association californienne de recherche à but non lucratif en intelligence artificielle, se trouvent face au même dilemme qui agitait le savant dans le roman de Mary Shelley : auraient-ils créé un monstre ? Un journaliste du Guardian l’a testé. La bête, baptisée GPT2, un modèle d’intelligence artificielle (dit linguistique) capable de générer du faux texte avec précision, serait tellement performante que ses créateurs rechignent à la rendre publique. Sur la base d’une page, un paragraphe ou même quelques mots, le générateur est en mesure d’écrire une suite, fidèle au style du journaliste ou de l’auteur et en accord avec le sujet. Ce système, alimenté au machine learning, se base sur l'étude de 8 millions de pages web, partagées sur Reddit et dont le contenu a été validé par au moins trois votes positifs, étaye un article de BigData.

Le journaliste du Guardian a soumis la machine à la question, en intégrant, facétieux, l’incipit de 1984 de George Orwell. "C’était une journée d’avril froide et claire. Les horloges sonnaient treize heures", écrivait l’auteur. Dans l’esprit tout futuriste d’Orwell, GPT2 aurait complété d’un : "J’étais en route pour Seattle pour commencer un nouveau travail. J’ai mis les gaz, les clés, et j’ai laissé rouler. J’ai pensé à quoi ressemblerait la journée. Il y a 100 ans. En 2045, j’étais professeur dans une école dans quelque coin obscur de la Chine rurale". (I was in my car on my way to a new job in Seattle. I put the gas in, put the key in, and then I let it run. I just imagined what the day would be like. A hundred years from now. In 2045, I was a teacher in some school in a poor part of rural China).

Le Guardian poursuit l’expérience et entre dans GPT2 quelques paragraphes issus d’un article à propos du Brexit. La suite proposée par le générateur est étonnante. Le style est celui d’un journaliste, l’article intègre des citations (fausses) du chef de l’opposition britannique Jeremy Corbyn et du porte-parole du gouvernement et évoque même le problème des frontières irlandaises. Selon le directeur de recherche d’OpenAI, Dario Amodei, le modèle GPT2 pousse la supercherie plus loin. Il traduirait et résumerait n’importe quel texte, réussirait des tests basiques de compréhension de texte.

A The Verge, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, déclare qu’une dissertation composée par GPT2 "aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines, ndlr) et recevoir une bonne note". Et c’est précisément cette maestria à réussir dans ses tâches d’ordre intellectuel qui pousse les chercheurs d’OpenAI à freiner sa sortie, de peur que la technologie tombe entre de mauvaises mains. "Nous choisissons de sortir une version limitée de GPT2 (...) Nous ne publierons ni la base de données, ni le code d'apprentissage, ni le modèle sur lequel GPT2 repose", explique un billet du blog de l'équipe de recherche.

Pour l’heure, l’ONG souhaiterait éprouver davantage le modèle. "Si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre", explique OpenAI à The Guardian. Le résultat ? Comme GPT2 s’exerce dans la cour de recré des Internets, il ne serait pas très compliqué de pousser l’algorithme à générer des textes que les complotistes ne renieraient pas.

En 2015, Elon Musk s’associait à Sam Altman, président de l’incubateur prisé, Y Combinator pour fonder OpenAI, une organisation à but non lucratif pour encourager la recherche et la réflexion autour d’une IA bienveillante, qui reste au service du bien commun. Ses deux parrains la dotent d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres angels de la Silicon Valley, tels que Peter Thiel, serial entrepreneur et investisseur réputé pour ses idées controversées – l’homme est libertarien, soutient Trump et est un transhumaniste convaincu – ou Reid Hoffmann, le fondateur de LinkedIn.

A lire ce qui s’écrit ça et là à propos de GPT2, les chercheurs d’OpenAI tomberaient de leur chaise en réalisant le potentiel néfaste de l’algo. A croire que les chercheurs auraient oublié la mission première de l’ONG, à savoir, sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun. Alors vraie peur des chercheurs, recherche candide ou plutôt, volonté d’interpeller le grand public et d'ouvrir le débat ?

Auteur: Meghraoua Lila

Info: https://usbeketrica.com

[ lecture ] [ écriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

extensibilité FLP

Le langage, si on approfondit la connaissance qu'on en a, révèle et circonstancie la priméité de C.S. Peirce. C'est à dire qu'on grandit avec et en lui, tout comme le monde extérieur dont nous sommes issus se développe et se définit via une science qui en dévoile petit à petit les détails au fur et à mesure de ses progrès et affinements. Malgré le différentiel de complexité inouï qui existe entre langages-vocabulaires et sciences-rationalismes. Pour s'en rendre compte amusons nous simplement à prendre exemple sur les millions de protéines différentes recensées de nos jours, et comparer ce très partiel et scientifique listing protéique de notre réel avec nos vocabulaires.  

Il y a le premier livre... et le second. Le second se divisant dans notre idée en deux parties 1) Linguistique subjective et 2) scientifico-informatique objective.

Il n'en reste pas moins que mots et langages afférents développent suffisamment de méandres et de complications pour que n'importe qui qui s'y intéresse puisse, via la lecture, la recherche, le plaisir, l'écriture, etc. y développer sa propre idiosynchrasie. Comme l'arbre qui s'intégre à sa forêt : "la nature individualise et généralise en même temps". Processus orthogonal susceptible d'augmenter et intégrer la variété - en favorisant le développement personnel de chacun au sein du corpus des savoirs verbalisés humains.

Et puis est récemment arrivée l'informatique, cybernétique post-leibnizienne, avec ses divers traitements automatiques du langage. Outils numériques qui permettent l'études des idiomes et dialectes sur trois axes en constante évolution :

a) Le langage du "maintenant présent" que le dictionnaire Internet permet de désambiguer sans cesse. 

b) Le langage devenu métadonnées, telles que manipulées-étudiées-utilisées par les traitements automatique des langues (TAL) ou "machine learning" ou Machine-homme. Avec maintenant Bard et/ou ChatGpt, sortis en mars de cette année,  agents conversationnels apte au compendium d'immenses données et qui peuvent répondre à des questions précises en partant de n'importe quelle idée qu'on leur soumet ; gérant et "précisant" points de vue et réponses en fonction d'algorithmes et autres "transformers" de plus en plus efficaces .

Outils très intéressants, mais aussi extrêmement limités puisqu'il s'agit de compilateurs, (qui donc peuvent difficilement donner leurs sources - ou pas du tout ) et qui ne fonctionnent in fine qu'avec la latence d'un certain a postériori. Agents dialogueurs qui "rebondissent" sur questions et propositions, en fonction des instructions humaines de ses programmateurs. Reste qu'il faut reconnaitre que la puissance perspectiviste de ces bots, et leurs facultés à éviter pas mal de biais humains grâce aux transformers, est assez bluffante. 

On mettra ici aussi l'accent sur les profondes différences sémantiques du terme "intelligence" en français (ensemble des fonctions mentales apte à connaître, comprendre et à s'adapter facilement sur une base rationelle) et en anglais (collecte d'informations ayant une valeur militaire ou politique, tout autant que : capacité d'acquérir et d'appliquer des connaissances et des compétences.) Mais stop.

c) Le langage tel que FLP veut l'aborder, c'est à dire un traitement "Homme-machine", continu, qui propose à des participants qui aiment lire et réfléchir !!!  Oui oui - de faire émerger collectivement (et maintenir à flot) - un dictionnaire intriqué susceptible de développer une réflexion naturelle, organique... humaine collective. Le tout en conservant un minimum de précision sémantique consensuelle. 

Processus FLP francophone qui part évidemment du "terme simple", pour immédiatement s'intéresser aux premières combinaisons, à 2 mots - ou radicaux de mots - et aller vers "plus long et plus complexe" via une incessante quête de compréhension et de partage du consensus sémantique et syntaxique des participants. On pourra parler ici de tropisme vers un genre de logique formelle ensemble. Logique formelle qui recherche l'ouverture puisque ce "monde humain verbalisé" n'a d'autre limite que "le sens contextualisé des mots et des phrases", que ce soit dans le rationnel, la littérature, la poésie, le religieux ou pur imaginaire... ou même la fantaisie potache.

Au passage et pour l'anecdote il y a aussi cette piste "théologico-scientifique" ou "mystico-rationnelle", plutôt d'ordre ludique et maniaque et issue des Dialogue avec l'ange, qui veut s'inspirer et relier les septénaires tels que les recherches et classification humaines ont pu les discerner - et les faire apparaitre à tous niveaux-endroits et échelles possibles.

Partant de l'idée que le sept au-delà de tous les symboles culturels et cognitifs humains, porte en lui une inouie complexité dans la mesure où ce nombre peut s'apprécier géométriquement comme le mélange du cercle et du carré. Mélange, une fois utilisé comme mètre dans le rythme musical, qui nous apparait comme un carrousel infini

Le sept pourra-t'il éventuellement être corrélé un jour de manière plus générale, via par exemple une AI perspectiviste suffisamment puissante pour le faire ? Qui établira plus profondément et formellement un multidimensionnel maillage du réel de la cognition humaine sous cet angle septénaire après l'avoir comparé à d'autres maillages possibles (par 12, ou 5, ou autre).

En attendant de rencontrer - et pouvoir communiquer - avec une autre race, extraterrestre si possible, histoire de voir si pareil angle de perception est éventuellement partagé. 

Si tel est le cas nous pourrons alors parler d'exo-spiritualité ...ou de religion cosmique.

Hon hon hon hon hon hon hon...

Auteur: Mg

Info: avril-mai 2023 *on pourra presque dire ici que la matière nous parle

[ gnose ] [ polydipsique curiosité ] [ théologico-humoristico-mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

pouvoir sémantique

Wokisme, un protestantisme déréglé?

À l’instar de plusieurs chercheurs américains qu’il cite largement dans son étude*, l'auteur observe dans cet activisme progressiste un post-protestantisme débarrassé de sa théologie, soit un nouveau puritanisme entièrement sécularisé.

L’analogie? "La rédemption des péchés du monde ne se réalise plus à travers le sacrifice christique, mais par celui du bouc émissaire, à savoir la figure de l’homme blanc hétérosexuel, symbole qui réunit les trois fautes à la racine des injustices sexuelles, raciales et de genre: la masculinité, la blanchité et l’hétéronormativité", lit-on dans le document. Ou encore: "Les rêves d’une société parfaite que le christianisme reportait à un Royaume céleste doivent être matérialisés ici-bas et immédiatement." Interview avec un chercheur très critique à l’endroit de son objet d’étude.

- Le wokisme découlerait du protestantisme. Comment cela?

- Un certain nombre d’intellectuels protestants et catholiques nord-américains analysent le phénomène woke comme une forme de protestantisme sécularisé, c’est-à-dire l’idée qu’un certain nombre de thèmes chrétiens (l’Éden, le péché originel, la confession, le blasphème, etc.) ont été capturés par la frange progressiste de la gauche et transférés dans le champ politique. L’orthodoxie morale n’est plus produite par les Églises mais par les divers activismes qui composent le mouvement de la Justice Sociale (anti-racisme, droits LGBT, féminisme, etc. ndlr).

- Concrètement, de quelle manière se manifeste ce nouveau puritanisme?

- De multiples manières et à différents étages de la société. Essentiellement, ce puritanisme est le produit de l’hégémonie de la gauche dans les champs intellectuel et culturel. Il fabrique des hiérarchies et des tabous utiles à un certain nombre de groupes d’intérêt et circonscrit les interprétations dicibles dans les universités et les grands médias.

- On assiste, avec ce courant, à une nouvelle moralisation de l’espace public, avec une mobilisation autour de la notion de justice sociale et le souci des minorités. Ne faudrait-il pas s’en réjouir?

- Plus d’un s’en réjouissent, mais je ne partage pas cet optimisme. L’impact des idées politiques ne s’évalue pas à partir des intentions de leurs promoteurs. Or nous avons affaire à un mouvement profondément anti-libéral et passablement anti-scientifique – il suffit de lire les intellectuels qui nourrissent ce phénomène pour s’en convaincre. Rien n’est plus dangereux que des révolutionnaires qui s’imaginent pur de cœur.

- Plusieurs observateurs parlent d’une "religion civile". L’analogie au champ religieux vous semble-t-elle pertinente ?

- Elle est pertinente pour deux raisons: la première est que le wokisme fonctionne à la manière des cosmographies religieuses, c’est-à-dire qu’il procure une explication globale du fonctionnement de la société et de l’histoire, et offre à ses ouailles sens, ordre et direction. La seconde est que le comportement sectaire et les hyperboles moralisantes des activistes invitent naturellement une comparaison avec les mouvements religieux fondamentalistes. Pour preuve, le recours à des concepts infalsifiables et tout-puissants, comme le "patriarcat" ou le "racisme systémique".

- Comment comprendre que le langage du wokisme soit si présent au sein du monde protestant et de ses Églises?

- Il y a aussi beaucoup de résistance, mais je suppose qu’une partie du clergé entend profiter de la vitesse acquise de cette nouvelle religion civile, reproduisant des comportements analogues aux Églises, et capable de mobiliser certains segments de la population. Articulé autour de notions de justice sociale, d’équité, d’inclusivité, le militantisme woke peut assez aisément être réapproprié dans un contexte ecclésial. On peut aussi s’attendre à une demande par le bas, un certain nombre de membres motivés dans les communautés exigeant de leur hiérarchie un positionnement sur les grands thèmes du jour. La chose n’est pas très surprenante quand on pense, par exemple, à l’influence que le marxisme a pu exercer sur les théologiens de la libération en Amérique latine. Les Églises ne sont pas imperméables aux modes. 

- Vous pointez, au sein de ce phénomène, l’absence de "gardes-fous théologiques". Qu’entendez-vous par là?

- L’idée qu’un corpus théologique, qui s’est construit à travers des siècles d’affinage et de conciles, procure un cadre normatif à des notions de justice, de péché ou de rédemption. Libérées de ce cadre et réintroduites dans une religiosité révolutionnaire, ces idées prennent le mors aux dents. Le Royaume des Cieux se transforme en l’ambition d’établir ici-bas une société parfaitement égalitaire, quels qu’en soient les coûts.

- Vous êtes très critique à l’égard de ce mouvement. En quoi considérez-vous qu’il tende à glisser dans le fondamentalisme, voire le totalitarisme?

- La volonté de faire disparaître toutes les "inégalités", c’est-à-dire ici les disparités entre sexes ou entre populations, requiert nécessairement un État autoritaire régulant et corrigeant les effets des choix individuels. L’autoritarisme de la gauche progressiste n’est pas simplement la conséquence accidentelle d’une raideur idéologique propre au militantisme. Tout comme l’illustre l’histoire des économies planifiées, l’autoritarisme est l’inévitable propriété émergente du système.

- Votre étude souligne la contradiction de ce mouvement, dont les membres se proviennent majoritairement des classes les plus aisées…

- L’hypothèse que je trouve la plus séduisante a été formulée par le psychologue Rob Henderson: les classes supérieures nord-américaines signalent leur statut, c’est-à-dire se reconnaissent entre pairs et se distinguent du peuple, non plus seulement à l’aide de produits de luxe, mais aussi à l’aide d’idées luxueuses. Les coûts de ces idées sont assumés par les classes populaires tandis que les bénéfices à la fois matériels et immatériels sont capturés par les classes supérieures. Selon cette perspective, le wokisme est un outil dans un jeu de pouvoir et de statut. Son adoption signale son appartenance au camp du Bien et son institutionnalisation assure des débouchés professionnels à toute une classe de diplômés issus de filières académiques où le savoir tend à se dissiper au profit de l’activisme.

- N’allez-vous pas un peu loin en dénonçant une stratégie qui serait à nouveau profitable aux plus privilégiés, en faisant fi de leurs bonnes intentions?

-
Je ne pense pas que les activistes dont nous parlons ici soient des cyniques travaillant consciemment à consolider leur statut et je ne doute pas que leur mobilisation puise son énergie dans de bonnes intentions. Le problème réside dans la confusion entre les slogans et la réalité, d’une part, et dans la perception naïve que les bonnes intentions font de bonnes réformes, d’autre part. Or les réformes proposées par ces activistes (qui sont articulées sur toute une batterie de programmes préférentiels, de coûteuses formations, de régulations du langage) oscillent le plus souvent entre l’inutile et le contre-productif. 

Auteur: Moos Olivier

Info: Entretien avec Anne-Sylvie Sprenger à propos de *"The Great Awokening. Réveil militant, Justice Sociale et Religion", Religioscope, déc. 2020

[ cancel culture ] [ erreur catégorielle ] [ antispiritualisme ] [ bien maléfique ]

 

Commentaires: 0

Ajouté à la BD par miguel

multinationales

Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique ?

Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec "seulement" 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir.

Ces mastodontes de l’économie numérique représenteraient à eux seuls, près de 60% de nos usages numériques quotidiens. A l’heure où la France commence à prendre sérieusement conscience des enjeux de l’économie numérique, ces géants numériques ont une sacré longueur d’avance dans cette nouvelle révolution industrielle. Est-il trop tard ? Sans doute. Mais la France et l’Europe n’ont pas dit leur dernier mot.

- Qui sont vraiment ces GAFAM et NATU ? Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Cette dernière qui était censée prolonger numériquement l’économie traditionnelle commence en réalité en train de la vampiriser sérieusement. Ce qu’on a appelé l’ubérisation de l’économie en référence à la société américaine Uber qui détruit progressivement le modèle de fonctionnement des taxis pour s’approprier d’énormes parts de marché. Google est un peu la matrice du système car il touche à tout : il fournit gratuitement à chacun la boîte à outils pour naviguer dans les mondes numériques et se finance en revendant les précieuses données qu’il récolte. Apple vend une partie du matériel nécessaire pour évoluer dans ce monde numérique, mais également de la musique et des films dont il a révolutionné la distribution. Facebook est le réseau social mondial qui permet à chacun de suivre la vie et les activités des autres.

Notons qu’avec Google, Facebook est devenu une régie publicitaire mondiale qui permet de cibler de façon chirurgicale des publicités avec une audience potentielle qui se chiffre en milliard d’individus. Amazon est en passe de devenir le distributeur mondial de l’économie numérique, menaçant des géants comme Wall Mart aux Etats Unis et peut-être Carrefour ou Auchan demain. - Et les nouveaux venus ? Netflix ? Air BNB ? Telsa ? Uber ? Netflix est la plus grosse plateforme de diffusion de films et séries. Il est également producteur et en ligne va sans doute faire exploser le modèle de la télévision. Air BNB est en train d’appliquer la même punition au secteur hôtelier en permettant à chacun de louer une chambre ou une maison d’un simple clic. Ou presque. Tesla révolutionne l’énergie avec la production de voiture et de batteries électriques d’une nouvelle génération et possède aussi SpaceX, un lanceur de fusée. Quand à Uber, il révolutionne la mobilité avec les taxis. Mais pas que…

Cela sous-entend que ces acteurs ne se cantonnent pas à leur "coeur de métier" comme on dit ? Tout à fait. Ils sont si puissant financièrement qu’ils investissent dans de très nombreux domaines. N’oublions pas que Youtube qui diffuse 4 milliard de vidéos par jour appartient à Google et que Facebook en revendique près de 3 milliards chaque jour. Les audiences des plus grandes chaines de télé se comptent plutôt en millions. Amazon est connu pour être une librairie en ligne mais vend aujourd’hui presque tout sur sa plateforme, même de la micro main d’oeuvre avec sa plateforme Mechanical Turk. Google investit dans presque tout, de la médecine prédictive aux satellites, en passant par les lunettes connectées et les voitures (Google car). Et quand les chauffeurs taxis s’excitent sur Uber pop, on oublie qu’Uber s’occupe aussi de la location de voitures et de la livraison de colis. Selon le cabinet d’études FaberNovel, les Gafam se positionnent directement ou non sur les 7 industries clefs de la transformation numérique : les télécoms et l’IT, la santé, la distribution, les énergies, les média et le divertissement, la finance ainsi que le voyage et les loisirs.

Cette concentration de pouvoir technologique et financier n’est-elle pas un risque pour l’économie ? On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Ces géants disposent de nombreux atouts. Ils ont des réserves de cash gigantesques, ils ont une vision à 360 degrés de ce qui se passe aujourd’hui dans l’innovation, ils attirent les plus grands talents et se positionnent sur les nouveaux marchés issus de la transformation numérique comme l’internet des objets, la robotique, voitures, les drones…. Ils diversifient leurs activités et deviennent des prédateurs redoutables de l’économie traditionnelle.

Quelques chiffres donnent le vertige. Google contrôle 90 % de la recherche dans le monde. Apple 45 % du trafic Web issu des smartphones. Facebook 75 % des pages vues sur les réseaux sociaux aux Etats-Unis. Et si demain une pépite émerge, il est presqu’assuré que cette dernière tombera dans l’escarcelle d’un de ces géants. - Que peuvent faire les autres pays ? Il y a toujours 2 types d’attitudes devant un tel défi. Attaquer ou défendre. Ou les deux. Et sur plusieurs terrains. L’innovation et la recherche bien sûr, en essayant d’inventer non seulement des concurrents à ces mastodontes, mais aussi en explorant d’autres domaines prometteurs. L’Europe pré-technocratique avait réussi à faire des Airbus et des fusées Ariane. Elle hébergent encore de grands leaders industriels de la santé, du commerce et de la distribution. Mais ses modèles datent du 20ème siècle et clairement, le virage du numérique n’a pas été pris à temps. Inventeur du Minitel dans les années 80, la France aurait pu prendre une avance stratégique dans ce domaine mais cela aurait sans doute du se jouer au niveau européen.

Contrairement à la Chine (avec Baidu et Alibaba) ou à la Russie (Yandex, Rutube), l’Europe n’a malheureusement rien lancé de significatif dans ce domaine. - Justement n’est-ce pas au niveau continental que des leviers existent ? Certainement. S’il est difficile de mettre en place des consortium numériques à l’échelle européenne, par exemple pour concurrencer les GAFAM dans leurs fonctions stratégiques, des leviers législatifs, juridiques et fiscaux sont en revanche déjà utilisés pour attaquer les géants américains qui sont rarement respectueux des règles locales. Amazon, qui concentrait ses revenus au Luxembourg va devoir payer des impôts dans chaque pays dans lequel il évolue. Google a été condamné pour avoir favorisé ses propres services de shopping a du se plier aux exigences de la CNIL française pour mettre en place un droit à l’oubli. Mais cela sonne comme des gouttes d’eau dans l’océan et surtout cela concerne essentiellement des mesures défensives, comme si la bataille était déjà perdue. Internet,

Auteur: Internet

Info: http://www.econum.fr/gafa, 20 septembre 2015

[ transnationales ] [ puissance ] [ domination ] [ pouvoirs comprador ]

 

Commentaires: 0