Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 107
Temps de recherche: 0.0628s

contrepouvoir

L'HÉGÉMONIE CULTURELLE SELON GRAMSCI

Constatant que les révolutions communistes promises par la théorie de Marx n’avaient pas eu lieu dans les sociétés industrielles de son époque, Gramsci formule une hypothèse. Si le pouvoir bourgeois tient, ce n’est pas uniquement par la main de fer par laquelle il tient le prolétariat, mais essentiellement grâce à son emprise sur les représentations culturelles de la masse des travailleurs. Cette hégémonie culturelle amenant même les dominés à adopter la vision du monde des dominants et à l’accepter comme "allant de soi".

Cette domination se constitue et se maintient à travers la diffusion de valeurs au sein de l'École, l'Église, les partis, les organisations de travailleurs, l'institution scientifique, universitaire, artistique, les moyens de communication de masse... Autant de foyers culturels propageant des représentations qui conquièrent peu à peu les esprits et permettent d’obtenir le consentement du plus grand nombre.

Pour renverser la vapeur, toute conquête du pouvoir doit d’abord passer par un long travail idéologique, une lente préparation du terrain au sein de la société civile. Il faut, peu à peu, subvertir les esprits, installer les valeurs que l’on défend dans le domaine public afin de s’assurer d’une hégémonie culturelle avant et dans le but de prendre le pouvoir.

Exemple récent, l’idéologie néolibérale qui s’est auto-instituée comme seul système d’organisation économique possible. Il est le fruit d’un long travail sous-terrain de conquête des esprits depuis les cercles de réflexion d’économistes américains et européens (think-tanks) des années 50 aux journalistes, hauts fonctionnaires, leaders d’opinion, lobbys et artistes qui imposent peu à peu ses principales idées dans la sphère culturelle : "La compétition généralisée est saine", "Le marché s’auto-régule", "Il faut limiter les dépenses publiques et baisser les impôts", "L’État est un mauvais gestionnaire", etc.) avant de connaître une traduction politique dans la prise de pouvoir par Ronald Reagan aux États-Unis, Margaret Thatcher en Angleterre jusqu’à Deng Xiaoping en Chine.

CONQUERIR LA SOCIETE CIVILE

Pour Gramsci, l'État ne se résume pas au seul gouvernement. Même si ces sphères se recoupent souvent, on peut distinguer deux lieux de son pouvoir :

— D’une part, la "société politique2 qui regroupe les institutions politiques, la police, l’armée et la justice. Elle est régie par la force.

— D’autre part la "société civile" qui regroupe des institutions culturelles (université, intellectuels, médias, artistes) et qui diffuse de manière ouverte ou masquée l'idéologie de l'État afin d'obtenir l'adhésion de la majorité de la population. Elle est régie par le consentement.

Si dans les régimes dictatoriaux, c’est surtout la société politique qui règne (par l’oppression), dans les sociétés occidentales démocratiques, c’est principalement la société civile qui organise la domination. C’est donc dans son cadre que le combat (culturel) doit être mené et non par une confrontation frontale avec la société politique.

Si l’on suit Gramsci, il faut d’abord distiller les idées progressistes, travailler aux marges et dans les interstices, réaliser un travail de "termite" pour ronger progressivement toutes les bases de la société capitaliste traditionnelle. L’objectif est celui de combattre les intellectuels de la classe dominante. Une tâche que Gramsci confiait aux intellectuels au sens large (ceux qui manipulent des idées), du moins ceux qui sont organiquement lié aux travailleurs. Il faut pour ce faire percer dans les médias de masse, envahir le langage courant, ou encore imposer ses thèmes et ses concepts dans le débat universitaire et public. À gauche, cela pourrait être d’une part de remettre en cause préceptes et mots du néolibéralisme pour les disqualifier et d’autre part d’imposer des thèmes et des termes comme "catastrophe écologique", "salaire maximum", "relocalisation", "gratuité", "coopérative", "paix économique", "services collectifs", "peuple", "écroissance", "précariat", "égalité réelle", "recherche du bien-être", etc.

À ce titre, si internet permet de nos jours une accélération de ce travail de sape et de diffusion de messages contraire à l’ordre du discours, la lutte contre l’hégémonie de la classe dominante doit aussi être menée en profondeur dans les réseaux sociaux humains. C’est notamment le rôle de l’éducation populaire.

Auteur: Berthier Aurélien

Info: 4 avril 2011, www.agirparlaculture.be

[ sociologie ] [ subversion sémantique ]

 

Commentaires: 0

théologie

Préambule pour la chaîne "Considérations sur le Temps".

Je pensais jusque là que te temps n'existe pas en dehors de la race. Et qu'il n'a aucune importance puisque sa durée est illimitée... Même si dans l'absolu c'est une contre vérité. Les requins ont 400 millions d'années au compteur, il semble que leur univers soit immédiat, inchangé... Ils ont atteint une certaine forme de perfection par rapport à leur milieu, plutôt stable lui aussi : l'océan. Belle homéostasie ma foi. Mais pour faire quoi ?

L'humain a lui émergé il a quelques centaines de milliers d'années. Autant dire que son parcours en tant qu'espèce est étonnamment rapide. Ou dérisoire ? Cousin du requin parce qu'issu lui aussi de l'extraordinaire machine Gaïa, l'homme est un parent instable, jamais adapté ni satisfait... On le dirait perdu dans sa croissance, dans l'accélération de son avidité même. Il est curieux, il veut savoir... Il veut plus. Et la culture consumériste le pousse de plusieurs crans dans cette direction. Moustique qui se rue dans la flamme de la bougie.

Parallèlement, au bénéfice d'une mémoire externalisée donc collective, l'humain ne cesse d'agrandir sa conscience, l'idée de sa place dans le cosmos, parmi les autres vivants, son Moi, etc. Sans parler de son efficacité létale (et peut-être très éphémère) par rapport au reste de la vie bactérielle. Le temps n'existe pas hors notre espèce pour l'unique raison que, n'ayant jamais trouvé moyen de communiquer sur le sujet avec une autre entité vivante, nous n'avons pas d'autre point de vue sur la question. Il est de fait anthropomorphique. Et cette toute petite focale (la notre), qui constate sans cesse ce non "partage du présent" avec les autres entités de cette réalité, isolés les uns des autres en tant qu'espèces, nous ramène aux monades de Leibniz.

Il se trouve cependant que notre monade de primates dépoilés eut un jour ce coup de génie (folie?), qui consista à associer des signes écrits avec des éléments de sa réalité. Signes qui firent - et font désormais - consensus général quant à leurs définitions communes. Notre monde de sapiens transposé dans le langage. Transmutation qui, de par l'ouverture qu'elle apporte et la paresse physique qu'elle permet, a rapidement correspondu à une sorte de drogue. Plus grands accros à cette came, les ci-nommés intellos, philosophes... et autres grandes lectrices.

L'univers de l'animal, plus immédiat parce que non transcodé et différé par le langage, ressemble à un cosmos vierge et pur, qui vit l'instant, sans tous ces paramètres passés mémorisés, distractions, envies d'être ailleurs... pour le polluer. Que se racontent les oiseaux d'ailleurs ? L'homme vit dans les commentaires de ce qu'il vit. Dans un monde conceptuel, notionnel. Est-ce suicidaire ? Peut-être... Qui sait ?... On verra... On s'en fout.

Disons que non.

Tout ceci laisse à penser que si des arbres du vivant se sont développés sur d'autres planètes - et que l'humanité perdure pour se retrouver en position de les explorer - il faudra évidemment rechercher des races qui ont développé langage et mémoire externes. Histoire de rester à notre niveau... et surtout d'avancer en essayant de tirer leçon de ces échanges. Alors un patient travail de traduction pourra être entamé. On aimerait tous en être j'en suis sûr.

Le temps a immense importance. Sans lui tout se passerait simultanément (ah ah ah...). Il est apparemment inépuisable, donc aucunement stressé par quelque survie immédiate, ou autre "objectif à atteindre", à l'instar de notre monde incarné, empli de compétition marchande et avide. Il laisse place aux innombrables développements d'infinies variantes qui, pour le grand bonheur du contemplatif, ne cesseront jamais de le désennuyer.

Il existe certainement quelque part une théorie qui démontre que le Dieu (ou ce que certains tentent d'imaginer sous ce symbole) ne peut qu'être dans cette position paradoxale. Un Créateur impuissant. S'il ne l'était pas il enlèverait sa liberté au vivant, donc à l'homme.

Terminons ce petit essai en soulignant les deux pensées opposées qui débutent cette chaîne de citations. Éternel débat entre créationnistes et non créationnistes.

Auteur: Mg

Info: juillet 2019

[ interrogations ] [ xénolinguistique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

serial killer

Les tueries de masse, dernier avatar de la société hypermoderne
Les "mass shootings" sont surtout le symptôme de sociétés hypermodernes et hyper individualisées. Puisque le collectif semble incapable de rendre le présent et surtout l'avenir plus juste que le passé et de rassurer les peurs individuelles, de nouvelles radicalités occupent l'espace laissé vacant.
Dallas, jeudi 7 juillet 2016, un homme seul muni d'un fusil d'assaut tire sur plusieurs policiers, en tue 5 et en blesse 7 ainsi que 2 civils. Le motif invoqué : il voulait se venger des "blancs et plus particulièrement des policiers blancs". Il s'agit du 8e mass shooting aux Etats-Unis en 2016.
Aujourd'hui, les mass shootings ou tueries de masse sont devenus malheureusement une problématique connue du grand public. Par mass shooting, les universitaires entendent le plus souvent le fait qu'une personne puisse tuer au moins trois personnes en un laps de temps assez court (moins de vingt-quatre heures).
Ce phénomène n'est certes pas inédit puisque des tueries de masse ont été identifiées aux Etats-Unis et en Europe dès le XIXe siècle, mais l'originalité de la situation actuelle provient de l'accélération et l'extension du nombre de telles tueries dans tout l'Occident. Il y a trente ans, le nombre de mass shootings se limitait à un par an et le phénomène était particulièrement concentré sur le territoire américain. Depuis le début des années 2000, le nombre de mass shootings a été multiplié par 10 par rapport aux années 80, et même si le phénomène se concentre encore aux Etats-Unis, de nombreux cas se sont produits en dehors du sol américain : Canada, France, Suisse, Norvège.
De nos travaux récents, il ressort clairement que la circulation d'armes sur un territoire donné accroît la probabilité de réalisation d'un mass shooting mais ne constitue pas un facteur suffisant pour expliquer l'extension de ce phénomène. De même, le chômage, l'intervention militaire extérieure ou encore les inégalités peuvent avoir une incidence, mais cette incidence reste limitée et toute corrélation directe reste difficile à établir.
Selon nous - et c'est la thèse que nous défendons depuis plusieurs années -, l'accroissement du nombre de mass shootings résulte plus structurellement de l'avènement d'une société hypermoderne en Occident. Reprenons la définition du sociologue François Ascher qui considère que nos sociétés sont entrées dans une nouvelle phase de la modernité, une phase qui allie un processus d'approfondissement de l'individualisation et un renforcement de chaque individu à faire société, c'est-à-dire à vouloir participer à la communauté globale notamment du fait de la multiplication des sources d'informations à la disposition de chacun.
Dans la société hypermoderne, l'individu cherche à avoir une maîtrise sur les événements, à combattre de manière réflexive ce qui lui paraît injuste, et à choisir ce qui peut lui paraître éthique. C'est un contexte où la personnalité du tueur de masse peut se développer. De manière radicale, il considère avec sa rationalité propre (rares sont les tueurs de masse diagnostiqués fous), régler des problèmes sociétaux et se faire justice, se venger de catégories d'individus qui semblent se liguer contre lui ou contre une communauté dont il se sent proche. En ce sens, le cas de Micah Johnson, le tueur de Dallas, est symptomatique de notre époque. Noir américain, réserviste de l'armée de terre déployé en Afghanistan, vivant dans la banlieue de Dallas, il a certainement vécu le meurtre d'un jeune noir par la police le 5 juillet à Bâton-Rouge (Louisiane) comme le meurtre de trop, un meurtre qui vient s'ajouter à la longue liste des hommes noirs tués par des policiers blancs lors d'une arrestation.
Les radicalités actuelles sont certainement le résultat de l'incapacité du collectif à rendre le présent et surtout l'avenir plus juste que le passé et à rassurer et calmer les anxiétés et les peurs individuelles. En fermant la porte à toute échappée utopique par rapport au présent, la conscience de l'absence d'un ailleurs pousse certains individus à prendre leur avenir en main ici et maintenant. Poussés par des bouffées narcissiques incontrôlées, des hommes, surtout des hommes, prennent alors les armes et deviennent des bombes humaines.
Sans cette capacité à fédérer autour de nouveaux projets sociétaux, certains chercheront individuellement ou collectivement à se venger de notre société actuelle. Ces actes aussi atroces qu'odieux continueront à perdurer tant que nous n'arriverons pas collectivement à redonner sens à notre avenir.

Auteur: Hassid Olivier

Info: co-auteur de Tueurs de masse, un nouveau type de tueur est né, aux Editions de l'Organisation

[ folie ] [ sociologie ]

 

Commentaires: 0

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

orient-occident

- Klaus Schwab, le patron de Davos, a parlé d’un tsunami technologique entre la robotique, l’intelligence artificielle, les imprimantes 3D, les biotechnologies et l’hybridation de l’homme et de la machine, parce que tout cela bouscule nos vies et nos frontières. Il y a des disruptions partout. Par exemple, Uber est la plus grande société de taxis du monde, mais ils n’ont pas un seul taxi… AirBnb est la plus grande société hôtelière du monde, mais ils n’ont pas un seul hôtel… Amazon est la plus grande librairie du monde, mais ils n’ont pas une seule librairie… Toutes ces technologies entraînent des disruptions assez compliquées à saisir.

- C’est comme pour l’imprimerie ou l’électricité, il y a un certain nombre de choses qui se produisent et qui accélèrent les phénomènes. En 1960, General Motors ou General Electric étaient des sociétés dominantes qui duraient 60 ans. En 1980, on a vu des sociétés, comme IBM, qui ont été leaders pendant 35 ans. Mais aujourd’hui, les nouvelles entreprises comme Apple, Microsoft, Google ou Amazon vont durer une quinzaine d’années. Il y a une accélération et cela ne va faire qu’empirer. On parle beaucoup du match entre l’Amérique et la Chine. J’ai assisté à la montée du Japon, qui a fait un effort surhumain après la guerre. Après, comme ils ne faisaient plus d’enfants, les jeunes sont devenus des fils à papa et l’innovation a disparu. Dans les grandes villes chinoises, c’est la même chose. Les appartements sont trop petits et on risque de retrouver le même phénomène qu’au Japon, c’est-à-dire une diminution de l’innovation. En Amérique, ils savent rebondir, donc je ne pense pas que l’Amérique soit fichue. Quand on lit un certain nombre d’experts, on pourrait penser que la Chine pourrait prendre le relais, mais je ne crois pas que les choses se passeront ainsi. Lorsque la Russie s’est cassé la gueule, les Américains sont arrivés avec les grandes entreprises de consulting, comme McKinsey, et ils ont fait faire des bêtises aux Russes. Les Chinois ont beaucoup médité là-dessus pour ne pas faire la même chose. Ils ont essayé d’inventer un nouveau modèle, qui est beaucoup basé sur la technologie, avec de nombreux défauts quand même. Il faut savoir qu’il y a 900 millions de personnes qui sont sorties de la pauvreté en Chine, mais il y a encore 600 millions de gens qui vivent très pauvrement. C’est pour cette raison que le modèle capitaliste occidental ne convient pas bien à la Chine. On assiste donc à un basculement de l’Occident vers l’Orient, puisque les grandes démographies sont en Orient, mais cela entraîne en même temps une précarité des classes moyennes de l’Ancien Monde riche. L’Europe a dominé 70 % de la planète pendant une époque et, quand les Américains ont pris le relais des Anglais, ils ont automatiquement voulu faire du consumérisme en créant leur village mondial pour vendre leurs produits et amener la démocratie en même temps. Mais la démocratie, cela ne fonctionne pas dans des pays comme la Chine ou l’Inde. Par le biais du consumérisme, les gens ont accédé aux nouvelles technologies, avec toutes les menaces que cela entraîne, mais les promesses étaient tout à fait agréables. On ne se rend pas compte que l’on transmet toutes nos données. Donc, nous sommes fliqués. Les Chinois ont commencé et maintenant les gouvernements occidentaux trouvent que ce n’est pas si mal. Il y a un vrai risque pour nos démocraties.

- L’Europe aurait intérêt à s’écarter davantage de l’Amérique pour réinventer un modèle qui lui soit propre

- Malheureusement, c’est ce qui est en train d’arriver et on ne peut rien faire contre cela. Il y a trois cerveaux dans chaque individu : le néocortex, le limbique et le reptilien. Le néocortex, c’est ce qui est raisonnable. Le limbique, c’est l’émotion. Et le reptilien, c’est le repli sur soi. On voit tous les phénomènes populistes dans de nombreux pays et c’est le repli sur soi reptilien. Quand on ajoute cela à l’émotion, on évoque la nécessité de restaurer la Grande Russie quand on parle au peuple russe, on évoque la grande Chine, et les Américains rêvent d’une grande Amérique… Le néocortex, c’est la raison, et c’est toujours le moins fort. C’est pour cette raison que j’écris que dans quelques décennies, les hommes ne pourront plus comprendre notre psychologie. C’est pour cette raison aussi que les régimes forts vont plus vite que les démocraties. Churchill disait que la démocratie est le moins mauvais des systèmes, mais si c’est un régime fort, on ne discute pas, donc cela va plus vite. L’Europe s’est endormie, on ne veut plus faire la guerre, on est désarmé et, quand il arrive une histoire comme l’Ukraine, on est incapable de faire ce qu’il faut. Maintenant, le match entre les États-Unis et la Chine remet notre modèle en question. On pensait que le modèle démocratique allait s’imposer après la chute du Mur de Berlin. Il y a eu une prolifération des démocraties et, aujourd’hui, on s’aperçoit que l’on est en train de reculer sur ce point. Au fond, l’Europe aurait intérêt à s’écarter davantage de l’Amérique pour réinventer un modèle qui lui soit propre.

Auteur: Salmon Robert

Info: interviewé sur https://www.kernews.com/

[ neuroscience ] [ géopolitique ] [ futurologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier évolutif

L’explosion cambrienne déclenchée par plusieurs transgressions marines ?

Il y a 542 millions d'années apparaissaient, durant une période de quelques dizaines de millions d'années seulement, les grandes lignées d'animaux multicellulaires, comme les vertébrés et les arthropodes. Les lignées végétales et bactériennes se sont elles aussi diversifiées. 

Quel fut le déclencheur de cet événement planétaire ? 

La libération massive d'ions dans les océans, due à une érosion devenue intense, affirme une équipe américaine. Les organismes marins auraient utilisé ces polluants pour fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.

Les premières formes de vie seraient apparues sur Terre il y a 3,5 milliards d'années. Curieusement, ces êtres restèrent en grande majorité unicellulaires (vivant parfois en colonies) jusqu'à l'explosion cambrienne survenue il y a seulement 542 millions d'années. Cet événement vit alors naître de nombreux organismes pluricellulaires et des structures biominérales (par exemple des coquillages) en seulement quelques millions d'années, preuve d'une accélération soudaine de l'évolution (comme en témoignent par exemple les schistes de Burgess). Mais quel fut le facteur déclenchant ? Cette question taraude de nombreux scientifiques depuis longtemps car peu d'hypothèses convaincantes ont été apportées.

Il existe pour la même époque une autre grande curiosité, mais cette fois d'ordre géologique, clairement observable dans le Grand Canyon. L'analyse des couches stratigraphiques de cette région révèle l'histoire de la Terre sur près de 2 milliards d'années, ou presque, car il reste plusieurs discordances chronologiques. Ainsi, il n'y a pas de trace de roches datant de l'époque de l'explosion cambrienne. Des sédiments âgés de 525 millions d'années reposent directement sur des roches métamorphiques de 1.740 millions d'années et des couches sédimentaires inclinées âgées de 1.200 à 740 millions d'années. Des roches sédimentaires "jeunes" provenant de mers peu profondes recouvrent donc de "vieilles" roches sans aucune continuité logique. Mais une question se pose : a-t-on vraiment perdu des informations sur l'évolution de la Terre pendant 215 millions d'années à cause de cette inconformité géologique ?

Il semble bien que non. Selon Shanan Peters de l'université de Wisconsin-Madison, cette absence de données géologiques permettrait d'expliquer le mécanisme déclencheur de l'explosion cambrienne. Les résultats obtenus par l'équipe de ce chercheur sont présentés dans la revue Nature. L'inconformité résulterait d'une succession d'événements géologiques ayant causé la libération massive d'ions dans les océans. Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation. Cette dernière changea alors radicalement le cours de l’évolution, tant les avantages qu'elle apporte sont nombreux.

(Illustration - Le Grand Canyon s'étend sur 450 km de long et possède une profondeur moyenne de 1.300 mètres. Les strates visibles permettent littéralement de lire l'histoire géologique du continent nord-américain - L’explosion cambrienne serait liée à un trop plein d'ions)

Ces explications font suite à l'analyse des propriétés géochimiques de plus de 20.000 échantillons de roches prélevés en Amérique du Nord.

Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d'anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l'air et à l'eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d'ions calcium, potassium, fer et silice. La chimie de l'eau fut alors profondément modifiée.

Un dernier retour des mers il y a 525 millions d'années provoqua le dépôt de sédiments plus jeunes. De nombreuses traces géologiques confirment ces événements - couches de glauconite et d'autres roches particulièrement riches en potassium, fer et silice.

(ici un schéma montre la brutale accélération de l'évolution au Cambrien avec apparition de beaucoup de genres d'espèces vivantes - diversité.

Des minerais pour évacuer le trop plein d’ions

Chaque organisme vivant maintient un équilibre ionique avec le milieu. L'arrivée massive d'ions dans l'environnement marin a dû profondément perturber cette balance. Plusieurs espèces se seraient mises à stocker leurs excédents en ions calcium, potassium, fer et silice sous forme de minerais afin de rétablir l'équilibre. Cette stratégie a deux avantages : les effets des particules chargées sont limités et elles ne sont pas rejetées dans le milieu où elles pourraient à nouveau jouer un rôle néfaste.  

Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l'explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur "squelette" siliceux.

Les avantages évolutifs procurés par ces minéraux sont conséquents puisqu'ils sont utilisés pour la conception de coquilles et d'épines (rôle de protection), de squelettes (rôle de soutien) et de griffes ou dents (rôle dans la prédation). Leur apparition permet de mieux comprendre le changement soudain du cours de l'évolution. 

Ce que certains qualifiaient de "trou" dans les enregistrements de l'histoire de la Terre se révèle en réalité être une source d'information d'une valeur inestimable. La "grande inconformité" (en anglais Great Unconformity) révèle ainsi un mécanisme probable du déclenchement de l'explosion radiative du Cambrien.

Auteur: Internet

Info: Quentin Mauguit, Futura-sciences.com, 24/04/2012

[ animal-minéral ] [ paléontologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

covid-19

De façon concrète, dans nos vies, la "smart planet" sans contact - le monde-machine - a franchi des seuils en 2020 :

Bond en avant du commerce électronique et des livraisons à domicile. L’épidémie a augmenté de 183 milliards les dépenses dans l’e-commerce mondial. L’e-commerce représente désormais 13,4 % du commerce de détail en France, contre 9,8 % en 2019. Selon Romain Boisson, patron de Visa France, "l’e-commerce s’est ancré dans les habitudes de consommation des Français et s’impose désormais […] pour tous les commerçants, quelle que soit la taille de leur entreprise". Deliveroo vaut 7 milliards de dollars en bourse. Les grandes sociétés de transport/logistique (DHL, UPS, FedEx, etc.) ont réalisé un chiffre d’affaires de 300 milliards de dollars en 2020. Le chiffre d’affaires d’Amazon a augmenté de 38 % en 2020 pour atteindre 320 milliards d’euros. C’est à l’"Amazon academy" que l’État français, via la Banque publique d’investissement, confie la formation des PME pour leur mettre le pied à l’Internet. Nom du programme : l’Accélérateur du numérique.

Adoption du télétravail. Cinq millions de Français ont télétravaillé pendant le premier confinement et 60 % des salariés veulent continuer après la crise. Moins de locaux, plus de télécommunications. Le nombre d’abonnés à la fibre chez Orange a bondi de 50 % : "Jamais on n’a autant câblé les Français qu’en 2020". Boom des applications de visioconférence et autres "outils collaboratifs" en ligne. Microsoft Teams enregistre un record avec 44 millions d’utilisateurs quotidiens. Les ventes d’ordinateurs connaissent la plus forte croissance annuelle (+ 4,8 %) depuis dix ans dans le monde. Au tribunal administratif de Grenoble, "le tout numérique a amorti la baisse d’activité". De quoi tenir l’objectif des services publics "100 % dématérialisés" fixé par la plan "Action publique 2022".

Invasion du télé-enseignement. Invention des cours "en distanciel" y compris pour les apprentis, grâce au "learning management system". L’école de commerce de Grenoble organise ses "Portes ouvertes online" en janvier 2021. La ministre de l’Enseignement supérieur, Frédérique Vidal, voit dans l’épidémie "une opportunité de façonner l’université numérique de demain". Envol inespéré pour le "e-learning et les ed-tech", le plus profitable des "marchés porteurs" identifiés en février 2020 par le cabinet Roland Berger, avec 6000 milliards de dollars en 2018. Parmi les "verrous à lever", celui-ci déplorait "la complexité́ des processus d’accès au marché́ scolaire qui agit comme une barrière à l’entrée". Voilà un verrou forcé par le virus. Le moindre prétexte renvoie désormais les élèves derrière leur écran, comme l’ont constaté ceux des Yvelines, assignés "en distanciel" pour une chute de neige le 10 février 2021. #Restezchezvous est entré dans les mœurs.

Ruée sur les loisirs en ligne. 36 % de temps d’écran en plus par jour pour les Français, plus une heure de télé supplémentaire. Plus de 2,6 milliards de personnes utilisent quotidiennement Facebook, WhatsApp et Instagram, soit 15 % de plus que fin 201928. Netflix et le jeu vidéo, grands gagnants du confinement. Lequel a "accéléré le processus d’une culture de la sédentarité plus poussée, notamment la place des écrans", alerte David Thivel, membre du conseil scientifique de l’Observatoire national de l’activité́ physique et de la sédentarité́ (il y a des observatoires pour tout). Les Français ont pris en moyenne 3 kg en 2020.

Décollage de la télémédecine. 28 % de téléconsultations en avril 2020, contre 0,1 % avant la pandémie. 19 millions de téléconsultations remboursées par la Sécurité sociale en 2020. Les start up de la santé numérique (dites "healthtech") lèvent 8,2 milliards de dollars au premier trimestre 2020, un record30. Selon Stanislas Niox-Chateau, le patron de Doctolib, "une fois l’épidémie de coronavirus passée, entre 15 % et 20 % des consultations médicales se feront à distance en France".

[...]

Invasion de la monnaie virtuelle. Les Français délaissent le cash par peur de la contamination. Les retraits de liquide ont chuté de 50 % en volume pendant le premier confinement, au profit du paiement "sans contact" (dont l’Autorité bancaire européenne a relevé le plafond à 50 €), qui bondit de 65 %. Les réfractaires ont "sauté le pas, et il n’y aura pas de retour en arrière", selon Pierre-Antoine Vacheron, directeur général de Natixis Payments. Au fait, le nombre de distributeurs de billets diminue en France depuis 2015. Ça va s’accélérer. Avec l’e-commerce et le "click & collect", le consommateur paie désormais en ligne. "Les Français s’y habituent", constate le même expert. Ou plutôt, on y habitue les Français. On s’est vu refuser un chèque au motif qu’il faudrait toucher notre carte d’identité pour l’encaisser. [...]

Effet-cliquet : on ne revient pas en arrière quand les technologies ont imposé de nouvelles habitudes. L’offre a créé la demande. De réunions Zoom en concerts virtuels, de cours sur Internet en achats en ligne, de cyber-démarches administratives en téléconsultations médicales, nous devenons des Smartiens, cette espèce qui ne survit que connectée à la Machinerie générale. Voyez la gratitude des confinés connectés – "comment aurions-nous fait sans Internet ?" - révélant toute honte bue leur dépendance Si notre vie tient à un câble, la sélection technologique élimine ceux qui refusent ou n’ont pas accès à la connexion universelle. Seuls restent les adaptés, les connectés, vaccinés, livrés et monitorés par la Machine. Le petit commerce ne survit pas sans mise en ligne, c’est-à-dire sans supprimer ce qui fait le petit commerce. Il faut choisir : disparaître ou disparaître.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Le règne machinal", éditions Service compris, 2021, pages 65 à 70

[ transition technologique ] [ transformations ] [ conséquences ] [ accélération ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

microbiologie

Comment le microbiome* influence notre santé 

Nous ne sommes jamais seuls. En plus des 30 000 milliards de cellules humaines, notre corps abrite quelque 39 000 milliards de microbes – bactéries, champignons et protozoaires qui vivent dans nos intestins, nos poumons, notre bouche, notre nez, notre peau et ailleurs dans tout le corps. Les ensembles d’organismes présents dans et sur notre corps, le " microbiote ", font partie d’habitats microbiens plus larges, ou " microbiomes ", qui englobent tous les génomes viraux et cellulaires, les protéines codées et d’autres molécules dans leur environnement local. (Cependant,  il existe une certaine ambiguïté  dans les définitions, de sorte que l'utilisation des termes varie souvent.)

Bien que le microbiome soit récemment devenu un sujet brûlant en raison de son importance potentielle pour notre santé, ce n'est pas un concept nouveau. Certains font remonter ses origines au XVIIe siècle, lorsque le microbiologiste néerlandais Antonie van Leeuwenhoek a décrit pour la première fois de minuscules organismes qu'il avait prélevés dans sa bouche et observés sous un microscope artisanal. Tout au long des années 1900 et au début des années 2000, un certain nombre de découvertes ont attiré l'attention des gens sur les microbes vivant à l'intérieur de nous, mais ce domaine a reçu une attention accrue en 2007 lorsque les National Institutes of Health ont lancé le projet sur le microbiome humain. Depuis lors, les scientifiques ont catalogué de manière de plus en plus détaillée la biodiversité microbienne du corps humain. Ils ont découvert que les microbiomes sont distincts dans tout le corps : la composition microbienne de l’intestin, par exemple, est très différente de celle de la bouche. Ils en sont également venus à reconnaître qu’il n’existe pas de microbiome " ​​normal ". Au contraire, comme pour les empreintes digitales, chacun abrite une sélection unique d’espèces et de souches microbiennes.

Ces microbes jouent de nombreux rôles, depuis la protection contre les agents pathogènes et le réglage de nos réponses immunitaires jusqu'à la digestion des aliments et la synthèse des nutriments. Pour cette raison, lorsqu’un microbiome est désorganisé – par exemple à cause d’une mauvaise alimentation, de maladies infectieuses, de médicaments ou de facteurs environnementaux – cela peut avoir un effet d’entraînement sur notre santé. Des microbiomes malsains ont été associés au cancer, aux maladies cardiaques et pulmonaires, à l’inflammation et aux maladies inflammatoires de l’intestin. On pense même que les microbes régulent l’axe intestin-cerveau, une autoroute de communication qui relie le cerveau au système nerveux entérique, qui contrôle les intestins. Aujourd’hui, la médecine cible de plus en plus les microbiomes pour traiter diverses maladies. Par exemple, les greffes fécales contenant un microbiote sain sont parfois utilisées pour traiter des infections bactériennes graves du côlon.


Malgré une accélération de la recherche sur le microbiome au cours des dernières décennies, qui a donné naissance à de nouvelles technologies génomiques puissantes, de nombreuses questions fondamentales restent sans réponse complète. Comment acquérons-nous le microbiote et comment la communauté évolue-t-elle tout au long de notre vie ? Quel est l’impact des différents environnements et modes de vie sur le microbiome ? Comment le microbiome peut-il provoquer ou être utilisé pour traiter des maladies ? Ces questions et bien d’autres alimentent la recherche biologique et nous aident à mieux comprendre qui et ce qui fait de nous ce que nous sommes.

Quoi de neuf et remarquable

D’où vient notre microbiome ? Plusieurs études réalisées au cours de la dernière année ont donné des indications. Les bébés acquièrent la plupart de leurs microbes de leur mère à la naissance et dans les mois qui suivent. Mais il s’avère que les mères ne partagent pas seulement des organismes microbiens avec leurs bébés, elles partagent également des gènes microbiens. Dans une étude de 2022 publiée dans Cell , des scientifiques ont révélé que de courtes séquences d'ADN appelées éléments mobiles peuvent passer des bactéries de la mère aux bactéries du bébé, même des mois après la naissance. Comme je l'ai déjà signalé dans  Quanta , il est probable que ces gènes pourraient aider à développer un microbiome intestinal plus performant chez le bébé, ce qui pourrait à son tour développer davantage son système immunitaire.

La transmission ne se produit pas seulement à la naissance. En fait, les microbiomes sont incroyablement dynamiques et peuvent changer radicalement au cours de la vie d’une personne. Dans un article de Quanta publié l’année dernière, j’ai rendu compte de l’analyse mondiale la plus complète de la transmission du microbiome à ce jour. À l’aide de nouveaux outils génomiques, une équipe de biologistes italiens a retracé plus de 800 000 souches de microbes entre familles, colocataires, voisins et villages dans 20 pays. Ils ont découvert que les microbes sautent beaucoup entre les personnes, en particulier entre les conjoints et les colocataires, qui passent beaucoup de temps ensemble. Ces résultats suggèrent que certaines maladies qui ne sont pas considérées comme contagieuses pourraient avoir un aspect contagieux si elles impliquent le microbiome. Cependant, cette idée est spéculative et sera sûrement débattue et étudiée dans les années à venir.

Les connaissances sur la manière dont nous acquérons le microbiome et son impact sur notre corps ne proviennent pas uniquement d’études réalisées sur des humains. D’autres animaux possèdent également des microbiomes essentiels à leur santé et à leur développement – ​​et plusieurs études récentes ont établi des liens entre les microbes intestinaux et le cerveau. En 2019, Quanta a signalé que le comportement de peur diffère entre les souris ayant des microbiomes différents, et en 2022, nous avons rendu compte de la manière dont les microbiomes influencent les compétences sociales et la structure cérébrale du poisson zèbre.




Auteur: Internet

Info: https://www.quantamagazine.org/ - 11 03 2024 - Yasemin Saplakogku. *Pour préciser : Le terme microbiote est suivi du nom de l'environnement dans lequel il se trouve. Par exemple, le « microbiote intestinal » fait référence au microbiote présent dans les voies intestinales. Le microbiome fait référence à l'ensemble des gènes hébergés par des micro-organismes, ce que l'on appelle le théâtre d'activité.

[ orchestre invisible du corps ] [ Des bactéries aux organes ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel