Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 604
Temps de recherche: 0.0536s

pouvoir sémantique

La bataille pour le contrôle de votre esprit

Dans son roman dystopique classique 1984, George Orwell a écrit : "Si vous voulez une image du futur, imaginez une botte piétinant un visage humain - pour toujours." Cette image frappante a servi de symbole puissant pour le totalitarisme au 20e siècle. Mais comme l'a récemment observé Caylan Ford, avec l'émergence des passeports de santé numériques dans l'État de sécurité biomédicale, le nouveau symbole de la répression totalitaire n'est "pas une botte, mais un algorithme : sans émotion, imperméable à tout appel, façonnant silencieusement la biomasse.

Ces nouveaux mécanismes de surveillance et de contrôle numériques ne seront pas moins oppressifs parce que plus virtuels que physiques. Les applications de traçage des contacts, par exemple, ont proliféré avec au moins 120 applications diverses utilisées dans 71 États différents, et 60 autres mesures numériques de traçage des contacts ont été utilisées dans 38 pays. Rien ne prouve actuellement que les applications de recherche des contacts ou autres méthodes de surveillance numérique ont contribué à ralentir la propagation du covid ; mais comme pour beaucoup de nos politiques de lutte contre les pandémies, cela ne semble pas avoir dissuadé leur utilisation.

D'autres technologies de pointe ont été déployées dans le cadre de ce qu'un écrivain a appelé, avec un clin d'œil à Orwell, "réflexe de la piétaille", pour décrire la propension des gouvernements à abuser des pouvoirs d'urgence. Vingt-deux pays ont utilisé des drones de surveillance pour repérer les contrevenants aux règles du covid, d'autres ont déployé des technologies de reconnaissance faciale, vingt-huit pays ont eu recours à la censure d'Internet et treize pays ont eu recours à la coupure d'Internet pour gérer les populations pendant le covid. Au total, trente-deux pays ont eu recours à l'armée ou à des engins militaires pour faire respecter les règles, ce qui a entraîné des pertes humaines. En Angola, par exemple, la police a tiré et tué plusieurs citoyens alors qu'elle imposait un confinement.

Orwell a exploré le pouvoir que le langage a de façonner notre pensée, et notamment la capacité d'un langage négligé ou dégradé à la déformer. Il a exprimé ces préoccupations non seulement dans ses romans Animal Farm et 1984, mais aussi dans son essai classique, "Politics and the English Language", où il affirme que "si la pensée corrompt le langage, le langage peut aussi corrompre la pensée".

Le régime totalitaire décrit dans 1984 exige des citoyens qu'ils communiquent en Newspeak, une langue soigneusement contrôlée, à la grammaire simplifiée et au vocabulaire restreint, conçue pour limiter la capacité de l'individu à penser ou à exprimer des concepts subversifs tels que l'identité personnelle, l'expression personnelle et le libre arbitre. Avec cette abâtardissement du langage, des pensées complètes sont réduites à des termes simples ne véhiculant qu'un sens simpliste.  

Cette novlangue (newspeak)  élimine la possibilité de nuance, rendant impossible la considération et la communication des nuances de sens. Le Parti a également l'intention, avec les mots courts du Newspeak, de rendre le discours physiquement automatique et donc de rendre le discours largement inconscient, ce qui diminue encore la possibilité d'une pensée véritablement critique. Dans le  roman, le personnage Syme évoque son travail de rédaction de la dernière édition du dictionnaire du Newspeak :

"D'ici 2050 - probablement plus tôt - toute connaissance réelle de l'Oldspeak [anglais standard] aura disparu. Toute la littérature du passé aura été détruite. Chaucer, Shakespeare, Milton, Byron - n'existeront plus que dans des versions en novlangue, pas seulement transformées en quelque chose de différent, mais en réalité contradictoires avec ce qu'ils étaient. Même la littérature du Parti changera. Même les slogans changeront. Comment peut-on avoir un slogan comme "La liberté, c'est de l'esclavage" alors que le concept de liberté a été aboli ? Tout le climat de la pensée en sera différent. En fait, il n'y aura pas de pensée, telle que nous l'entendons aujourd'hui. L'orthodoxie signifie ne pas penser - ne pas avoir besoin de penser. L'orthodoxie, c'est l'inconscience."

Plusieurs termes dénigrants ont été déployés de manière répétée pendant la pandémie, des phrases dont la seule fonction était d'empêcher toute possibilité de pensée critique. Il s'agit, entre autres, des mots "négationniste du virus", "anti-vax" et "théoricien de la conspiration". Certains commentateurs vont sans doute déformer ce livre, et en particulier ce chapitre, en utilisant ces termes et d'autres similaires - des raccourcis tout faits qui évitent aux critiques la peine de lire le livre ou d'examiner de manière critique mes preuves ou mes arguments. Un bref commentaire sur chacun de ces termes peut être utile pour illustrer leur fonctionnement.

Le premier terme, "négationniste du covidien", nécessite peu d'attention. Ceux qui lancent cette accusation à toute personne critiquant notre réponse à la pandémie assimilent imprudemment le covid à l'Holocauste, ce qui suggère que l'antisémitisme continue d'infecter le discours à droite comme à gauche. Nous n'avons pas besoin de nous attarder sur cette phrase.

L'épithète " anti-vax ", déployé pour caractériser toute personne qui soulève des questions sur la campagne de vaccination de masse ou sur la sécurité et l'efficacité des vaccins covidés, fonctionne de la même manière comme un frein à la conversation plutôt que comme une étiquette descriptive précise. Lorsque les gens me demandent si je suis anti-vax parce que je conteste le mandat de vaccination, je ne peux que répondre que la question a autant de sens pour moi que la question "Dr. Kheriaty, êtes-vous 'pro-médication' ou 'anti-médication' ?". La réponse est évidemment contingente et nuancée : quel médicament, pour quel patient ou population de patients, dans quelles circonstances et pour quelles indications ? Il n'existe clairement pas de médicament, ni de vaccin d'ailleurs, qui soit toujours bon pour tout le monde, en toute circonstance et tout le temps.

En ce qui concerne le terme "conspirationniste", Agamben note que son utilisation sans discernement "témoigne d'une surprenante ignorance historique". Car quiconque est familier avec l'histoire sait que les récits des historiens retracent et reconstruisent les actions d'individus, de groupes et de factions travaillant dans un but commun pour atteindre leurs objectifs en utilisant tous les moyens disponibles. Il cite trois exemples parmi les milliers que compte l'histoire.

En 415 avant J.-C., Alcibiade déploya son influence et son argent pour convaincre les Athéniens de se lancer dans une expédition en Sicile, entreprise qui se révéla désastreuse et marqua la fin de la suprématie athénienne. En représailles, les ennemis d'Alcibiade engagent de faux témoins et conspirent contre lui pour le condamner à mort. 

En 1799, Napoléon Bonaparte viole son serment de fidélité à la Constitution de la République, renverse le directoire par un coup d'État, s'arroge les pleins pouvoirs et met fin à la Révolution. Quelques jours auparavant, il avait rencontré ses co-conspirateurs pour affiner leur stratégie contre l'opposition anticipée du Conseil des Cinq-Cents.

Plus près de nous, il mentionne la marche sur Rome de 25 000 fascistes italiens en octobre 1922. On sait que Mussolini prépara la marche avec trois collaborateurs, qu'il prit contact avec le Premier ministre et des personnalités puissantes du monde des affaires (certains affirment même que Mussolini rencontra secrètement le roi pour explorer d'éventuelles allégeances). Les fascistes avaient d’ailleurs répété leur occupation de Rome par une occupation militaire d'Ancône deux mois auparavant. 

D'innombrables autres exemples, du meurtre de Jules César à la révolution bolchévique, viendront à l'esprit de tout étudiant en histoire. Dans tous ces cas, des individus se réunissent en groupes ou en partis pour élaborer des stratégies et des tactiques, anticiper les obstacles, puis agir résolument pour atteindre leurs objectifs. Agamben reconnaît que cela ne signifie pas qu'il soit toujours nécessaire de recourir aux "conspirations" pour expliquer les événements historiques. "Mais quiconque qualifierait de "théoricien de la conspiration" un historien qui tenterait de reconstituer en détail les complots qui ont déclenché de tels événements ferait très certainement preuve de sa propre ignorance, voire de son idiotie."

Quiconque mentionnant "The Great Reset" en 2019 était accusé d'adhérer à une théorie du complot - du moins jusqu'à ce que le fondateur et président exécutif du Forum économique mondial, Klaus Schwab, publie en 2020 un livre exposant l'agenda du WEF avec le titre utile, Covid-19 : The Great Reset. Après de nouvelles révélations sur l'hypothèse de la fuite dans un laboratoire, le financement par les États-Unis de la recherche sur le principe du gain de fonction à l'Institut de virologie de Wuhan, les questions de sécurité des vaccins volontairement supprimés, et la censure coordonnée des médias et les campagnes de diffamation du gouvernement contre les voix dissidentes, il semble que la seule différence entre une théorie du complot et une nouvelle crédible aura été d'environ six mois.

Auteur: Kheriaty Aaron

Info: The Brownstone Institute, mai 2022

[ propagande numérique ] [ complotisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

passéistes

Alors que la revue Philitt publie un recueil de ses meilleures contributions, son directeur explique la démarche de l’antimoderne, et en quoi elle se distingue de celle du conservateur ou du réactionnaire .

FIGAROVOX : - Dans l’introduction de votre recueil "Résister à la modernité", vous reprenez l’apostrophe de Rimbaud "être absolument moderne" pour l’inverser "être absolument antimoderne". Qu’entendez-vous par antimoderne? Est-il possible de rejeter la modernité en bloc?

M. GIROUX :  - Les antimodernes renvoient à une tradition précise très bien thématisée par Antoine Compagnon dans un livre paru en 2005 Les antimodernes: De Joseph de Maistre à Roland Barthes. Il est essentiel de comprendre que les antimodernes sont des modernes. Ce sont, comme dit Compagnon, des modernes "déniaisés du moderne", des modernes "contrariés".

Car, en réalité, il n’y a d’anti-modernes que dans le monde moderne, époque dont la datation précise varie selon les écrivains. Certains disent que le monde moderne commence avec la révolution scientifique de Galilée (Michel Henry), d’autres avec la Réforme protestante (Joseph de Maistre), d’autres encore avec la Révolution industrielle (Günther Anders).

Charles Péguy, lui, fait commencer le "monde moderne" en 1881. Les antimodernes sont ceux qui identifient dans leur époque une forme de déclin spirituel et de diminution de l’homme. Les antimodernes sont paradoxaux car ils allient souvent une critique de l’idéologie du progrès avec une grande modernité esthétique. Baudelaire, Péguy, Bernanos détestent leur époque mais l’expriment à travers des formes littéraires renouvelées.

D’un point de vue politique, les anti-modernes sont encore ambivalents car ils sont souvent engagés dans les aventures politiques de leur temps. On peut aussi ajouter qu’ils sont très individualistes alors qu’il y a chez eux une critique permanente de l’individualisme. En résumé, les antimodernes sont, malgré eux, partie prenante de la modernité.

FIGAROVOX : - En quoi l’antimoderne se distingue-t-il du réactionnaire ou du traditionaliste?

M. GIROUX : - Joseph de Maistre, qui est le père de la réaction, est souvent considéré comme un antimoderne pour des raisons à la fois esthétiques et philosophiques. Sa langue est brillante et moderne, tant et si bien que Robert Triomphe disait de lui qu’il était un "Voltaire retourné". De même, Maistre, bien que contre-révolutionnaire estime que la "contre-révolution ne sera pas une révolution contraire mais le contraire de la révolution".

La Révolution est pour lui un châtiment qui doit purifier le peuple français par le sang. Il entérine la marche de l’histoire et un retour à l’ordre ancien n’a pas de sens à ses yeux. Selon moi, il y a presque un malentendu sur la notion de réactionnaire si l’on considère que Maistre l’initie. Aujourd’hui, le mot "réactionnaire" est dévoyé et ne renvoie à aucune réalité. On accuse confusément des personnalités d’être "réactionnaires" alors que ce sont, en gros, des libéraux conservateurs nostalgiques d’un passé récent, souvent celui de la France sous le Général de Gaulle.

Les traditionalistes à la Louis de Bonald ou les tenants de la Tradition à la René Guénon renvoient à des modes de pensée différents. Bonald est un doctrinal, précurseur de la sociologie française, qui n’a pas le charme esthétique d’un Maistre. De ce point de vue, c’est précisément parce qu’il n’est pas moderne qu’il n’est pas antimoderne.

Guénon, quant à lui, estime que l’histoire de l’humanité est une longue dégradation depuis un Âge d’or immémorial. Son logiciel mental est indépendant des catégories modernes. Il cherche moins à formuler une critique antimoderne qu’à asséner que la modernité est une anti-Tradition.

FIGAROVOX : - Vous critiquez l’homo reactus, c’est-à-dire le réactionnaire qui fait de l’anti-politiquement correct un réflexe. Pourquoi? N’est-il pas un peu snob que de vouloir trier entre les bons et les mauvais antimodernes? L’union contre le progressisme n’exige-t-elle pas de faire front?

M. GIROUX : - Homo reactus, néologisme inventé en référence à l’Homo festivus de Philippe Muray, n’est pas un réactionnaire au sens stricte. Si l’on considère que Joseph de Maistre est un réactionnaire - et nous avons vu que c’était déjà problématique - alors Homo reactus n’est pas un réactionnaire.

Homo reactus désigne plutôt une certaine frange des journalistes et des intellectuels qui ont fait du politiquement incorrect un argument commercial et une fin en soi. Homo reactus est politiquement incorrect, non parce qu’il défend une vision du monde profonde, mais par principe, pour montrer que, surtout, il n’est "pas-de-gauche".

Homo reactus, contrairement aux antimodernes, n’est pas du tout scandalisé par le monde tel qu’il est, il s’en accommode parfaitement et ne cherche pas à renverser la table. Comme son nom l’indique, Homo reactus réagit, mais il ne porte pas de discours positif. C’est un homme du ressentiment, tel qu’il a été thématisé par Nietzsche. Rien à voir donc avec les antimodernes dont la radicalité philosophique et esthétique bouleversent le sens commun.

FIGAROVX : - Vous nous faites découvrir énormément d’auteurs… Charles Péguy, Dostoïevski, Georges Bernanos, Léon Bloy, Soljenitsyne, Baudelaire, Guénon, Chesterton: quel est le point commun de tous ces écrivains ?

M. GIROUX : - Ce qui permet de rapprocher les antimodernes, tant ils différent sur de nombreux points quand on les prend individuellement, c’est leur ethos, c’est-à-dire leur tempérament. Ils sont habités par une conviction profonde: le monde qui est le nôtre a quelque chose de scandaleux. Le monde moderne est à la fois laid, bête et inique.

Le développement de la technique défigure la surface de la terre et avilit l’homme, les modes de vie contemporains encouragent un rapport utilitariste à autrui et mettent en berne la spiritualité, l’hégémonie du capitalisme aboutit à une nouvelle forme de servitude. Cet état de fait est la raison de la colère des antimodernes. Et ils ont en commun de ne pas transiger avec le monde tel qu’il est, de ne jamais "s’habituer", pour reprendre une terminologie de Péguy.

Leur vitupération, si elle peut être le signe d’un certain pessimisme, n’est pas pour autant une invitation au désespoir. Au contraire, l’antimoderne est travaillé par l’espérance et c’est de cette inadéquation entre la réalité et leur idéal que naît leur souffrance ainsi que leur inépuisable volonté d’en découdre.

FIGAROVOX : - Votre revue laisse une grande part à la littérature. En quoi celle-ci est-elle un antidote à la modernité?

M. GIROUX : - La littérature est une manière unique, non théorique, de rendre compte de la réalité. En cela, la littérature s’oppose à la démarche des sciences sociales. Alors que ces dernières réduisent la réalité à des entités objectives, évaluées selon des méthodes quantitatives, la littérature tire sa légitimité de la subjectivité qui la produit.

Ce serait une erreur, par exemple, de réduire l’œuvre de Balzac à une entreprise réaliste, voire naturaliste, de glorifier la Comédie humaine seulement parce que, comme on l’entend souvent, elle concurrencerait l’état-civil. Il y a chez Balzac plus qu’une description réaliste de la société française du XIXe siècle: il y a aussi la magie de la peau de chagrin ou le charisme faustien d’un Vautrin. Dostoïevski, qui avait beaucoup lu Balzac, avait compris cela.

Son œuvre, si elle a une dimension sociologique, est une aussi une plongée inquiétante dans les bas-fonds de la psyché humaine, une tentative de dévoilement du mystère profond de l’existence (Dieu, l’âme, la liberté). La littérature est intrinsèquement antimoderne dans la mesure où elle cherche à préserver l’existence de la vie intérieure. D’une certaine manière, on peut dire que le naturalisme - qui voulait donner à la littérature un statut scientifique - est une entreprise non-littéraire. La réduction sociologique de la littérature entraîne sa propre destruction.

FIGAROVOX : - Vous écrivez que le moderne se caractérise par la haine du secret et prescrivez contre le culte de la transparence et de l’exhibition la noblesse de la dissimulation. Pourquoi le moderne est-il hostile au secret? En quoi celui-ci est-il précieux à la civilisation?

M. GIROUX : - Le moderne ne croit pas qu’il existe une dimension cachée de l’existence, quelque chose qui échappe à une description objective. La modernité s’est en partie construite sur la dénonciation de certaines "illusions métaphysiques". Les grands mouvements scientistes de la fin du XIXe siècle sont la caricature de cette idéologie matérialiste: la nature de l’être est matérielle et rien n’existe qui ne puisse s’expliquer par des méthodes scientifiques.

Dès lors, ce qui n’est pas démontrable rationnellement mais qui renvoie à un autre type de convictions (la croyance, la foi, l’intuition etc.) est d’emblée exclu de la réalité. Le moderne est hostile au "secret" car il ne le comprend pas et préfère s’en moquer en l’accusant de relever d’une forme de superstition.

Michel Henry, ce grand philosophe malheureusement peu connu, estimait que la tradition philosophique occidentale avait été incapable de penser l’intériorité de la vie car elle fonctionnait selon le paradigme de la représentation, du voir, de la monstration.

Or, pour Henry, l’essence de la vie consistait à ne pas se montrer, à reposer dans le secret. Cette occultation de la vie est aux yeux de Henry la forme moderne de la barbarie.

Auteur: Giroux Matthieu

Info: sur https://www.lefigaro.fr, interview d'Eugénie Bastié, Publié le 23/01/2021

[ fermeture rationaliste ] [ penseurs ] [ réalité transposée ] [ codage du réel ] [ apriorisme aveugle ] [ tour d'horizon ]

 
Commentaires: 1
Ajouté à la BD par miguel

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

autodétermination

Le (non-)rôle de la conscience
Le biologiste François Jacob a utilisé à propos de notre cerveau, une image admirable : le cerveau humain est conçu, dit-il, comme une brouette sur laquelle aurait été greffé un moteur à réaction. Par cette image frappante, il attirait notre attention sur le fait que notre cerveau n’est pas constitué comme une machine d’une seule pièce. Il y a en son centre, le cerveau reptilien, appelé ainsi parce qu’il possède déjà la même structure chez le reptile, et le cerveau des mammifères s’est construit comme une couche additionnelle, absolument distincte : le cortex est d’une autre nature que le cerveau reptilien. Lequel est celui des sens, de la réaction immédiate, celui du réflexe, de l’affect, comme s’expriment les psychologues.

Le cortex s’est spécialisé dans le raisonnement, dans la réflexion rationnelle, l’enchaînement des arguments, le calcul mathématique, tout ce qui est de l’ordre des symboles, et il est greffé sur ce cerveau reptilien qui est lui d’une nature purement instinctive, ce qui fait que nous réagirons par l’enthousiasme ou par la peur devant ce que notre cerveau-cortex aura déterminé de faire. Les plus beaux exemples dans ce domaine, ce sont bien sûrs les traders qui nous les proposent. Ceux d’entre mes lecteurs qui connaissent des traders savent que le jour où ils ont gagné beaucoup d’argent ils sont dans les restaurants et les bars des beaux quartiers, ils fument de gros cigares et boivent beaucoup, alors que les jours où ils ont perdu des sommes impressionnantes, on les voit beaucoup moins : ils sont à la maison, ils essaient de dormir et ont pris des cachets pour tenter d’y parvenir.

Une autre caractéristique de notre cerveau, c’est que la conscience que nous avons de ce que nous faisons, cette conscience n’a pas véritablement été conçue comme un instrument qui nous permette de prendre des décisions. Quand les psychologues sont allés expérimenter, dans les années 1960, autour de la question de la volonté, ils ont fait la découverte sidérante que la volonté apparaît dans le cerveau après qu’a été réalisé l’acte qu’elle est censée avoir déterminé. La représentation de la volonté que nous allons poser un acte, n’intervient en fait qu’une demi-seconde après que l’acte a été posé, alors que l’acte lui-même a pu être réalisé un dixième de seconde seulement après l’événement qui en a été le véritable déclencheur.

Le psychologue qui a découvert cela est Américain et son nom est Benjamin Libet (1916-2007). La première hypothèse qu’il a émise, quand les faits lui sont apparus dans toute leur clarté, a été d’imaginer qu’il existait un mécanisme dans le cerveau qui permet à une information de remonter le temps. Son explication première n’a pas été que "volonté" est un mot dénotant un processus illusoire, une mésinterprétation de notre propre fonctionnement, mais que la volonté devait bien – comme nous l’imaginons spontanément parce que les mots de la langue nous le suggèrent fermement – décider des choses que nous allons accomplir, et que la seule explication possible était que la volonté remonte dans le temps pour poser les actes que nous supposons qu’elle détermine, seule manière de rendre compte du décalage d’une demi-seconde observé.

Il n’y a donc pas comme nous l’imaginions avant la découverte de l’inconscient, une conscience décidant de tous nos actes, à l’exception des actes réflexes. Il n’y a pas non plus, comme Freud l’avait imaginé, deux types d’actes : les uns déterminés par la conscience et les autres par l’inconscient, il n’y a – du point de vue décisionnel – qu’un seul type d’actes, déterminés par l’inconscient, la seule différence étant que certains apparaissent dans le "regard" de la conscience (avec une demi-seconde de retard sur l’acte posé), et certains non.

Dans l’article où je proposais pour la première fois une théorie complète de la conscience tenant compte des découvertes de Libet, j’écrivais : "la conscience est un cul-de-sac auquel des informations parviennent sans doute, mais sans qu’il existe un effet en retour de type décisionnel. C’est au niveau de l’affect, et de lui seul, que l’information affichée dans le regard de la conscience produit une rétroaction mais de nature "involontaire", automatique" (Jorion 1999 : 179). Je suggérais alors de remplacer, pour souligner les implications de la nouvelle représentation, le mot "conscience" par "imagination", et le mot "inconscient", par "corps", pour conclure alors que toutes nos décisions sont en réalité prises par notre corps mais que certaines d’entre elles (celles que nous avions l’habitude d’attribuer à notre "volonté") apparaissent à notre imagination : "En réalité, la prise de décision, la volonté, a été confiée au corps et non à l’imagination" (ibid. 185).

Il restait à comprendre pourquoi le regard de la "conscience" est apparu dans l’évolution biologique. L’explication – en parfait accord avec les observations de Libet – est qu’il s’agit d’un mécanisme nécessaire pour que nous puissions nous constituer une mémoire (adaptative) en associant à nos percepts, les affects qu’ils provoquent en nous, et ceci en dépit du fait que les sensations en provenance de nos divers organes des sens (nos "capteurs"), parviennent au cerveau à des vitesses différentes (ibid. 183-185).

Les observations de Libet, et la nouvelle représentation de nos prises de décision qui en découle, ont d’importantes conséquences pour nous, et en particulier quand nous voulons reconstruire sur un nouveau mode la manière dont nous vivons. Il faut que nous tenions compte du fait que notre conscience arrive en réalité toujours quelque temps après la bataille.

Il y a des gens heureux : ceux dont la conscience constate avec délice les actes qui ont été posés par eux. Il n’y a pas chez eux de dissonance, il n’y a pas de contradiction : nous sommes satisfaits de constater notre comportement tel qu’il a eu lieu. Et c’est pour cela que l’affect n’est pas trop déçu de ce qu’il observe. L’affect réagit bien entendu : soit il cautionne ce qu’il peut observer comme étant à l’œuvre, soit il est déçu quand il constate le résultat. On peut être honteux de ce qu’on a fait. Nous pouvons nous retrouver parfaitement humiliés par les actes qui ont été posés par nous : par ce que la conscience constate après la bataille. En voici un exemple : je me trouve dans le studio de FR 3, pour l’émission "Ce soir (ou jamais !)", et la personne invitée pour la partie musicale en fin d’émission, c’est Dick Rivers, et je lui dis : "C’est formidable, cette époque où vous chantiez avec Les chaussettes noires !", et il me répond : "En réalité, le nom de mon groupe, c’était Les chats sauvages". J’étais tellement humilié d’avoir commis une pareille bévue ! Il s’agit là d’un exemple excellent de dissonance, et ma conscience qui intervenait avec une demi-seconde de retard était extrêmement gênée de devoir être confrontée au triste sire que j’étais.

Bien sûr, nous sommes devenus très forts dans notre manière de vivre avec une telle dissonance : nous réalisons des miracles en termes d’explications après-coup de notre propre comportement. J’écoute parfois, comme la plupart d’entre nous, des conversations dans le métro ou dans le bus où une dame explique à l’une de ses amies à quel point elle était maître des événements : "Elle m’a dit ceci, et tu me connais, je lui ai répondu du tac-au-tac cela, et tu aurais dû voir sa tête…". Nous sommes très forts à produire des récits autobiographiques où nous intégrons l’ensemble des éléments qui font sens dans une situation, après coup. Plusieurs concepts de la psychanalyse renvoient aux différentes modalités de nos "rattrapages après la bataille", quand la conscience constate les dégâts que nous avons occasionnés par nos actes et tente de "faire avec" : la psychanalyse parle alors d’élaboration secondaire, de rationalisation, de déni, de dénégation, etc.

Pourquoi est-ce important d’attirer l’attention sur ces choses ? Parce que nous contrôlons beaucoup moins de manière immédiate ce que nous faisons que nous ne le laissons supposer dans les représentations que nous en avons. Dans celles-ci, nos comportements sont fortement calqués sur ce qu’Aristote appelait la cause finale : les buts que nous nous assignons. Bien sûr, quand nous construisons une maison, nous définissons les différentes étapes qui devront être atteintes successivement et nous procédons de la manière qui a été établie. Nous avons la capacité de suivre un plan et un échéancier, de manière systématique, mais la raison n’est pas, comme nous le supposons, parce que nous procédons pas à pas, d’étape en étape, mais plutôt parce que nous avons posé la réalisation de la tâche comme un "souci" projeté dans l’avenir, souci dont l’élimination nous délivrera et nous permettra… de nous en assigner de nouveaux. Encore une fois, c’est l’inconscient ou, si l’on préfère, le corps, qui s’en charge. J’écrivais dans le même article : "Wittgenstein s’est souvent interrogé quant à la nature de l’intention. Il se demande par exemple, "‘J’ai l’intention de partir demain’ – Quand as-tu cette intention ? Tout le temps : ou de manière intermittente ?" (Wittgenstein 1967 : 10). La réponse à sa question est en réalité "tout le temps dans le corps et de manière intermittente dans l’imagination"" (ibid. 189).

Mais dans nos actes quotidiens, dans la façon dont nous réagissons aux autres autour de nous, parce que nous vivons dans un univers entièrement social, il faut que nous prenions conscience du fait que nous avons beaucoup moins de maîtrise immédiate sur ce que nous faisons que nous ne l’imaginons le plus souvent, une maîtrise beaucoup plus faible que ce que nous reconstruisons par la suite dans ces discours autobiographiques que nous tenons : dans ces discours de rationalisation, d’autojustification faudrait-il dire, que nous produisons à l’intention des autres. Il faut bien dire que, sachant comment eux-mêmes fonctionnent, ils n’y croient pas en général. Et nous en sommes les seules dupes.

Auteur: Jorion Paul

Info: 7 avril 2012, dans Notre cerveau : conscience et volonté, "Le secret de la chambre chinoise", L’Homme 150, avril-juin 1999 : 177-202, Wittgenstein, Ludwig, Zettel, Oxford, Basil Blackwell, 1967

[ illusion ]

 

Commentaires: 0

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

Le langage du chant des oiseaux
Pendant plus de 30 ans, Donald Kroodsma a travaillé pour démêler de tels mystères de communication avienne. Par des études sur le terrain et des expériences de laboratoire, il a étudié les forces écologiques et sociales qui ont contribué à l'évolution de l'apprentissage vocal.
Les jeunes perroquets, oiseaux chanteurs et colibris apprennent un répertoire de chansons, comme les enfants en bas âge apprennent à parler. Mais pourquoi cette capacité d'apprendre un système de communication vocal est-il quelque chose que nous partageons avec les oiseaux, mais pas avec nos parents plus proches, tels que les primate ?
Kroodsma a prêté une attention particulière à la variation locale des types de chants - donnés comme dialectes. Par exemple, la Mésange à tête noire (atricapillus Parus) de Martha's Vineyard, a un chant entièrement différent de son homologue terrestre qui vit au Massachusetts dit il. Aussi, les oiseaux qui vivent sur une frontière entre deux dialectes ou qui passent du temps dans différents secteurs peuvent devenir "bilingues" apprenant les chansons de plusieurs groupe de voisins.
Récemment, Kroodsma a découvert que l’Araponga tricaronculé (tricarunculata Procnias) change constamment son chant, créant ce qu'il appelle "une évolution culturelle rapide à chaque génération." Ce genre d'évolution du chant est connu chez les baleines mais, jusqu'ici, rarement dans les oiseaux. Professeur de biologie à l'université du Massachusetts à Amherst, Kroodsma est également Co-rédacteur du livre Ecology and Evolution of Acoustice Communication in Birds (Cornell University Press, 1996). Bien qu'il projette de continuer ses études sur le terrain, il dit qu'un de ses buts les plus importants est maintenant d'aider les gens à comprendre " Comment écouter les chant d'oiseaux. Beaucoup de gens peuvent identifier une grive des bois (Hylocichla mustelina) quand ils l’entendent. Son chant est un des plus beau au monde – mais peu réalisent qu'ils pourraient entendre les choses que la grive communique s’ils savaient juste écouter."

SA : Pouvez vous faire une comparaison entre la façon dont un bébé oiseau apprend à chanter et la façon dont un jeune humain apprend à parler ?
DK : En surface, c'est remarquablement similaire. Je passe souvent une bande de ma fille, enregistrée quand elle avait environ une année et demi. Elle prend tout qu'elle connaît "bruits de toutou, de chat, etc " et les rapièce aléatoirement ensemble dans un ordre absurde de babillage. Ainsi quand on passe la bande d'un jeune oiseau et qu’on dissèque ce qu'il fait dans ce que nous appelons son "subsong" il se passe exactement la même chose. Il prend tous les bruits qu'il a mémorisés, tous les bruits auxquels il a été exposé, et les chante dans un ordre aléatoire. Il semble que ce que le bébé humain et le bébé oiseau font est identique. Certains pourraient voir ceci comme une comparaison grossière, mais elle est très intrigante.
SA : Pourquoi les répertoires de chants et les dialectes de certains oiseaux changent-ils d'un endroit à l'autre ?
DK : Pour les espèces d'oiseaux qui n'apprennent pas leurs chants, j'aime penser de manière simpliste que leurs chants sont codés dans leur ADN. Avec ces oiseaux, si nous trouvons des différences dans les chants d'un endroit à l'autre, cela signifie que l'ADN est aussi changé et que les populations sont génétiquement différentes. Mais il y a des espèces dans lesquelles les chants ne sont pas codés par l'ADN. Alors nous avons quelque chose très semblable aux humains, la parole est apprise et varie d'un endroit à l'autre. Si par exemple, tu a été élevé en Allemagne, tu parleras allemand plutôt que l'anglais, sans changement de gènes. Ainsi avec les oiseaux qui apprennent leurs chants, on obtient ces différences frappantes d'un endroit à l'autre parce que ces oiseaux ont appris le dialecte local.
SA : Comment est-ce influencé par le nomadisme de l’oiseau ?
DK : Si tu sais que le reste de ta vie tu parleras anglais, tu travailleras dur à l'anglais à l'école. Mais qu'en serait-il si tu savais que tu seras jeté à plusieurs reprises dans des milieux avec des personnes parlant des langues différentes ? Tu commences ainsi à entrevoir l'énorme défi que ce serait d'apprendre la langue ou le dialecte de tous ces différents endroits. Alors je pense que les oiseaux nomades comme les Troglodyte à bec court [Cistothorus platensis], parce qu'ils vivent avec différents oiseaux tous les quelques mois partout dans la géographie, ne prennent pas la peine d'imiter les chansons de leurs voisins immédiats. Ils composent une certaine sorte de chant généralisé, ou plutôt ce sont des instructions de l’ADN leur permettent d'improviser la chanson du Troglodyte à bec court. Le contraste du Troglodyte à bec court avec le Troglodyte des marais [Cistothorus palustris] est très intéressant. Les Troglodytes des marais occidentaux de la région de Seattle ou de Californie, restent sur leur territoire pendant toute l'année. Une fois qu'un mâle s'installe sur un territoire il apprend les chants de ses voisins. Ils vivent tous au sein d’une communauté très stable, et je pense que cela leur donne l'élan pour s'imiter les uns les autres. Mais J'aimerai quand même bien avoir la réponse à ça : Pourquoi s'imitent ils tous… pourquoi ont ils les mêmes chants ?.
SA : Une des manières ou vous avez montré que la connaissance de chants est innée - plutôt qu'apprise - chez certaines espèces fut de priver de jeunes Moucherolles de leur capacité d'entendre.
DK : Nous avons fait un tas d'expériences, mais nous savions que l'étape finale avant de pouvoir déclarer qu'ils apprennent était de les empêcher de pratiquer l'audition elle-même. Ainsi nous avons obturé les oreilles des quelques Moucherolle [Sayornis phoebe] et elles continuèrent de produire toujours parfaitement leurs beaux chants. Elles n'auraient pas du être capable de développer des chants normaux après avoir été rendues sourdes s'il n'y avait pas quelque composant d'apprentissage inné.
SA : Vous avez comparé l’Araponga tricaronculé du Costa Rica à la baleine à bosse [Megaptera novaeangliae] parce que leurs chants évoluent rapidement à chaque génération. Comment savoir que les chants des Arapongas ont évolué depuis que les gens ont commencé à les enregistrer ?
DK : Nous avons une série d'enregistrements datant du milieu des années 70, nous donnant une utile documentation sur leurs chants dans trois dialectes. Dans deux des dialectes, les chants des années 70 sont rigoureusement différents des chants aujourd'hui. Dans le troisième, celui avec lequel nous travaillons le plus soigneusement, nous pouvons montrer plusieurs micro changements fait avec le temps. Un des changements est un très un fort sifflent qui a diminué dans sa fréquence [hauteur] depuis les années 70. Celle-ci est passée d'environ 5.500 hertz, (cycles par seconde) descendant à environ 3.700 hertz. C'est une baisse énorme, une baisse moyenne de 70 hertz par an de 70 à 2001.
SA : L’Arapongas (Bellbird) est-il unique parmi les oiseaux dans le sens que ses chants évoluent de cette façon ?
DK : Ces oiseaux réapprennent probablement leurs chansons tout le temps... Ils surveillent ce que les autres oiseaux chantent, n’est-ce pas. Ce genre de modification n'a été démontré qu'avec deux autres sortes d’oiseau, dont le Cassique cul-jaune [ Cacicus cela] du Panama. C'est un merle qui vit en colonies. Les chants dans ces colonies changent en une génération. Avec des oiseaux qui ont des vies assez courtes, comme les Passerin indigo [ Passerina cyanea], qui vivent environs deux ans, une fois que le mâle à développé son chant il le garde toute sa vie. Les chants d’Araponga évoluent au-travers des générations, de manière très proche à la baleine à bosse.
SA : Pourquoi pensez-vous que les chants de l’Araponga se modifient avec le temps ?
DK : Comme probablement dans la plupart des systèmes où relativement peu de mâles réussissent. Le mâle doit exposer son chant à une assistance des femelles, celles-ci conviennent quant à qui est le meilleur mâle. Elles sont probablement la cause d’un système qui permettrait aux mâles de montrer depuis combien de temps ils sont dans les environs : s'ils chantent les chants des dialectes locaux et s’ils ont suivis les changements. Ainsi les mâles qui réussissent pourraient changer leurs chants, forçant les autres mâles, particulièrement les plus jeunes, à rester à niveau. Ce pourrait être une manière pour que les femelles puissent identifier les mâles dominants ou ceux qui ont été dans la population depuis le plus longtemps.
SA : Une des manières qui vous a permis de montrer que les Arapongas apprennent leurs chants est que vous avez découverts qu'ils imitent d'autres oiseaux.
DK : Un ami m'a parlé d'une ville du Brésil appelée Arapongas. Si tu dis "Arapongas" en soulignant le "pong" plus ou moins c'est comme décrire un de ces Araponga à gorge chauve qui habite le Brésil méridional. La ville est baptisée du nom de cet oiseau. Les gens gardent des Arapongas en cage dans cette ville. Mon ami a entendu un là-bas, en cage, faire des bruits comme un merle de Chopi [Gnorimopsar chopi]. Il a découvert qu'il avait été élevé avec des merles de Chopi et qu’il avait appris des éléments - sifflements et ronronnements - de leurs chants. C'était une jolie expérience faite par des amateurs d'oiseau, qui donne ce que je vois comme la preuve claire qu'un Araponga a appris ses sons des merles.
SA : Pourquoi trouvez-vous les l’Araponga si attrayants ?
DK : Il est difficile de penser objectivement une fois qu’on observe ces oiseaux parce qu'ils sont si charismatiques. Ils sautent à cloche-pied sur leurs perchoirs, se mettent en garde, se poussent entre eux en bas des perchoirs, ils se crient dans des oreilles, ils collent leurs têtes dans les bouches d'autres oiseaux. Ils sont simplement extraordinaires. La chose que je trouve excitante en tant que scientifique c'est que c'est seulement le quatrième groupe d'oiseaux au sujet desquels nous sommes documentées pour ce type d'étude vocale. Je pense qu'ils ouvrent une fenêtre sur les conditions dans lesquelles l'apprentissage vocal pourrait avoir évolué dans d'autres groupes ou espèces.
SA : Quels mystères de chant d'oiseaux voudriez vous résoudre dans votre vie ?
DK : Pourquoi les oiseaux acquièrent ils les sons de cette manière ? Pourquoi certains oiseaux apprennent ils et d'autres pas ? Les merles proches les uns des autres semblent avoir des chansons différentes, cela suggère qu'ils les composent probablement. Il doit y avoir une sorte de grand modèle évolutionnaire avec lequel tous ces oiseaux fonctionnent, et si nous en savions juste assez au sujet de leurs histoires de vie, mon sentiment tripal est que toute cette variété que nous voyons parmi des oiseaux commencerait à se comprendre.

Auteur: Fortean times

Info: Entrevue entre Donald Kroodsma et Jennifer Uscher, auteur scientifique indépendante de New York, spécialisée sur les oiseaux. Vers 2004

[ musique ]

 

Commentaires: 0