Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 24
Temps de recherche: 0.0374s

sciences

Nous savons tous intuitivement que les liquides ordinaires s'écoulent plus rapidement au fur et à mesure que le canal dans lequel ils se trouvent se resserre, à l'instar d'une rivière qui trouve son chemin dans une succession de rapides de plus en plus étroits.
Mais qu'arriverait-il si le tuyau était si minuscule que seuls quelques atomes d'hélium superfluide pouvaient s'échapper de son extrémité en même temps ? Selon un modèle de la mécanique quantique établi depuis longtemps, l'hélium superfluide se comporterait différemment d'un liquide ordinaire: loin d'accélérer, il ralentirait.
Une équipe de chercheurs de l'Université McGill et de collaborateurs de l'Université du Vermont et de l'Université de Leipzig, en Allemagne, a réussi à réaliser une expérience dans le plus petit canal jamais utilisé - un microcanal de moins de 30 atomes de diamètre. Les chercheurs révèlent que l'écoulement de l'hélium superfluide dans ce robinet miniature semble effectivement ralentir.
"Les résultats que nous avons obtenus suggèrent qu'un robinet quantique adopte effectivement un comportement fondamentalement différent", affirme Guillaume Gervais, professeur de physique à McGill, qui a dirigé le projet. "Nous n'en avons pas encore la preuve irréfutable, mais nous croyons avoir franchi une étape importante vers la confirmation expérimentale de la théorie de Tomonaga-Luttinger dans un véritable liquide."
Les résultats de cette étude pourraient un jour contribuer à la mise au point de nouvelles technologies, comme des nanocapteurs dotés d'applications dans les systèmes GPS. Mais pour l'instant, affirme le professeur Gervais, les résultats sont intéressants simplement "parce qu'ils repoussent les limites de la compréhension des choses à l'échelle nanométrique. Nous approchons de la zone grise où tous les concepts physiques changent."

Auteur: Science Advances

Info: Internet 17 mai 2015

[ nanomonde ]

 

Commentaires: 0

cycles

Prenons par exemple un lacet. La meilleure représentation d'un lacet, pour un mathématicien, est un cercle avec un point qui fait une promenade le long d'un cercle, ou plus généralement d'une boucle fermée qui ressemble à un cercle. Quand je formule les choses ainsi, je fais de la géométrie. J'ai la notion de continuité, d'une promenade continue. Je pars d'un point, je me promène, je reviens sur ce point. Ce qui est important ici est qu'on pressent intuitivement qu'il s'est passé des choses terribles le long de cette boucle, parce qu'on a perdu de vue le point initial. On y revient pourtant à la fin, mais on n'y revient pas en revenant sur ses pas. On y revient un peu comme par-derrière, et il peut s'être passé des choses terribles dans l'intervalle - en fait, on sait qu'il se passe des choses terribles : c'est ce qu'on appelle l'action de monodromie. Pendant que je me promène sur mon lacet, une autre quantité se développe en spirale au-dessus. C'est ce qu'on appelle l'argument, l'angle correspondant à la fraction d'arc parcourue depuis le point de départ quand on se promène le long d'un cercle. Au départ, l'argument vaut zéro. Quand on se promène, on passe par π /4, π /3, π /2, et on progresse jusqu'à π , l'angle plat, qu'on atteint quand on a parcouru la moitié du cercle. Quand on a fait tout le tour du cercle, on est revenu au point initial, mais l'angle, lui, n'est pas revenu à 0, il est désormais 2 π . Voilà un exemple d'un phénomène dramatique qui se produit lorsqu'on se promène le long d'un lacet.

 

Auteur: Voisin Claire

Info: in "Faire des mathématiques", éd. cnrs, p.36-37

[ danger ] [ mystère ] [ dimension supplémentaire ] [ abstraction ] [ voyage au bout de la ligne ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Benslama

indistinctibilité

D'un point de vue philosophique, l'argument le plus intéressant de Leibniz était que l'espace absolu entrait en conflit avec ce qu'il appelait le principe d'identité des indiscernables (PII). Le PII stipule que si deux objets sont indiscernables, ils sont alors identiques, c'est-à-dire qu'ils sont réellement un seul et même objet. Que signifie l'indiscernabilité de deux objets ? Ça signifie qu'aucune différence ne peut être trouvée entre eux - ils ont exactement les mêmes attributs. Ainsi, si PII est vrai, deux objets véritablement distincts doivent différer par au moins un de leurs attributs, sinon ils ne seraient qu'un et non deux. PII est intuitivement très convaincant. Il n'est certainement pas facile de trouver un exemple de deux objets distincts qui partagent tous leurs attributs. Même deux produits manufacturés fabriqués en série présentent normalement d'innombrables différences, même si celles-ci ne peuvent être détectées à l'œil nu.

Leibniz nous demande d'imaginer deux univers différents, contenant tous deux exactement les mêmes objets. Dans l'univers 1, chaque objet occupe un emplacement particulier dans l'espace absolu. Dans l'univers 2, chaque objet a été déplacé vers un autre emplacement dans l'espace absolu, à trois kilomètres à l'est (par exemple). Il n'y aurait aucun moyen de distinguer ces deux univers. Nous ne pouvons en effet pas observer la position d'un objet dans l'espace absolu, comme l'a admis Newton lui-même. Tout ce que nous pourrions observer, ce sont les positions des objets les uns par rapport aux autres, et ces positions resteraient inchangées, car tous les objets sont décalés de la même manière. Aucune observation ou expérience ne pourra jamais révéler si nous vivons dans l'univers 1 ou 2.




Auteur: Okasha Samir

Info: Philosophie des sciences : Une très courte introduction

[ expériences de pensée ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective

L'évolution nous a dotés d'intuition uniquement pour les aspects de la physique qui avaient une valeur de survie chez nos lointains ancêtres, comme les orbites paraboliques des cailloux volants (ce qui explique notre penchant pour le baseball). Une femme des cavernes qui réfléchirait trop à la composition de la matière pourrait ne pas remarquer le tigre qui se faufile derrière elle et se faire éliminer du patrimoine génétique. La théorie de Darwin prédit de fait que chaque fois que nous féveloppons de la technologie pour entrevoir la réalité au-delà de l'échelle humaine, notre intuition évoluée devrait s'effondrer.

Cette prédiction a donc été mainte fois vérifiée et les résultats soutiennent massivement Darwin. Einstein se rendit compte qu'à grande vitesse le temps ralentissait, et les grincheux du comité Nobel suédois trouvèrent ça si étrange qu'ils refusèrent de lui attribuer le prix Nobel pour sa théorie de la relativité. À basse température, l'hélium liquide peut s'écouler vers le haut. À haute température, les particules qui entrent en collision changent d'identité ; pour moi le fait qu'un électron qui entre en collision avec un positron se transforme en un boson Z est aussi intuitif que deux voitures qui entrent en collision se transforment en bateau de croisière. À l'échelle microscopique, les particules apparaissent schizophréniquement à deux endroits à la fois, ce qui conduit aux énigmes quantiques mentionnées ci-dessus. À l'échelle astronomique... la bizarrerie frappe à nouveau : si vous comprenez intuitivement tous les aspects des trous noirs, alors vous devriez immédiatement poser ce livre et publier vos découvertes dans l'espoir que quelqu'un ne vous décerne le prix Nobel de la gravité quantique...

En bref la principale théorie sur ce qui s'est passé dans l'univers primitif suggère que l'espace n'est pas seulement très très grand, mais en fait sans début ni fin, et qu'il contient une infinité d'exactes copies de vous, et bien plus encore de quasi-copies qui vivent toutes les variantes possibles de votre existence dans deux types différents d'univers parallèles.

Auteur: Tegmark Max

Info: Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (2014)

[ outils aliénants ] [ intellectualisation ] [ éloignement ] [ élargissement ] [ moi supérieur ] [ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolutionisme

Ceci nous amène à nous interroger sur les raisons qui plaident en faveur de cette nouvelle théorie de la trans-mutation. Le commencement des choses se trouve nécessairement dans l'obscurité, au-delà des limites de la preuve, tout en restant à l'intérieur de celles de la conjecture ou de l'inférence analogique. Pourquoi ne pas s'en tenir à l'opinion habituelle, que toutes les espèces furent créées directement, et non indirectement, d'après leurs genres respectifs, tels que nous les voyons aujourd'hui, et cela d'une manière qui, dépassant notre entendement, renverra intuitivement au surnaturel ? Pourquoi cette recherche continuelle de "l'inaccessible et de l'obscur", ces efforts anxieux, surtout depuis quelques années, des naturalistes et des philosophes de diverses écoles et de diverses tendances, pour pénétrer ce que l'un d'eux appelle "le mystère des mystères", c'est-à-dire l'origine des espèces ? A cette question, en général, on peut trouver une réponse suffisante dans l'activité de l'intellect humain, "le désir délirant, mais divin, de savoir", stimulé comme il l'a été par son propre succès dans le dévoilement des lois et des processus de la nature inorganique, dans le fait que les principaux triomphes de notre époque en science physique ont consisté à tracer des liens là où aucun n'avait été identifié auparavant, à ramener des phénomènes hétérogènes à une cause ou à une origine commune, d'une manière tout à fait analogue à celle qui consiste à ramener des espèces supposées indépendantes à une origine ultime commune ; ainsi, et de diverses autres manières, à étendre largement et légitimement le domaine des causes secondaires. Il est certain que l'esprit scientifique d'une époque qui considère le système solaire comme issu d'une masse fluide commune en rotation, qui, par la recherche expérimentale, en est venu à considérer la lumière, la chaleur, l'électricité, le magnétisme, les affinités chimique et la puissance mécanique comme des variétés ou des formes dérivées et convertibles d'une seule force, plutôt que comme des espèces indépendantes, qui a réuni les types de matière dits élémentaires, tels que les métaux, dans des groupes apparentés, et qui a soulevé la question de savoir si les membres de ces groupes pouvaient être des espèces indépendantes, est en droit de s'attendre à ce qu'il en soit ainsi, et qui pose la question de savoir si les membres de chaque groupe ne sont pas de simples variétés d'une même espèce, tout en spéculant avec constance dans le sens d'une unité ultime de la matière, d'une sorte de prototype ou d'élément simple qui pourrait être pour les espèces ordinaires de matière ce que les protozoaires ou les cellules constitutives d'un organisme sont pour les espèces supérieures d'animaux et de plantes, on ne peut s'attendre à ce que l'esprit d'une telle époque laisse passer sans discussion l'ancienne croyance sur les espèces.

Auteur: Gray Asa

Info: Darwin on the Origin of Species", The Atlantic Monthly (juillet 1860),

[ historique ] [ tour d'horizon ] [ curiosité ] [ rationalisme monothéiste ] [ source unique ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Qu'est-ce que la "liberté économique" ? On pourrait penser que ce concept renvoie à la liberté par rapport aux contraintes de la vie économique : se libérer de la nécessité de travailler pour manger, par exemple, ou de celle de choisir entre acheter des médicaments et payer le loyer.

Mais ce n'est pas le cas. La liberté économique n'est pas apparentée non plus à l'idée habituelle que nous nous faisons de la liberté politique : elle n'a pas de lien étroit avec la liberté d'expression, la liberté de la presse, la liberté de réunion... des libertés qui donnent le droit de participer à la vie politique et d'influencer l'action publique. Elle ne désigne pas, par exemple, la satisfaction des besoins fondamentaux pour que l'expression culturelle et politique puisse s'épanouir.

Les grands théoriciens de la liberté économique ne sont pas des démocrates deweyiens ; promouvoir la participation collective à la prise de décision politique ne les intéresse pas. D'ailleurs, il y a antagonisme entre le concept conservateur de liberté économique et toute mesure engageant l'État à relever le niveau de vie de la masse de la population. La liberté économique s'oppose à des idées comme l'assurance maladie universelle, l'éducation publique gratuite et les subventions publiques aux beaux-arts, et elle s'y oppose encore plus si ces mesures doivent être financées par l'impôt progressif et redistributeur. Les politiques sociales mises en oeuvre par décision démocratique, comme dans le New Deal de Roosevelt, la Grande Société de Lyndon Johnson, pour ne rien dire du Chili de Salvador Allende [...], sont par leur nature même, selon ce mode de pensée, des atteintes à la liberté. En revanche, dans cette conception, le régime d'Augusto Pinochet, favorable au " libre marché ", a apporté " la liberté économique " au Chili.

On peut être libre économiquement sans avoir aucun droit d'expression politique, par exemple en vivant (ou d'ailleurs en mourant) sous la botte d'une junte militaire. La liberté économique consiste donc dans la capacité de vivre sa vie économique - et celle-là seulement - dans une sphère échappant au contrôle de l'État, donc réservée à l'interaction des forces privées. [...] C'est une liberté de dépenser. Pour mettre l'idée en perspective, il faut lui donner son vrai nom : la liberté d'acheter. On a tendance à ne pas trop s'attarder sur cette idée, au motif que c'est une absurdité manifeste, une perversion de langage, de dire que faire les magasins est une liberté. [...] La liberté de rechercher une gamme très diversifiée de biens et de services à des prix extrêmement variables, de la boutique haut de gamme à la grande surface et au magasin d'usine, se situe-t-elle vraiment sur le même pied que les autres sens du mot " liberté " ? Il est facile de pouffer devant l'idée même, si éloignée de notre conception progressiste de la liberté, fondement de la noble sphère des prises de décision politique et sociale. Mais on aurait tort de rire. L'étonnant, c'est le nombre de gens qui pensent ainsi, à quel point la notion conservatrice de liberté économique paraît intuitivement juste, et a pénétré en profondeur la vie moderne.

Auteur: Galbraith John Kenneth

Info: L'Etat prédateur : Comment la droite a renoncé au marché libre et pourquoi la gauche devrait en faire autant, Première partie : ENCORE UN DIEU QUI MEURT ; Chapitre 2 : La liberté d'acheter

[ marge de manoeuvre ] [ collectivisme ] [ fabrication du consentement ]

 

Commentaires: 0

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

citation s'appliquant à ce logiciel

Toute émergence "qui réfléchit" ne peut être que consensuelle. 

Le moi, je, ego incarné, de même que la race (espèce) auquel il appartient, doivent nécessairement développer un univers "accepté" dans ses grandes lignes. Pour l'espèce ça semble aller de soi ; sans cela pas de signes entre les sexes pour la reproduction. Et, pour les races-communautés plus complexes (évoluées?) comme la nôtre : pas de langages communs, musique, mathématiques, beaux-arts, codes informatique, sciences... 

Pour l'individu, l'idée semble moins aisée à comprendre. Parce qu'intuitivement la "singularité" qu'il représente apparait via certains détails (variantes) qui semblent - et ne sont - pas décisifs pour la survie de l'espèce. Ainsi des graines des arbres. Mais il y a bien un consensus individuel, intime, destiné à la survie personnelle et à la reproduction, qui est recherche d'un équilibre, autant interne qu'avec les autres. 

Ces moyens termes, collectifs et singuliers (qui tendent vers la complexité) semblent indiquer quelques pistes, si on veut bien user du recul de notre mémoire collective. 

Primo, rien de temporellement fixe (terme à la mode : durable) à quoi s'accrocher. Sauf si un "équilibre solide" est installé entre biotope et individus-espèce (pensons aux requins, entre autres exemples). 

Secundo, existent une adaptabilité et une curiosité incessantes chez l'homme, qui avec le temps semblent occuper toujours plus les activités cérébrales de l'individu, lui-même infime et singulière émergence - initiatico-spirituelle souvent -, qui "ouvre" le monde tout en le perpétuant. 

Tertio. De ce continu phénomène d'évolutions/adaptations, on pourra constater, et probablement modéliser, toutes sortes de décalages évidents, nécessaires, à plein d'échelles et de niveaux. Dissonnances fines qui peuvent aller jusqu'à des ruptures de compréhension-communication entre : générations, époques, genres/sexes, habitudes, manières de voir, etc. De là beaucoup de malentendus et conflits, et donc une grande nécessité de tolérance et d'amour. 

Alors, pour faire marcher ensemble les consensualités intriquées du grand univers objectif avec les singularités subjectives, autrement dit concilier nos indéniables solipsismes avec le plus de niveaux possible que présente le cosmos matrice insondable, on entrevoit un principe orgonomique de l'ordre de l'adaptation pragmatique. Stephen Wolfram va jusqu'à affirmer que quelques règles simples (un code source) pourraient sous-tendre tout ceci. Pourquoi pas.

En termes linguistiques on pourra tenter d'affiner la définition de ce principe orgonomique par l'ajouts de vocables comme effort, collaboration solidaire, amour, chance/hasard, curiosité, survie, etc. 

Et puis, en tout dernier, se pointe le mot "esprit". On ne peut entrevoir ce concept qu'en fin de chaine. En effet l'esprit - ou réflexion un peu continue -, s'articule lui-même sur le maniement de mots/concepts (quasi-esprits de Peirce), eux-mêmes péniblement émergés d'une évolution lexicologique somme toute très récente et souvent retraçable. Analyses, pensées, élaborations abstraites... souvent aussi appuyées sur d'autres idiomes comme les mathématiques.  

Au-delà des listes et autres inventaires, l'écriture et les signes permettent donc - finalement - de raisonner et réfléchir... et  "commencer à" s'extraire, à s'élever un tout petit peu pour tenter de mieux voir. 

On se demande dès lors comment et pourquoi certains penseurs, gourous et autres religieux, qui "moulinent à la parole", décrétent que l'Esprit est à la source de tout, alors qu'il ressemble plus à une conquête pour ce qui nous concerne. Infinitésimale.

En rappelant par honnêteté qu'il y a belle lurette que les grecs anciens ont établi que le langage (logos) était l'instrument de la raison. Et puis : issue de l'invraisemblable fatras du kabbalisme et des traditions sumériennes, vient la théologie chrétienne où, d'un coup d'un seul le "Logos" est employé pour désigner la deuxième personne de la Trinité chrétienne. En bref Jésus, le Christ, prend le même sens que "verbe, parole". L'origine de cette désignation étant formalisée bien a postériori ainsi dans la Bible : "Au commencement était la Parole, et la Parole (logos) était avec Dieu, et la Parole était Dieu. Toutes choses ont été faites par elle, etc". (Évangile selon Jean, chapitre 1). Cet Évangile de Jean affirme donc que Dieu parle, sa parole est son hypostase, sa Parole créatrice est aussi puissante que Lui-même : Il est Sa Parole, etc... Ce concept de la parole de Dieu comme hypostase de Dieu même est commun à plusieurs religions, mais pour l'auteur de l'évangile, ce qui est original et unique à la chrétienté est que cette parole, hypostase, qui est Dieu même, est devenue homme et a habité parmi les hommes : "Et la parole a été faite chair, et elle a habité parmi nous, pleine de grâce et de vérité ; et nous avons contemplé sa gloire, une gloire comme la gloire du Fils unique venu du Père." (Évangile selon Jean, chapitre 1, 14)

Arrêtons là et contentons-nous de prendre ce paragraphe comme une extraordinaire démonstration de langage performatif. Très très très performatif, au vu de la puissance et de la place prise par le judéo-christianisme en début de 3e millénaire. 

Mais assez : revenons à notre idée de départ, celle de l'invraisemblable mélange de consensus/échelles/êtres/univers/etc. que nous pouvons constater et de sa préhension par notre entendement. Entendement développé via nos signes/écrits, mémorisés et intégrés dans notre mémoire collective. Ce qui amène beaucoup de gens à vouloir croire que l'humain est "au-dessus", élu... Supérieur... Il bénéficierait d'un esprit d'ordre surnaturel, divin, astralement dessiné. Essence orgonomique que d'autres imaginent comme quelque chose de l'ordre du fluide vital, énergie subtile issue d'un autre espace (dimension), dotée pour le coup de capacités/pouvoirs au-delà de nos possibilités de modélisation, etc.

Avançons-nous un peu pour affirmer que ce fameux Esprit, à la lumière de nos faibles connaissances, ressemble beaucoup plus à la version "manipulation de signes" par des cerveaux tardivement accouché de l'évolution, qu'à une émergence extraordinaire, divine et miraculeuse. Surtout si on s'amuse à comparer ces manipulations aux merveilleuses complexités et aux presqu'insondables développements de la vie biologique.

Ici FLP pointe le bout de son nez et, avec l'aide de C.S. Peirce - unique penseur ayant développé une approche solide et cohérente en ce domaine -, propose un outil, souple, puissant et collectif qui permet (en français, humblement et à sa manière) d'explorer-rechercher-bidouiller langage et sémantique, ces dispositifs de signes aptes à traiter tout et son contraire, aptes à passer du mirage absolu au plus cru des réalisme - en mélangeant les deux. Mais aussi inaptes, de par leur nature immobile (un fois une pensée écrite, et donc arrêtée - et si on veut bien nous excuser cette énorme lapalissade) à véritablement traiter notre support réel, la vie, ce mouvant embrouillamini qui se permet de mélanger sans discontinuer les échelles, vitesses, sentiments, etc. 

Pour revenir sur terre on dirait bien que les résultats de ce magnifique entendement humain nous amènent plutôt, en ces années de pandémie Co-vid,  vers un abrutissement drastique de forces de vie humaines de moins en moins sollicitées à cause des "progrès" techniques et médicaux. Sans parler du genre de biocratie sanitaire qui en découle. Pensez : tout récemment encore l'occident se battait contre l'acharnement thérapeuthique, affolé par la poussée démographique et le vieillissement des populations. Aujourd'hui on dirait qu'il s'auto-asphyxie pour sauver les personnes âgées. 

Mais soyons positifs et rassurons-nous. Ce ralentissement aura permis à la planète de respirer, et aussi de s'unifier - contre le covid. Unification qui pourrait mettre en parallèle biologie et communications humaines à l'échelle de la planète et ainsi procéder à un développement-consolidation de signes communautaires, càd de mêmes terrestres.

Contemplons la suite et restont bien zens goguenards. 

Vigilants.

Auteur: Mg

Info: 10 janv. 2021

[ sémiotique ] [ pré-mémétique ] [ systèmes intelligents ]

 
Mis dans la chaine
Commentaires: 5
Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel