Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 28
Temps de recherche: 0.048s

hyperfestivité

La société de l'autonomie individuelle sécrète des solitaires dépressifs. Le processus est multiforme. L'individu, plus que jamais confronté à l'obligation de faire des choix en permanence, se sent pleinement responsable de ses échecs. Ce n'est évidemment pas un hasard si l'existentialisme s'est développé au moment de la révolution de l'autonomie : l'homme s'éprouve comme pure liberté, comme existant, élaborant son essence dans l'angoisse. L'individu a en outre le devoir de "s'accomplir". Dans une société où tout est affaire de séduction, il faut savoir se vendre, faire preuve de motivation, de dynamisme, donner une image positive de soi. Le culte du look et du corps, la hantise des signes de vieillissement et des traits disgracieux sont une obsession supplémentaire. Il faut à la fois être différent et reconnu de ses pairs. Et toutes ces obligations sont beaucoup plus pesantes que ne l'étaient les règles sociales d'autrefois, qui ne requéraient qu'obéissance et conformisme.

Aux contraintes de la société du narcissisme s'ajoutent les contraintes et frustrations de la société de consommation qui, pour écouler une production de masse, a besoin de consommateurs isolés. Tous pareils et tous différents. Créer des besoins massifs en profondeur et encourager la personnalisation superficielle ; faire croire à chacun qu'il est unique, tout en le réduisant à l'état de clone indifférencié. Pour cela, créer un climat hédoniste, encourageant la satisfaction immédiate des besoins et abolissant les interdits, ce qui suppose la disparition des valeurs transcendantales et de toute idée d'un sens de l'existence ; instaurer la liberté de choix, privilégier l'initiative individuelle, la nécessité pour chacun de s'affirmer, de se faire une place.

L'atmosphère euphorique est entretenue par les fêtes, célébrations, jeux, animations, émissions centrés sur le narcissisme. Tous ces éléments combinés créent un climat propice à une prise de conscience de la solitude individuelle.

Auteur: Minois Georges

Info: Histoire de la solitude et des solitaires, XXe siècle

[ vingtième siècle ] [ psycho-sociologie ] [ individualisme ] [ développement personnel ]

 
Commentaires: 1
Ajouté à la BD par miguel

validation subjective

Sur un phénomène qui a une probabilité très faible de se produire dans un temps donné, nous nous concentrons sur les rares cas qui fonctionnent en effaçant les nombreux échecs. Nous créons alors une solide illusion d’efficacité appelée "le biais du survivant".

Dans nos esprits, le fait d'écrémer les rares cas qui "marchent" en effaçant les cas nombreux qui échouent s’appelle le "biais du survivant".

La facilité de la disponibilité

Ce biais du survivant est de la même famille que l’effet Barnum expliqué dans l’épisode précédent. Il s’agit d’une forme de biais de sélection, qui nous fait préférer les événements confirmant nos attentes et nos croyances, aux événements qui les réfutent. En quelque sorte, ce biais nous cache les preuves silencieuses des événements qui ne valident pas l’hypothèse que l'on s'est fixée au départ.

Que se passe-t-il exactement dans notre cerveau ? Ce n’est pas encore très clair : il semble qu’il y ait un mélange entre des mécanismes "chauds", motivés par nos croyances et nos attentes, comme dans l’effet Barnum ; et des mécanismes dits "froids", cognitifs, qu’il est difficile de maîtriser, un peu comme des inclinaisons mentales, des pentes cérébrales douces.

L’une de ces pentes porte le nom barbare "d’heuristique de disponibilité" : nous aurions tendance à prendre les idées, les infos, les preuves les plus disponibles, à moindre coût, moindre effort. Comme certains le disent, "la motivation crée le biais", et les facteurs cognitifs amplifient l’effet. Autrement dit, par "facilité", le cerveau ne retient pas l’immense majorité des cas qui ont échoué, et donc 100 % des cas dont on se rappelle sont des cas qui valident la prétention de départ.

Nous sommes plus friands de raconter les cas qui ont marché avec un rebouteux par exemple ; alors que les histoires d’échec de soin de rebouteux sont, elles, bien plus nombreuses. En somme, le biais du survivant est une sorte d’illusion cognitive qui vient flatter nos intuitions.

 

Auteur: Monvoisin Richard

Info: https://www.radiofrance.fr/franceculture/podcasts/votre-cerveau/le-biais-du-survivant-5761547

[ ratification cognitive ]

 
Commentaires: 2
Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

Une IA envoie 5 champions de Poker au tapis en même temps

Pluribus, c'est son nom, a réussi pour la première fois à battre 5 joueurs à la fois au Texas Hold'em no limit. Développé par Facebook et l'Université de Carnegie-Mellon à Pittsburgh en Pennsylvanie, cette IA réalise pour la première fois ce qu'aucune autre n'avait accompli jusqu'ici.

En 1997, et pour la toute première fois, une IA battait un champion du monde d'échecs... Depuis de l'eau a coulé sous les ponts puisqu'une IA a récemment réussi à vaincre cinq adversaires au Poker Texas Hold'em, faisant ainsi d'elle la première IA victorieuse dans un jeu multijoueurs.

Une configuration plutôt modeste
L'IA Pluribus s'est "formé" une stratégie globale en 8 jours de calcul sur un serveur doté de 64 cœurs et aura nécessité moins de 512 Go de RAM. C'est donc assez peu par rapport aux autres IAs déployées ces dernières années pour battre des humains au jeux.

Là où Pluribus fait encore plus fort, c'est que celle-ci ne s'est pas entraînée contre un humain, mais simplement contre elle-même, encore et encore jusqu'à atteindre son meilleur niveau.

Une manière de jouer très personnelle
Seule, pendant une semaine, l'IA à pratiqué ce que ses programmeurs ont appelé le Monte Carlo counterfactual regret minimization. Le principe du Monte Carlo repose sur le fait de réfléchir toujours selon trois possibilités et de construire trois schémas des jeux possibles en prévision des coups à venir, un peu comme un arbre. Regret minimization, quant à lui, est le fait de prédire ce qui peut être joué et de mettre en place celui qui créera le moins de regrets une fois la décision prise.

L'IA a donc montré sa supériorité en évitant les erreurs que pourraient faire d'autres systèmes de ce type, car en un contre un, il est facile de connaître la main de l'adversaire, mais cela se complique lorsque quatre autres personnes sont à prendre en compte.

La plupart des IA sont ainsi battues en répétant finalement une habitude que l'adversaire humain pourrait repérer et mettre à son avantage. De la même façon, Pluribus est capable de changer de tactique en moins d'une minute, passant de la relance au bluff, la rendant ainsi inlisible et imprévisible. C'est donc encore une victoire pour l'IA, reste à savoir quel sera le prochain défi que les chercheurs parviendront à lui faire relever.

Auteur: Internet

Info: https://www.clubic.com. Laura Léger, contributrice, 15 juillet 2019

[ informatique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

sciences physiques

Le CERN relance la recherche des " particules fantômes " de l'Univers

Les scientifiques européens du CERN vont lancer la construction d'un nouvel accélérateur de particules, dans l'espoir d'identifier enfin les "particules cachées" de l'Univers.

Les scientifiques du plus grand accélérateur de particules du monde vont disposer d'un nouvel outil qui, selon les chercheurs, pourrait les aider à découvrir la face cachée de l'Univers.

L'Organisation européenne pour la recherche nucléaire (CERN) va entamer la construction d'un nouveau supercollisionneur, le "Futur collisionneur circulaire", qui sera 1 000 fois plus sensible aux particules dites "cachées", ou "fantômes", que l'équipement actuel utilisé par l'organisation.

Les accélérateurs de particules permettent aux scientifiques de recréer les conditions du Big Bang, la théorie physique qui décrit l'apparition de l'Univers.

Dans ce nouvel appareil, les particules seront projetées contre une surface solide, et non plus les unes contre les autres comme dans les accélérateurs actuels

Le collisionneur fait partie du projet SHiP (Search for Hidden Particles) du CERN, un projet en gestation depuis dix ans qui permettra d'étudier certaines des particules les plus discrètes de l'espace.

Richard Jacobsson, physicien principal au CERN, affirme que ce projet pourrait constituer une "avancée considérable" qui redéfinirait la compréhension de la création de l'Univers.

" SHiP est l'une de ces expériences qui pourraient changer le paradigme scientifique et nous faire entrer dans un tout nouveau domaine de connaissances, non seulement sur notre Univers, mais aussi sur notre position dans celui-ci", avance Richard Jacobsson lors d'une interview.

"La plupart des hypothèses que nous avons formulées jusqu'à présent pourraient être réévaluées".

Selon le physicien, les scientifiques n'ont jamais réussi à détecter ce type de particules, car ils ne disposaient pas de la technologie adéquate.

Que sont les particules fantômes ?

D'après Richard Jacobsson, tout ce que nous pouvons voir à l'œil nu depuis l'espace, y compris les étoiles et les planètes, représente environ 5 % de la matière réelle de l'Univers.

Les 95 % restants se répartissent, selon les connaissances actuelles, entre environ 26 % de matière noire et 69 % d'énergie noire, selon le physicien.

Les scientifiques utilisent actuellement le "modèle standard", qui comprend 17 particules différentes, pour expliquer la composition de l'Univers.

En 2012, les scientifiques du CERN ont découvert une nouvelle particule du modèle standard, le boson de Higgs, grâce au Grand collisionneur de hadrons, une découverte qui leur a valu le prix Nobel de physique un an plus tard.

Depuis, les tentatives d'utiliser ce même collisionneur pour mesurer les particules cachées - qui pourraient également constituer la matière noire et l'énergie noire, mais ne font pas partie du modèle standard - se sont toutes soldées par des échecs.

" La découverte du boson de Higgs a comblé un vide sans pour autant prédire quelque chose de nouveau", déclare Richard Jacobsson.

"L'idée de ce projet est née presque par hasard, d'un partenariat entre des personnes issues de différents domaines et désireuses d'explorer la physique sous un autre angle".

Les particules "cachées" ou "fantômes" sont invisibles et ont des connexions physiques plus faibles que les particules déjà découvertes, ce qui les rend difficiles à détecter.

Le Grand collisionneur de hadrons du CERN peut détecter les particules jusqu'à un mètre du site de la collision, mais les particules cachées restent invisibles beaucoup plus longtemps avant de se révéler.

Les détecteurs du nouveau collisionneur du projet SHiP seront donc placés plus loin et produiront davantage de collisions sur une toile de fond fixe afin d'identifier plus facilement ces particules.

La construction des nouvelles installations souterraines du SHiP débutera en 2026 et les premières expériences pourraient avoir lieu vers 2032.

Le futur collisionneur circulaire, quant à lui, sera mis en service dans le courant des années 2040, mais n'atteindra son plein potentiel qu'en 2070, selon des informations rapport de la BBC.

Auteur: Internet

Info: https://fr.euronews.com/ - Anna Desmarais,  26 mars 2024

[ infra-monde ] [ sub-particules élémentaires ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

éloge funèbre

Roland Jaccard a mis fin à ses jours hier, lundi 20 septembre. Nombre de ses amis ont reçu un courriel matinal indiquant qu’il était sur le point de partir, qu’il tirait sa révérence. Pour moi, c’était à 8h09. Avec pour objet "Une leçon de dandysme helvétique" et les phrases suivantes dans le corps du texte : "Tu es un des seuls à m’avoir compris! Amitiés vives !"

Roland m’a fait beaucoup d’honneur. Nous n’étions peut-être pas beaucoup à l’avoir compris, mais il y en avait tout de même quelques-uns. À l’avoir compris et à l’avoir aimé. J’ai trainé un vilain pressentiment, toute la matinée, mais j’étais face à des étudiants et je me suis promis de l’appeler dès la pause de midi. Deux coups de téléphone de Gil Mihaely puis d’Elisabeth Lévy m’ont indiqué que c’était devenu inutile.

J’ai été sidéré mais pas surpris. Sidéré parce que, tout de même, la mort d’un ami, d’une de ces amitiés littéraires transformée en affection réciproque avec le temps, c’est une espèce de bloc d’abîme au creux de l’âme et des tripes, un bloc d’abîme que connaissent tous ceux qui apprennent la disparition brutale d’un être cher. 

Mais je n’ai pas été surpris : qui connaissait Roland savait que le suicide était chez lui un thème récurrent, une obsession, une porte de sortie presque rassurante. Le suicide est cette liberté terrible des stoïciens, et il y avait du stoïcien chez Roland au-delà de son hédonisme élégant, résumé ainsi par Marc-Aurèle dans Pensées pour moi-même : "Il y a trop de fumée ici, je m’en vais". Le suicide, Roland connaissait : en leur temps son père et son grand-père avaient eux aussi choisi la nuit. Il écrivait dans "Les Carnets de mon père", un de ses "Billets du vaurien" qu’il donnait chaque semaine à Causeur : "Soyons francs : nous avons aimé vivre une fois, mais nous n’aimerions pas recommencer. C’était aussi l’opinion de mon père." C’est à 80 ans que son père avait tiré sa révérence. Roland a écrit et dit, souvent, qu’il n’avait pas l’intention de le dépasser en âge. Et de fait, il allait avoir 80 ans, le 22 septembre. Quand vous aimez quelqu’un, vous ne l’écoutez pas, ou vous ne voulez pas le croire. C’est oublier que derrière la désinvolture de Roland, derrière son élégante et éternelle dégaine d’adolescent filiforme, il était d’une terrible rigueur. Il n’épargnait personne de ses sarcasmes et surtout pas lui-même. Mais on se rassure comme on peut, quand on aime. Après tout, un de ses maîtres et amis, Cioran, n’avait-il pas dans toute son œuvre parlé du suicide comme seule solution rationnelle à l’horreur du monde sans jamais passer à l’acte ? 

Non, décidément, malheureux comme les pierres mais pas surpris : lundi 13 septembre, après des mois d’absence puisqu’il avait décidé de revenir vivre dans sa ville natale, à Lausanne, depuis le début de la crise sanitaire, il était apparu à une réunion de rédaction suivie d’un pot célébrant le départ d’un des nôtres. Il paraît évident, maintenant, qu’il était venu nous dire au revoir ou plus précisément, car là encore on méconnait trop souvent à quel point celui qui faisait profession de cynisme aimait l’amitié, il avait voulu passer un peu de temps avec nous une dernière fois. De quoi ai-je parlé avec Roland pour ce qui était, sans que je le sache, une ultime rencontre ? Je ne sais pas pourquoi, j’ai du mal à m’en souvenir. Je voudrais vous dire qu’il avait donné des indices implicites, ce ne serait pas vrai. Il avait son flegme habituel, son sourire oriental, son exquise courtoisie d’homme qui a perdu depuis longtemps toute illusion mais qui n’en fait pas un drame, courtoisie héritée de cette civilisation naufragée de la Mitteleuropa à laquelle avait appartenu sa mère autrichienne.

Je voudrais tout de même souligner, maintenant, son importance dans le paysage intellectuel français. Il a écrit des livres essentiels sur la psychanalyse avec laquelle il entretenait des rapports ambigus comme avec tout le reste, notamment L’exil intérieur en 1975. Il y disait d’une autre manière, ce que Debord avait cerné dans La Société du Spectacle : l’impossibilité dans le monde moderne pour les êtres de rencontrer d’autres êtres, et pire encore l’impossibilité pour l’homme de coïncider avec lui-même. Il a été aussi une des plus belles plumes du Monde comme critique des essais et surtout un éditeur hors pair aux PUF où sa collection, "Perspectives critiques", présente un catalogue de rêve. On lui doit la découverte d’André Comte-Sponville mais il a aussi publié Clément Rosset ou Marcel Conche et a assuré, à travers plusieurs autres auteurs, les noces de la philosophie et de la littérature : on y trouve ainsi les inclassables et tellement talentueux Romain Slocombe et Frédéric Pajak.

Après, d’autres le réduiront sans doute à une légende qu’il a malicieusement entretenue dans ses journaux intimes dont le monumental Le Monde d’avant (1983-1988) paru au début de l’année dont nous avons rendu compte dans Causeur. Son amitié, jamais reniée, avec Matzneff malgré les brouilles, son goût pour les jeunes filles qui ressemblaient à son idole, Louise Brooks, ou qui venait de l’Empire du Levant. Sa manière de jauger et de juger les hommes à la manière dont ils jouaient au ping-pong et aux échecs. Une de ses grandes tristesses fut d’ailleurs la fermeture pour rénovation du Lutétia, où on pouvait le trouver tous les dimanches dans les salons où il vous mettait très rapidement échec et mat. 

Au-delà de son refus de la postérité, celle qui consiste à avoir des enfants comme celle qui nous fait survivre à notre propre mort en étant encore lu dans vingt ou trente ans, le nihiliste Roland était un homme étonnamment soucieux de transmettre. Il refusait de l’admettre, il disait que je le taquinais, mais pourtant il suffit d’ouvrir un de ses livres pour avoir envie de lire les auteurs dont il parle : Cioran, bien sûr mais aussi son cher Amiel ou encore Paul Nizon. J’en oublie, forcément.

Je ne sais pas où est Roland désormais. Il se riait de mon communisme comme de mon catholicisme qui revient avec l’âge. Il n’empêche, je suis content d’avoir ses livres dans ma bibliothèque. Je vais le relire. C’est encore la meilleure des prières en même temps que le plus beau des hommages que je peux lui rendre. Le plus consolant aussi, car nous allons être un certain nombre, à Causeur et ailleurs, à avoir besoin d’être consolé.

Auteur: Leroy Jérôme

Info: Causeur, 21 sept 2021

[ eulogie ] [ écrivain-sur-écrivain ]

 
Commentaires: 1
Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel