Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1196
Temps de recherche: 0.0409s

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

post-darwinisme

Internet et l’informatique en général ont joué un rôle permanent dans l’histoire de la mémétique, par exemple en faisant accepter l’idée que des codes non biologiques (typiquement, les virus informatiques) puissent avoir une reproduction autonome. La résolution de problèmes industriels a rebaptisé mémétiques les algorithmes génétiques. Mais surtout, le tissu social de l’internet, plus maillé de jour en jour, constitue une deuxième couche de lien social, d’interactions et de contenu. Il prend une telle épaisseur qu’il abrite sa propre faune. Des contenus – humoristiques, effrayants ou engagés – prolifèrent à une vitesse telle qu’on ne pourrait plus les contrôler sans "fermer" Internet. On appelle cela Internet memes parce que, depuis le début, la mémétique et la web culture sont consanguines. Le court-circuit linguistique ne s’est pas fait attendre, bien que personne ne l’ait anticipé : les "mèmes Internet" sont devenus mèmes par la grâce simplificatrice des médias grand public. Le nom sans objet a fusionné avec l’objet sans nom. Malheureusement, on se polarise trop sur les contenus sémantiques d’Internet, alors que l’on devrait aussi s’intéresser à la structure procédurale qui les sous-tend, en étudiant par exemple les puissants mèmes aux implications politiques et sociétales lourdes que sont Share (partagez du contenu), Like (dites que vous aimez) et Report (signaler un abus) !

Au fil des années, la communauté des méméticiens avait commencé à "tuer le père" en se détachant progressivement de Dawkins, de son analogie trop simple, éloquemment nommée "camisole intellectuelle" (Wallace, 2013). Mais voici qu’au festival de Cannes 2013, le succès des Internet memes fait sortir du bois "l’athée le plus célèbre du monde", avec un vidéo-clip taillé selon les codes visuels de YouTube. La nouvelle "petite phrase" de Dawkins est un pied de nez à toute la science sérieuse : "L’idée même de mème a elle-même muté et évolué dans une nouvelle direction".

Le jeu de mot "mutations are designed not random" (les mutations sont créées, pas aléatoires) est délibérément contestable : il ouvre une conception nouvelle du rapport entretenu par les variantes culturelles avec le terrain humain. La créativité et l’intention de l’artiste y font partie des conditions de naissance de la solution créative, sont le générateur de hasard.

Si exaspérant soit-il, Dawkins joue son rôle de diva en "levant des fonds" : il utilise le modèle économique de demain, celui qui convertit l’attention captée en revenus. Grâce aux Internet memes, il fait d’une pierre trois coups. Car pour une nouvelle science, il ne faut pas seulement de nouvelles lunettes et beaucoup de temps de cerveau, mais aussi un nouveau champ de données, une espèce inconnue, un nouveau continent. Autrement, on se heurte au reproche classique : "mais pourquoi aurait-on besoin de vos nouvelles lunettes, alors que celles que nous fabriquons déjà fonctionnent très bien ?" L’ennui, c’est que les vieilles lunettes ne voient pas bien ce qui est en train de se passer parce que cela va trop vite.

Une autre forme de science est nécessaire pour demain

On sait dire aujourd’hui "à quelle question la mémétique apporte une réponse". Les questions apparaissent chaque jour un peu plus clairement : pourquoi les phénomènes de société échappent-ils à toute prévision et plus encore à tout contrôle ? Pourquoi même les bonnes nouvelles sont-elles surprenantes ? Qu’est-ce qui influence les influenceurs ? Jusqu’où tel bouleversement va-t-il se propager ? Est-il normal que les objets nous utilisent et communiquent entre eux ? Aujourd’hui, la difficulté de prévoir, l’irruption permanente et encouragée de la nouveauté, voire de la disruption, ainsi que l’explosion des données massives (big data) appellent les compétences sociocognitives des "tendanceurs". Pensée rapide, échanges en réseau, erreur autorisée, remise en cause permanente et preuve par l’action. La mémétique rejoint cet arsenal des chasseurs de tendances parce qu’elle voit le monde avec d’autres lunettes, des lunettes qui savent que l’on regarde du vivant autoorganisé et non plus du "construit par l’homme selon des plans". Du coup ces lunettes nous rendent davantage capables de voir ce qui change rapidement et d’en percevoir les évolutions possibles. Aujourd’hui, la mouvance de l’économie collaborative se propose de mettre en partage le "code source" d’innovations citoyennes directement prêtes à être  expérimentées. 

Il devient impossible de penser seul ou en petits groupes centrés sur l’allégeance à un seul paradigme. Les sujets d’études offerts aux sciences de l’homme par le monde contemporain affolent par leur nombre, leur diversité et leur vitesse de renouvellement. De même, la connaissance se fabrique partout en même temps, dans un tissu ouvert constitué de personnes et de machines. La conscience même du sujet connecté n’est plus la même que celle du sujet isolé. La mémétique peut fournir un ensemble de métaphores agissant à la manière de passerelles interdisciplinaires, telles que la vision des solutions comme chemins entre états instables, celle du stockage partiel des souvenirs dans les objets, ou celle de l’ADN organisationnel comme fonctionnement implicite partagé des collectifs.

Une première condition est le recentrage indispensable de l’observation, du mème abstrait vers la solution concrète que l’on voit se reproduire et évoluer.

Une autre serait de mettre en lien souplement, autour de ce concept général de solutions, toutes les observations et réflexions – sans aucune contrainte disciplinaire – sur la manière dont nos actions s’inspirent et se déclenchent à partir des corps, des lieux et des objets, se répètent, sont bien ou mal vécues en commun, sont mémorisées, fabriquent des structures, produisent des récits…

Mais avant tout, la plus importante est de reconnaître la mémétique pour ce qu’elle est : un projet collaboratif, spontané, a-disciplinaire, mondial, qui nous équipe d’un regard neuf sur ce que la vie humaine est en train de devenir… un regard qui change jusqu’à notre conception de nous-mêmes. La mémétique ne mourra pas tant que ce travail restera à faire. Elle ne s’effacera pas, si ce n’est dans un projet plus grand qui réponde aux mêmes nécessités et partage la même ouverture.

Auteur: Jouxtel Pascal

Info: In Cairn infos, reprenant Hermès, La Revue 2013/3 (n° 67), pages 50 à 56

[ distanciation ] [ recul épistémologique ]

 

Commentaires: 0

Ajouté à la BD par miguel

portrait

Maryam Mirzakhani était mathématicienne, mais elle oeuvrait  comme une artiste, toujours en train de dessiner. Elle aimait s'accroupir sur le sol avec de grandes feuilles de papier, les remplissant de gribouillages : figures florales répétées et corps bulbeux et caoutchouteux, leurs appendices coupés proprement, comme les habitants d'un dessin animé, égarés,  de Miyazaki. L’un de ses étudiants diplômés de l’Université de Stanford a déclaré que Mirzakhani décrivait les problèmes mathématiques non pas comme des énigmes logiques intimidantes mais comme des tableaux animés. "C'est presque comme si elle avait une fenêtre sur le paysage mathématique et qu'elle essayait de décrire comment les choses qui y vivaient interagissaient les unes avec les autres", explique Jenya Sapir, aujourd'hui professeure adjointe à l'Université de Binghamton. "Pour elle, tout arrive en même temps."

Mirzakhani a grandi à Téhéran avec le rêve de devenir écrivain. En sixième année, elle a commencé à Farzanegan, une école pour les filles les plus douées de la ville, et a obtenu les meilleures notes dans toutes ses classes, à l'exception des mathématiques. Vers la fin de l'année scolaire, l'instructeur lui a rendu un test de mathématiques noté 16 sur 20, et Mirzakhani l'a déchiré et a fourré les morceaux dans son sac. Elle a dit à une amie qu’elle en avait assez en mathématiques : " Je ne vais même pas essayer de faire mieux. " Mirzakhani, cependant, était constitutionnellement incapable de ne pas essayer, et elle tomba bientôt amoureuse de la poésie épurée du sujet. Alors qu'elle était au lycée, elle et sa meilleure amie, Roya Beheshti, sont devenues les premières femmes iraniennes à se qualifier pour l'Olympiade internationale de mathématiques, et l'année suivante, en 1995, Mirzakhani a remporté une médaille d'or avec un score parfait.

Mirzakhani a déménagé aux États-Unis à l'automne 1999 pour poursuivre ses études supérieures à Harvard. Sa passion était la géométrie et elle était particulièrement attirée par les " surfaces hyperboliques ", qui ont la forme de chips Pringles. Elle a exploré un univers extrême dans son abstraction – avec des " espaces de modules ", où chaque point représente une surface – et des dimensions qui dépassent les nôtres. D'une manière ou d'une autre, Mirzakhani était capable d'évoquer des aspects de tels espaces à considérer, en griffonnant sur une feuille de papier blanc pour essayer une idée, s'en souvenir ou en rechercher une nouvelle ; ce n'est que plus tard qu'elle transcrira ses aventures dans les symboles conventionnels des mathématiques. "on ne veut pas écrire tous les détails ", a-t-elle dit un jour à un journaliste. "Mais le processus du dessin de quelque chose vous aide d'une manière ou d'une autre à rester connecté." Son doctorat : thèse commencée en dénombrant des boucles simples sur des surfaces, a conduit à un calcul du volume total des espaces de modules. Cela a permis à la jeune chercheuse de publier trois articles distincts dans des revues mathématiques de premier plan, dont l'un contenait une nouvelle preuve surprenante de la célèbre " conjecture de Witten ", une étape importante dans la physique théorique reliant les mathématiques et la gravité quantique. Les mathématiques de Mirzakhani sont appréciées pour leurs grands sauts créatifs, pour les liens qu'elles ont révélés entre des domaines éloignés, pour leur sens de la grandeur.

Lorsque Jan Vondrak, qui deviendra son mari, la rencontre en 2003, il ne savait pas, dit-il, qu'" elle était une superstar ". Mirzakhani terminait ses études à Harvard et Vondrak, aujourd'hui professeur de mathématiques à Stanford, étudiait au MIT ; ils se sont rencontrés lors d'une fête, chacun reconnaissant une âme sœur qui n'aimait pas particulièrement les fêtes. Vondrak l'a initiée au jazz et les deux ont fait de longues courses le long de la rivière Charles. Mirzakhani était à la fois modeste – Vondrak a appris de ses nombreuses réalisations grâce à des amis communs – et extrêmement ambitieuse. Vondrak se souvient de ses rêves de découvertes futures dans l'espace des modules, mais aussi de sa détermination à explorer des domaines plus lointains, comme la théorie des nombres, la combinatoire et la " théorie ergodique ". Elle avait, selon Vondrak, " 100 ans de projets ".

Il y a trois ans, Mirzakhani, 37 ans, est devenue la première femme à remporter la médaille Fields, le prix Nobel de mathématiques. La nouvelle de cette récompense et le symbolisme évident (première femme, première Iranienne, immigrante d'un pays musulman) la troublaient. Elle fut très perplexe lorsqu’elle a découvert que certaines personnes pensaient que les mathématiques n’étaient pas pour les femmes – ce n’était pas une idée qu’elle ou ses amis avaient rencontrée en grandissant en Iran – mais elle n’était pas encline, de par sa personnalité, à dire aux autres quoi penser. À mesure qu’elle devenait une célébrité parmi les Iraniens, les gens l’approchaient pour lui demander une photo, ce qu’elle détestait. La médaille Fields a également été annoncée alors qu'elle venait de terminer un traitement épuisant contre le cancer du sein.

En 2016, le cancer est réapparu, se propageant au foie et aux os de Mirzakhani. Tous ceux qui ont connu Mirzakhani la décrivent comme étant d’un optimisme inébranlable ; ils quittaient toujours les conversations avec un sentiment d'énergie. Mais finalement, il est devenu impossible pour Mirzakhani de continuer ce que sa jeune fille, Anahita, appelait sa " peinture ". Lors d'un service commémoratif à Stanford, Curtis McMullen, directeur de thèse de Mirzakhani et président du département de mathématiques de Harvard, a déclaré que lorsqu'elle était étudiante, elle venait à son bureau et posait des questions qui étaient " comme des histoires de science-fiction ", des scènes vivantes qu'elle avait entrevues. dans un coin inexploré de l’univers mathématique – des structures étranges et des motifs séduisants, tous en mouvement et interconnectés. Puis elle le regardait de ses yeux bleu-gris. " Est ce bien? " demanderait-elle, comme s'il pouvait connaître la réponse.

Auteur: Internet

Info: Nytimes, by Gareth Cook, 2017

[ syntropie ] [ visualisation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

magouilles

Industrie du médicament : "J'ai vendu mon âme au diable"

John Virapen, 64 ans, livre le récit de son parcours dans l'industrie pharmaceutique. Une confession professionnelle peu ordinaire. John Virapen, ancien directeur de la firme Eli Lilly en Suède, a rédigé dans sa soixante-quatrième année une confession professionnelle peu ordinaire.

"Depuis des années parfois aux premières heures du jour des silhouettes fantomatiques m’apparaissent en rêve, écrit-il en préambule. Elles se tapent la tête contre les murs ou s’entaillent les bras et la gorge a coups de rasoir. J’ai maintenant compris que j’avais indirectement contribué a la mort de personnes dont les ombres me hantent.

Je n’ai évidemment tué personne directement, mais aujourd'hui je ne peux pas ne pas me sentir responsable en partie de ces morts. J’ai été un instrument, un exécutant, mais consentant, aux mains de l’industrie. […] J’ai été certes manipulé, mais sans me poser de questions. J’ai vendu mon âme au diable."

Le cas du Prozac
D’origine indoue et fils de pêcheur illettré de la Guyane britannique, l’auteur de ce mea culpa glaçant est entré dans l’industrie pharmaceutique, en 1968, par la toute petite porte. En acteur habile de ce qui ne s’appelle pas encore marketing, John Virapen est déjà en 1981 directeur des ventes de la firme Eli Lilly pour la Suède.

Il raconte les petits pactes inavouables qui se scellent dans ce milieu feutré, et la main mise des firmes sur les leaders d’opinion, ces grands professeurs renommés et gardiens de la doxa. Ainsi l’entre eux, spécialiste du traitement de la douleur et expert au ministère de la santé, recevait-il de Lilly un salaire fixe, moyennant conseil, relecture de brochures et autres conférences.

On faisait surtout appel à lui en cas d’attaque contre nos produits dans les médias, souvent à propos d’effets secondaires. Il écrivait immédiatement des articles en notre faveur dans les journaux médicaux. Le microcosme médical était rassuré, la grande presse n’en parlait plus."
En 1986, pour le lancement de la fluoxétine d’Eli Lily, molécule d’or baptisée Prozac qui sera jusqu’à expiration du brevet en 2001 l’antidépresseur le plus prescrit au monde, John Virapen va commettre ce qui le hante au petit matin : avoir aidé à promouvoir un médicament dont il connaissait –déjà- l’impact suicidaire (pour les effets secondaires réels des psychotropes, voir le site de veille sanitaire indépendant de David Healy, chercheur à l’université de Cardiff RxiSK.org) et dont la supériorité sur le placébo n’est toujours pas établie en 2014.

Mais pour l’heure, tandis qu’au siège on organise le plan com’ qui fera de la dépression une maladie couramment diagnostiquée dans tous les pays riches, les satrapes de Lilly s’affairent dans les capitales afin d’obtenir pour le Prozac une autorisation de mise sur le marché.

Comment des suicidés ont disparu
A Stockholm, John Virapen sait qu’un expert indépendant a été officiellement désigné pour émettre un avis. Le nom du professeur est confidentiel, pour tenir éloignés les lobbies justement. John Virapen veut savoir. Il n’y a dans toute la Suède que cinq experts psychiatres suffisamment qualifiés pour avoir été sollicité par l’Etat.

L’un fait partie des autorités de santé ; ça ne peut être lui. Pour les quatre autres, il va agir en profiler et demander à ses visiteurs médicaux de se renseigner, discrètement. Après quelques semaines de ce maillage discret, l’expert est repéré : c’est Pr Z., à Göteborg. "J’entrepris d’étudier le Pr Z. de plus près. Il aimait la voile. Je m’achetai un livre sur la voile." Virapen l’appelle, et parvient à l’inviter à dîner.

Un facteur a joué en ma faveur, je n’aimais pas le Pr Z, poursuit-il. Une réelle sympathie rend les manipulations plus difficiles. On n’aime pas piéger une personne qu’on apprécie. On ne veut pas obliger quelqu’un qu’on aime à franchir les frontières de la légalité. Le fait de ne pas aimer était donc un atout."
Un deuxième dîner va sceller leur entente. "L’argent est toujours utile", répond l’expert indépendant quand son hôte lui demande ce qui ferait accélérer son affaire. Le lendemain, Virapen appelle le bureau de Lilly à Copenhague, qui supervise les pays du Nord, explique qu’il faut 100.000 couronnes pour obtenir une autorisation rapide, soit 20.000 dollars. "Le bureau de Copenhague consulta celui de Genève. Cela prit 24 heures. Puis je reçus un appel :'John, faites tout ce qui vous semble nécessaire.'"

L’expertise du Dr Z. en fut quelque peu orientée. Dans le dossier initial, voici un exemple de ce qu’on pouvait lire : "Sur dix personnes ayant pris le principe actif, 5 eurent des hallucinations et firent une tentative de suicide dont 4 avec succès." A la place on lisait désormais : "Les 5 derniers ont présentés divers effets secondaires." Escamotés, les suicidés sous Prozac, au cours de la phase d’expérimentation.

Au dessus des lois ? Au dessus des Etats ?
Ce témoignage paraît un mois après celui de Bernard Dalbergue, ancien cadre de chez Merck ; un an après l’ouvrage de Julie Wasselin qui fut pendant trente ans visiteuse médicale; et dix ans après que Philippe Pignarre, ancien de chez Synthelabo et lanceur d’alerte avant l’heure, a publié "Le Grand secret de l’industrie pharmaceutique". Tous démontrent que la santé est depuis trente ans une affaire de business et de marketing sur fonds de désinformation aux conséquences criminelles.

La confession de John Virapen a été traduite par Philippe Even, qui poursuit ainsi un travail de recadrage entrepris en 2005, soit cinq ans avant le scandale Servier, avec sa traduction du livre Marcia Angell, rédactrice en chef démissionnaire du prestigieux "New England Journal of Medecine" (NEJM), "La vérité sur les compagnies pharmaceutiques".

Étrangement, ces révélations ne suscitent pas l’effroi et les révolutions qu’elles devraient. Comme si la pharmaco-délinquance était une fatalité, et l’industrie du médicament une organisation impossible à contrôler, au dessus des lois, au dessus des Etats.

Auteur: Crignon Anne

Info: Le Nouvel Observateur Publié le 18 avril 2014

[ big pharma ]

 

Commentaires: 0

Ajouté à la BD par miguel

cosmologie

Vivons-nous dans un trou noir ?

Notre univers pourrait bien se trouver dans un vaste trou noir.
Remontons le temps : avant la venue de l’Homme, avant l’apparition de la Terre, avant la formation du soleil, avant la naissance des galaxies, avant toute lumière… il y a eu le Big Bang. C’était il y a 13,8 milliards d’années.

Mais avant cela ? De nombreux physiciens avancent qu’il n’y avait rien avant cela. Le temps a commencé à s’écouler, insistent-ils, au moment du Big Bang et méditer sur tout ce qui aurait pu se produire avant ne relève pas de la science. Nous ne comprendrons jamais à quoi pouvait ressembler le pré-Big Bang, ou bien ce dont il était constitué, ou encore qui a provoqué son explosion ayant mené à la formation de notre univers. Toutes ces notions vont au-delà de la compréhension dont l’Homme est capable.

Pourtant, quelques scientifiques non-conventionnels ne sont pas d’accord. D’après la théorie de ces physiciens, un peu avant le Big Bang, toute la masse et l’énergie de l’univers naissant étaient compactées dans une boule incroyablement dense – mais pas infinie. Appelons-la la graine d’un nouvel univers.

On imagine cette graine d’une taille incroyablement petite, peut-être des trillions de fois plus petite que n’importe quelle particule observable par l’Homme aujourd’hui. Et pourtant, il s’agit d’une particule capable de déclencher la particule de toutes les autres particules, sans oublier les galaxies, le système solaire, les planètes et les êtres vivants.

S’il n’y avait qu’une chose à appeler la particule de Dieu, cela y ressemble bien.

Mais comment une telle graine peut-elle se former ? Il y a bien une idée qui circule depuis quelques années, notamment soutenue par Nikodem Poplawski de l’Université de New Haven, selon laquelle la graine de notre univers a été forgée dans le four ultime, probablement l’environnement le plus extrême qui soit : dans un trou noir.

LA MULTIPLICITÉ DU MULTIVERS
Avant d’aller plus loin, il est essentiel d’avoir en tête qu’au cours des vingt dernières années, de nombreux physiciens théoriciens en sont venus à croire que notre univers n’est pas le seul. Au lieu de cela, nous faisons plus probablement partie du multivers, un immense tableau constitué d’univers distincts, chacun centré sur son étoile brillant dans le ciel de la nuit.

Comment, ou même si, un univers est lié à un autre fait l’objet de nombreuses discussions, toutes extrêmement spéculatives et impossibles à prouver à l’heure actuelle. Selon une théorie convaincante, la graine de l’univers ressemble à celle d’une plante : il s’agit d’un fragment de matériau essentiel, très compressé, caché dans une enveloppe protectrice.

C’est précisément ce qui se crée au sein d’un trou noir. Les trous noirs sont les restes d’étoiles géantes. Lorsqu’une telle étoile arrive à cours d’énergie, son noyau se détruit à l’intérieur et la gravité se charge de transformer le tout en un ensemble incroyablement puissant. Les températures atteignent 100 milliards de degrés ; les atomes sont écrasés ; les électrons sont broyés ; et tous ces éléments sont ballottés encore et encore.

À ce stade, l’étoile est devenue un trou noir dont l’attraction gravitationnelle est telle que pas même un faisceau de lumière ne peut s’en échapper. La frontière entre l’intérieur et l’extérieur d’un trou noir est nommée" l’horizon des événements". D’énormes trous noirs, certains des millions de fois plus massifs que le soleil, ont été découverts au centre de presque toutes les galaxies, dont notre propre Voie Lactée.

DES QUESTIONS À L'INFINI
Si vous vous basez sur les théories d’Einstein pour déterminer ce qui se produit au fond d’un trou noir, vos calculs vous mèneront à un endroit infiniment dense et petit : un concept hypothétique appelé singularité. Mais les infinités n’ont pas vraiment leur place dans la nature et le fossé se creuse avec les théories d’Einstein, qui permettent une incroyablement bonne compréhension du cosmos mais ont tendance à s’effondrer dès lors que d’énormes forces sont impliquées, comme celles en action dans un trou noir ou encore celles qui ont rythmé la naissance de notre univers.

Des physiciens comme le Dr. Poplawski avancent que la matière d’un trou noir atteint un point à partir duquel elle ne peut plus être écrasée. Aussi petite puisse-t-elle être, cette "graine" pèse le poids d’un milliard de soleils et est bien réelle, contrairement à une singularité.

Selon le Dr. Poplawski, le processus de compaction cesse car les trous noirs sont en rotation, ce qui dote la graine compactée d’une bonne torsion. Elle n’est alors pas seulement petite et lourde ; elle devient tordue et compressée, comme ces jouets montés sur ressorts, prêts à jaillir de leur boîte.

Jouets qui peuvent rapidement se rétracter lorsqu’on les y force. Appelez ça le Big Bang – ou le "big bounce" (le grand rebond) comme le Dr. Poplawski aime à le dire.

En d’autres termes, il est possible que le trou noir soit comme un conduit – une "porte à sens unique", explique le Dr. Poplawski – entre deux univers. Cela signifie que si vous tombez dans le trou noir au centre de la Voie Lactée, on peut imaginer que vous (ou du moins les particules complètement éclatées dont vous étiez auparavant composés) finirez dans un autre univers. Celui-ci ne se situe pas dans le nôtre, comme l’ajoute le scientifique : le trou fait tout bonnement office de lien, comme une racine partagée qui connecterait entre eux deux peupliers.

Qu’en est-il de nous autres, ici, dans notre propre univers ? Nous pourrions alors bien être le produit d’un autre univers, plus ancien. Appelons-le notre univers "mère". La graine que cette mère a forgée au sein d’un trou noir aurait peut-être connu son grand rebond il y a 13,8 milliards d’années. Et même si notre univers s’est étendu rapidement depuis, il se pourrait bien que nous soyons toujours cachés derrière l’horizon des événements d’un trou noir.

Auteur: Internet

Info: De Michael Finkel sur https://www.nationalgeographic.fr, avril 2019

[ spéculation ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

homme-animal

Domestication des chiens: le mystère de son origine enfin levé
Retracer précisément l'histoire de la domestication du chien est crucial pour la recherche fondamentale. Ce sujet nécessite une approche interdisciplinaire comme l'illustre une nouvelle étude internationale qui réunit des archéozoologues et des paleogénéticiens. Pilotés par une équipe de l'université d'Oxford en Angleterre, ces travaux ont mobilisé plusieurs laboratoires français.
"En savoir plus à ce sujet permet d'en savoir plus sur notre propre histoire ; car l'histoire du chien constitue une part de l'histoire de l'humanité", explique Anne Tresset, archéozoologue à Paris et coauteur de l'étude. En effet, d'une part, le chien présente la particularité d'être le premier à avoir été domestiqué par l'homme: "Il vit dans des sociétés humaines depuis la fin du Paléolithique supérieur, c'est-à-dire depuis au moins 15 000 ans. À titre de comparaison, la domestication des bovins, du mouton, de la chèvre et du porc n'a eu lieu, elle, que plusieurs millénaires après, au Néolithique, soit il y a 10 500 ans", précise notre contact. D'autre part, le chien a un statut très particulier: "Il est le meilleur ami de l'homme, et le fut sans doute dès l'origine. On a par exemple retrouvé des ossements de chiens aux côtés de défunts dans des tombes de la culture proche-orientale natoufienne, remontant à l'Épipaléolithique, donc à plus de 11 000 ans...", poursuit Anne Tresset.
Plus précisément, la nouvelle étude suggère que le chien dérive non pas d'une seule, mais de deux domestications indépendantes de loups: une, survenue en Europe il y a au moins 15 000 ans ; et l'autre, en Asie de l'Est, il y a au moins 12 500 ans. Puis entre le Ve et le IVe millénaire avant notre ère, des chiens d'Asie auraient migré vers l'Europe, sans doute en même temps que des populations humaines. Là, ils se seraient reproduits avec des chiens européens. Leurs descendants auraient ensuite peu à peu remplacé les chiens d'origine.
Dans les faits, les archéozoologues soupçonnent une double origine du chien depuis plusieurs décennies déjà. Et ce grâce à l'étude de restes de chiens anciens, datés de la fin du Paléolithique supérieur ou de l'Épipaléolithique. Problème, les généticiens restaient, eux, persuadés qu'il n'y avait eu qu'une seule domestication: en Asie.
Et pour cause: les généticiens en question analysaient l'ADN des chiens actuels. Lesquels appartiennent majoritairement à un ensemble de lignées génétiques particulier, d'origine asiatique: l'haplogroupe A. "Le problème avec cette démarche est qu'en cas d'événements gommant complètement le pool génétique antérieur de la population analysée - comme ici, l'arrivée de chiens asiatiques en Europe -, il est impossible de "voir" ce qu'il y avait avant, soit ici le fait qu'il existait déjà, avant l'arrivée des chiens asiatiques, des chiens en Europe de l'Ouest, appartenant à l'haplogroupe C...", explique Anne Tresset.
Des os remontant à l'époque des tout premiers chiens
"La force de notre nouvelle étude est justement qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques couvrant une longue période de l'histoire du chien, les plus vieux remontant à 14 000 ans, soit au début de l'histoire évolutive de ce mammifère. De plus, nos échantillons provenaient de différentes zones géographiques en Europe (France, Suisse, Allemagne, Roumanie...) et en Asie (Iran, Turkménistan, Russie asiatique)", souligne la paléogénéticienne lyonnaise Catherine Hänni.
"La force de notre étude est qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques."
Concrètement, les chercheurs ont reconstitué l'histoire évolutive des chiens en étudiant 59 restes archéologiques de chiens qui ont vécu entre 14 000 et 3 000 ans avant le présent. Les scientifiques ont extrait l'ADN ancien de ces ossements puis ont séquencé l'ADN mitochondrial (présent dans des structures particulières des cellules: les mitochondries). Le génome complet des restes d'un chien vieux de 4 800 ans a également été séquencé.
"Cette recherche n'aurait jamais abouti sans la collaboration étroite entre l'archéozoologie, la paléogénétique et l'analyse génomique", se réjouit Catherine Hänni.
Une alliance tripartite gagnante
En pratique, les archéo zoologues ont permis l'accès aux différents restes archéologiques de chiens analysés ici, qu'ils avaient étudiés lors de précédentes études indépendantes. "À elle seule, notre équipe a fourni plus des trois quarts des échantillons étudiés", indique Anne Tresset. Puis, les paléo généticiens - dont l'équipe lyonnaise de Catherine Hänni - ont extrait et séquencé l'ADN des ossements collectés par les archéo zoologues. Enfin, l'équipe d'Oxford a réalisé une modélisation informatique à partir des séquences génétiques anciennes et de celles de 2 500 chiens modernes étudiés précédemment. Ce qui a permis au final de reconstituer l'arbre évolutif du chien.
Chose surprenante, cette modélisation a révélé une divergence entre les chiens originaires d'Asie de l'Est et ceux d'Europe, remontant à il y a moins de 14 000 ans... soit après l'apparition du chien en Europe ! D'où la conclusion qu'il y avait à l'origine deux populations distinctes de chiens: une en Asie et une en Europe. Autre résultat important: les analyses des ADN mitochondriaux des chiens modernes et anciens ont montré que, si la majorité des anciens chiens européens appartenaient à l'haplogroupe C (60 % des chiens) ou D (20 %), la plupart des chiens européens modernes sont de l'haplogroupe A (64 %) et B (22 %), tous deux d'origines asiatiques. Ce qui est cohérent avec une arrivée de chiens originaires d'Asie en Europe.
D'autres zones d'ombre à éclaircir
À l'avenir, les équipes d'Anne Tresset et de Catherine Hänni espèrent pouvoir éclaircir plusieurs autres zones d'ombre de l'histoire européenne et proche-orientale du chien. "Par exemple, nous voudrions tenter de comprendre pourquoi on trouve dans l'Ouest de l'Europe plutôt des chiens petits, alors qu'à l'Est de l'Europe on a plutôt des grands types. Plus largement, nous souhaiterions étudier les facteurs à l'origine de l'évolution de la taille, de la couleur ou encore de la forme des chiens lors de leur histoire évolutive (sélection par l'homme,...)", précise Anne Tresset. L'histoire du chien est donc loin d'avoir livré tous ses secrets.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=15224

 

Commentaires: 0

religion

Horus l'ancien : dieu du ciel, du soleil et de la lune dans la haute antiquité et les époques pré-dynastique jusqu'aux deux premières dynasties égyptiennes, il partageait avec son rival Seth la première place du polythéisme égyptien où de nombreuses divinités composites (mi-humaines, mi-animales) étaient honorées. En réalité chaque région honorait "ses dieux et son créateur" entouré d'une pléiade de divinités confuses et souvent terrifiantes, mais Horus l'Ancien était déjà considéré comme le rassembleur du peuple et le précurseur d'Osiris et de son fils Horus (le jeune). Horus (qui signifie le lointain) est l'antique faucon-chasseur roi du ciel que les anciens d'Edfou assimilaient au dieu du Ciel Béhédety grand dieu de Damanhour et d'Edfou, son oeil droit était le soleil, l'oeil gauche la lune, cette divinité symbolisé par un soleil ailé avec 2 uraeus était placée au-dessus des portes des temples pour éloigner les mauvais esprits. C'est donc un dieu charnière qui avait des origines dans la période archaïque et dont le profil et le symboles a évolué durant les trois siècles nécessaires à la mise en place de la réforme Osirienne. Dès la IIIè dynastie on peut considérer que " Horus fils d'Isis " a supplanté Horus l'Ancien, dieu faucon d'Edfou. Horus, fils d'Isis, s'est symboliquement installé sur le trône de son père. Logiquement, il aurait été impossible de faire construire au peuple l'immense projet des pyramides dont le sens conduit directement au ciel, "sans l'idée maîtresse de résurrection" qu'incarne la personne d'Osiris qui à son tour a transmis ses pouvoirs spirituels et temporels à son fils Horus.
Seth meurtrier de son frère Osiris. Seth était aux temps très anciens, un dieu du sud originaire de la cité d'Ombos. Peut-être d'origine sémitique, il était le dieu gardien des troupeaux de brebis, représenté par un mélange de chien lévrier et d'âne. Péjorativement il deviendra plus tard un chien rouge errant. Au temps pré-dynastique, plusieurs guerres eurent lieu entre le sud et le nord. A une période non déterminée Horus devint le dieu de Hte Egypte et Seth celui du delta. Mais le sud ayant vaincu plusieurs fois le delta, son roi unifia les deux pays et fit proscrire Seth des deux pays en le déclarant indésirable et anathème.
Coup de théâtre entre la IIIe et la Ve dynastie s'installe en Egypte une nouvelle mythologie : Geb et Nout engendrent cinq enfants dont : Osiris, Isis, Seth et Néphthys. Osiris épousera Isis, tandis que Seth épousera Nephthys. Un jour Seth a convié Osiris à un banquet. Au cours du repas, il promit de faire un très beau cadeau à la personne dont les mesures correspondrait à celles d'un sarcophage qu'il avait spécialement fait construire aux dimensions d'Osiris.
Lorsqu'Osiris s'allongea dans le coffre, le couvercle fut refermé et l'ensemble fut jeté dans le Nil ce qui causa la noyade d'Osiris. Même si Isis retrouva le corps inanimé de son époux, Seth le récupéra, dépeça le cadavre en morceaux qu'il dispersa dans tous les nomes d'Egypte. Mais Isis, avec l'aide du dieu Anubis, retrouva les morceaux de son époux, les rassembla et parvint à ressusciter Osiris le temps d'être spirituellement fécondée par lui, car le phallus avait disparu à jamais dans le ventre d'un poisson. Osisis et Isis avaient accompli la première résurrection de l'âme après la mort sur cette Terre.
Isis mettra au monde un garçon auquel elle donnera le nom d'Horus, il vengera son père en émasculant son oncle Seth au cours d'un combat. Seth lui aurait également arraché un oeil, mais Horus le récupéra. Finalement grâce à l'aide du dieu Thot, Horus remontera sur son trône.
Les égyptiens ont également associé par la suite le fourbe Seth à l'image du dieu serpent gigantesque Apopis, image du chaos toujours vaincu mais resurgissant de ses cendres pour essayer d'arrêter chaque jour la barque du soleil qui doit traverser la nuit, il personnifie un esprit méchant et perturbateur de l'ordre.
Seth est aussi le dieu des orages, des tempêtes, du désert et des oasis. Il est le mal nécessaire contre lequel nous sommes obligés de lutter pour assurer notre renaissance spirituelle.
Lors de la deuxième période intermédiaire (-1785 à - 1570) les envahisseurs Hyksos qui avaient assimilé Seth au dieu Baal phénicien, l'adoptèrent comme dieu de leur ville : Avaris, située dans le delta du Nil. (Vers -800, on le considéra comme un homosexuel aux actes stériles et le dieu des étrangers et des envahisseurs malveillants. Sous la période Ptolémaïque il fut souvent représenté sous la forme d'un hippopotame disgracieux, qui par ses cris aigus empêchait les gens de dormir la nuit ou comme un crocodile, animal sournois et dangereux.)
Thot : le grand dieu du Verbe et de la sagesse. Il est à la fois : l'antique dieu de la sagesse, le scribe des dieux et le Seigneur des écritures sacrées qu'on honorait déjà à Hermopolis-Parva dans le delta où on lui attribua parfois l'aspect du dieu-babouin qui l'avait précédé dans ce temple. C'est l'aspect qu'il emprunta pour partir avec le lion Shou à la recherche de la fougueuse et sauvage lionne Tefnout (soeur de Shou et fille de Rê). Dans les Textes des Pyramides on le représente sous la forme céleste d'un homme avec une tête d'ibis. C'est un personnage très important qui participe au jugement des âmes dans le tribunal d'Osiris où il a fonction de noter et de comparer le poids des âmes par rapport au poids que pèse la légère plume de Maât qui est la déesse symbole de la vérité. Comme il se doit on lui attribue pour épouse la déesse Shésat de l'écriture. Thot est également le dieu de la Lune, mais il est également le maître incontesté du verbe, de la parole sage, c'est la raison pour laquelle on l'assimile à la langue du grand dieu Ptah. Avocat talentueux il plaidera au tribunal de l'Ennéade suprême pour la restitution du trône à Horus (héritier d'Osiris) et des organes perdus au cours de la bataille que se livrèrent : Seth et Horus.

Auteur: Internet

Info:

[ ancienne égypte ]

 

Commentaires: 0

horizon anthropique

Qu'est-ce que le paradoxe cérébral de Boltzmann ? Le cerveau est-il l'univers ultime ?

Avez-vous déjà contemplé la nature de votre existence et vous êtes-vous demandé si vous étiez vraiment une personne ayant vécu une vie, ou simplement un cerveau récemment formé avec des souvenirs artificiels, développant momentanément une réalité qui n'est pas réelle ? Cette question, connue sous le nom de paradoxe du cerveau de Boltzmann, peut sembler absurde, mais elle trouble les cosmologistes depuis des générations.

Le paradoxe tire son nom de Ludwig Boltzmann, un éminent physicien du XIXe siècle qui a apporté des contributions significatives au domaine de la thermodynamique. À son époque, les scientifiques étaient engagés dans des débats passionnés sur la question de savoir si l'univers a une durée infinie ou finie. Boltzmann a révolutionné notre compréhension de l'entropie, qui mesure le désordre au sein d'un système. Par exemple, un verre est considéré comme ordonné, alors qu'un verre brisé est dans un état de désordre. La deuxième loi de la thermodynamique affirme que les systèmes fermés tendent à devenir plus désordonnés avec le temps ; un verre brisé ne se reconstitue pas spontanément dans son état originel.

Boltzmann a introduit une nouvelle interprétation de l'entropie en appliquant un raisonnement statistique pour expliquer le comportement des systèmes. Il a mis en évidence que les systèmes évoluent vers un état plus désordonné parce qu'une telle transformation est la plus probable. Cependant, si la direction opposée n'est pas impossible, elle est incroyablement improbable. Par exemple, nous ne verrons jamais des œufs brouillés redevenir des œufs crus. Néanmoins, dans un univers infiniment vieux, où le temps s'étend sans limites, des événements hautement improbables, tels que la formation spontanée de structures complexes à partir de combinaisons aléatoires de particules, finiraient par se produire.

Qu'est-ce que cela signifie dans le contexte d'un univers hypothétique qui existe depuis un temps infini ? Imaginez une étendue apparemment banale de quasi-néant, où environ huit octillions* d'atomes convergent fortuitement pour créer le "Le Penseur" de Rodin, sauf qu'elle est cette fois entièrement constituée de pâtes alimentaires. Cependant, cette sculpture de pâtes se dissout rapidement en ses particules constitutives. Ailleurs dans cette vaste toile cosmique, les particules s'alignent spontanément pour former une structure ressemblant à un cerveau. Ce cerveau est rempli de faux souvenirs, simulant une vie entière jusqu'au moment présent où il perçoit une vidéo véhiculant ces mêmes mots. Pourtant, aussi rapidement qu'il est apparu, le cerveau se décompose et se dissipe. Enfin, en raison de fluctuations aléatoires, toutes les particules de l'univers se concentrent en un seul point, déclenchant l'émergence spontanée d'un univers entièrement nouveau.

De ces deux derniers scénarios, lequel est le plus probable ? Étonnamment, la formation du cerveau est nettement plus probable que la création spontanée d'un univers entier. Malgré sa complexité, le cerveau est minuscule par rapport à l'immensité d'un univers entier. Par conséquent, si l'on suit ce raisonnement, il apparaît très probable que tout ce que nous croyons exister n'est rien d'autre qu'une illusion fugace, destinée à disparaître rapidement.

Bien que Boltzmann lui-même n'ait pas approfondi ces conclusions, les cosmologistes qui se sont inspirés de ses travaux ont introduit le concept des cerveaux de Boltzmann. Il est intéressant de noter que ces cosmologistes, comme la majorité des individus, étaient raisonnablement certains de ne pas être eux-mêmes des cerveaux éphémères. D'où le paradoxe suivant : comment pouvaient-ils avoir raison dans leur hypothèse tout en postulant l'existence d'un univers éternel ?

Le paradoxe a trouvé sa résolution dans un concept communément accepté aujourd'hui : notre univers n'existe pas de manière infinie mais a eu un commencement connu sous le nom de Big Bang. On pourrait donc penser que le paradoxe a été résolu une fois pour toutes. Or, ce n'est peut-être pas le cas. Au cours du siècle dernier, les scientifiques ont découvert des preuves substantielles à l'appui de la théorie du Big Bang, mais la question de savoir ce qui l'a précédé et causé reste sans réponse. Que l'univers soit apparu dans un état extrêmement ordonné et improbable ? Notre univers pourrait-il faire partie d'un cycle sans fin de création et d'effondrement, ou sommes-nous simplement l'un des innombrables univers en expansion dans un vaste multivers ?

Dans ce contexte intrigant, le paradoxe de Boltzmann a suscité un regain d'intérêt chez les cosmologistes contemporains. Certains affirment que les modèles dominants de l'univers suggèrent encore que les cerveaux de Boltzmann ont plus de chances d'exister que les cerveaux humains, ce qui soulève des inquiétudes quant à la validité de ces modèles. Cependant, d'autres réfutent ces arguments en proposant de légères modifications des modèles cosmologiques qui élimineraient le problème ou en affirmant que les cerveaux de Boltzmann ne peuvent pas se manifester physiquement.

Dans le but d'explorer les probabilités impliquées, certains chercheurs ont même tenté de calculer la probabilité qu'un cerveau émerge spontanément à partir de fluctuations quantiques aléatoires et survive suffisamment longtemps pour générer une seule pensée. Le résultat de leurs calculs a donné un nombre étonnamment grand, avec un dénominateur dépassant 10 élevé à une puissance environ un septillion de fois plus grande que le nombre d'étoiles dans l'univers.

Malgré sa nature apparemment absurde, le paradoxe du cerveau de Boltzmann est utile. Il place la barre très haut pour les modèles cosmologiques. Si l'état actuel de l'univers semble excessivement improbable par rapport à des nombres d'une telle ampleur, cela indique que quelque chose ne va pas dans le modèle. Ce paradoxe nous pousse à remettre en question notre compréhension de la réalité et nous incite à rechercher une représentation plus complète et plus précise de l'univers.

Alors que nous continuons à explorer les mystères du cosmos, la nature énigmatique de notre existence reste une source de fascination et un catalyseur pour la poursuite de la recherche scientifique. Dans notre quête de réponses, nous pourrons peut-être découvrir des vérités profondes qui nous éclaireront sur la nature de notre réalité et sur la tapisserie complexe de l'univers.

Auteur: Sourav Pan

Info: *un octillion = 10 puissance 48)

[ humain miroir ] [ monde consensuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel