Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 83
Temps de recherche: 0.0712s

homme-par-machine

L’affirmation selon laquelle la méthode utilisée par le cerveau humain pour encoder les relations entre les concepts n’est pas uniquement mathématique est fondée sur notre compréhension actuelle des neurosciences, de la psychologie cognitive et des complexités observables du comportement et de l’expérience humaine. S’il est vrai que de nombreux processus cérébraux peuvent être décrits mathématiquement dans une certaine mesure (par exemple, dans les modèles d’activité neuronale ou de traitement des signaux), la profondeur du traitement cognitif et émotionnel humain transcende la simple description mathématique. Voici comment nous pouvons étayer ce point de vue :

Preuves de l’existence de processus non mathématiques dans la cognition humaine

Observations neuroscientifiques : L’imagerie cérébrale et les études neurophysiologiques révèlent des schémas complexes et dynamiques d’activité cérébrale associés à la cognition et aux émotions. Si ces schémas peuvent parfois être modélisés mathématiquement, les modèles ne rendent pas pleinement compte des expériences subjectives, des intentions et de la conscience qui accompagnent ces processus.

Complexité psychologique : les pensées, les émotions et les souvenirs humains sont liés entre eux d’une manière qui ne repose pas uniquement sur des relations mathématiques observables ou quantifiables. Par exemple, la signification personnelle, l’impact émotionnel et le contexte culturel peuvent tous influencer la manière dont les concepts sont liés, au-delà de ce qui peut être réduit à de simples valeurs numériques ou équations mathématiques.

Propriétés émergentes : La conscience et l’expérience subjective sont des propriétés émergentes des processus cérébraux que nous ne comprenons pas encore tout à fait. La qualité subjective de l’expérience (qualia) n’est pas quelque chose qui peut être directement mesuré ou entièrement capturé en termes mathématiques, bien qu’il s’agisse d’un produit des processus cérébraux.



 

Auteur: chatGPT4

Info: Sur le blog de Paul Jorion, mars 2024

[ partialité ] [ esprit défini ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuro-médiateurs

La prise de conscience que le cerveau utilise tant de types différents de produits chimiques, en plus des neurotransmetteurs classiques, pour communiquer entre les neurones ne fut que la première étape d'un changement conceptuel majeur en neurosciences. Beaucoup de ces substances sont des neuropeptides, et la plupart d'entre eux affectent l'humeur et le comportement. La spécificité de leurs effets ne réside pas dans la connectivité anatomique entre les neurones, mais dans la distribution des récepteurs au sein du cerveau. Différents récepteurs ont des schémas de distribution très hétérogène, et ces distributions diffèrent entre les espèces d'une manière qui est en corrélation avec les différences de comportement.

Le simple fait d'un décalage récepteur-peptide dans une zone particulière du cerveau pourrait n'avoir aucune grande importance. Il se peut que de nombreuses cellules aient une promiscuité dans les récepteurs qu'elles expriment : si certains récepteurs ne voient aucun ligand, le coût pour les cellules est négligeable. L'expression excessive des récepteurs pourrait contribuer à l'évolutivité des systèmes neuronaux et pourrait être courante parce que les organismes ayant une attitude libérale envers l'expression des récepteurs sont les plus susceptibles d'acquérir de nouvelles fonctions. Parce que la signalisation extrasynaptique ne nécessite pas de connectivité point à point précise, elle est intrinsèquement "évolutive" : une mutation mineure dans la région régulatrice d'un gène de récepteur peptidique, en modifiant le schéma d'expression, pourrait avoir des conséquences fonctionnelles sans nécessiter de recâblage anatomique. .

Le fait que les récepteurs peptidiques aient des modèles d'expression distinctifs et que les peptides produisent des effets comportementaux cohérents lorsqu'ils sont administrés assez grossièrement dans le cerveau suggère que la transmission de volume est utilisée comme mécanisme de signalisation par de nombreuses populations différentes de neurones peptidergiques. Il faut donc considérer les neuropeptides comme des "hormones du cerveau".

Auteur: Leng Gareth

Info: Le cœur du cerveau : l'hypothalamus et ses hormones

[ polypeptides ] [ neuromodulateurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Une IA envoie 5 champions de Poker au tapis en même temps

Pluribus, c'est son nom, a réussi pour la première fois à battre 5 joueurs à la fois au Texas Hold'em no limit. Développé par Facebook et l'Université de Carnegie-Mellon à Pittsburgh en Pennsylvanie, cette IA réalise pour la première fois ce qu'aucune autre n'avait accompli jusqu'ici.

En 1997, et pour la toute première fois, une IA battait un champion du monde d'échecs... Depuis de l'eau a coulé sous les ponts puisqu'une IA a récemment réussi à vaincre cinq adversaires au Poker Texas Hold'em, faisant ainsi d'elle la première IA victorieuse dans un jeu multijoueurs.

Une configuration plutôt modeste
L'IA Pluribus s'est "formé" une stratégie globale en 8 jours de calcul sur un serveur doté de 64 cœurs et aura nécessité moins de 512 Go de RAM. C'est donc assez peu par rapport aux autres IAs déployées ces dernières années pour battre des humains au jeux.

Là où Pluribus fait encore plus fort, c'est que celle-ci ne s'est pas entraînée contre un humain, mais simplement contre elle-même, encore et encore jusqu'à atteindre son meilleur niveau.

Une manière de jouer très personnelle
Seule, pendant une semaine, l'IA à pratiqué ce que ses programmeurs ont appelé le Monte Carlo counterfactual regret minimization. Le principe du Monte Carlo repose sur le fait de réfléchir toujours selon trois possibilités et de construire trois schémas des jeux possibles en prévision des coups à venir, un peu comme un arbre. Regret minimization, quant à lui, est le fait de prédire ce qui peut être joué et de mettre en place celui qui créera le moins de regrets une fois la décision prise.

L'IA a donc montré sa supériorité en évitant les erreurs que pourraient faire d'autres systèmes de ce type, car en un contre un, il est facile de connaître la main de l'adversaire, mais cela se complique lorsque quatre autres personnes sont à prendre en compte.

La plupart des IA sont ainsi battues en répétant finalement une habitude que l'adversaire humain pourrait repérer et mettre à son avantage. De la même façon, Pluribus est capable de changer de tactique en moins d'une minute, passant de la relance au bluff, la rendant ainsi inlisible et imprévisible. C'est donc encore une victoire pour l'IA, reste à savoir quel sera le prochain défi que les chercheurs parviendront à lui faire relever.

Auteur: Internet

Info: https://www.clubic.com. Laura Léger, contributrice, 15 juillet 2019

[ informatique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

biophysique

Brian David Josephson est un physicien théoricien qui a reçu le prix Nobel pour ses travaux sur l'effet tunnel quantique et le développement du circuit supraconducteur portant son nom : the Josephson Junction , qui a permis le développement de dispositifs quantiques tels que les dispositifs d'interférence quantique supraconducteurs et les supercalculateurs. 

Dans sa publication avec Fotini Pallikari-Viras " Utilisation biologique de la non-localité quantique ", il explique comment le système biologique pourrait disposer d'une plus grande connaissance discriminante des types de distributions de probabilités dans l'espace de phase des états naturels que celle que les scientifiques peuvent obtenir par des mesures quantiques. Grâce à ce degré de discrimination plus élevé, les processus d'évolution et de développement caractéristiques des biosystèmes peuvent, dans des conditions initiales appropriées, conduire à des distributions de probabilités ciblées qui permettent d'utiliser la connectivité non locale entre des systèmes séparés dans l'espace, dont on sait qu'elle existe grâce aux inégalités de Bell, c'est-à-dire l'intrication quantique. 

En d'autres termes, les critères selon lesquels les physiciens évaluent la possibilité d'une signalisation non locale et d'états quantiques dans le système biologique peuvent être fondés sur une présupposition erronée de la nature du hasard et de la moyenne statistique qui nierait conventionnellement la possibilité de tels processus d'information quantique non triviaux au sein du système biologique, mais qui néglige en fait la connaissance discriminante dont dispose le système biologique et qui lui permet de considérer de nombreux schémas de la nature comme non aléatoires. 

"La perception de la réalité par les biosystèmes est basée sur des principes différents, et à certains égards plus efficaces, que ceux utilisés par les procédures plus formelles de la science. Par conséquent, ce qui apparaît comme un modèle aléatoire pour la méthode scientifique peut être un modèle significatif pour un organisme vivant. L'existence de cette perception complémentaire de la réalité permet en principe aux organismes d'utiliser efficacement les interconnexions directes entre des objets séparés dans l'espace, dont l'existence a été démontrée dans les travaux de J. S. Bell"*.

(Post Remarque d'un suiveur)

Merci. Dans l'ouvrage de Robert Lanza intitulé Biocentrism. Bruce Lipton considère qu'il existe de nombreuses similitudes entre les cellules humaines et végétales. 

Récemment, il y a plusieurs années, une étude quantique a été réalisée sur la photosynthèse.  Les chercheurs ont rapporté que les photons dirigés par le soleil s'approchaient d'une feuille de plante dans une position supra-statique, puis se localisaient après avoir traversé la paroi de la feuille. Ils ont estimé que le photon donnait des instructions à l'ADN de la plante quant au processus et à l'utilisation de la photosynthèse, en créant des glucides pour l'alimentation.

Auteur: Haramein Nassim

Info: Sur son fil FB, mars 2023. *Brian D. Josephson & Fotini Pallikari-Viras. Biological utilization of quantum nonlocality, Foundations of Physics volume 21, pages 197-207 (1991).

[ épigénétique ] [ transcendance ]

 

Commentaires: 0

Ajouté à la BD par miguel

religion musulmane

La mise en place des corpus scripturaires islamiques - Coran et Hadîth - fut donc une opération complexe et progressive. Son histoire et celle de ses scribes restent encore entourées d'incertitudes dues au caractère disparate des informations qui nous en sont parvenues dans des ouvrages généralement tardifs, où le mode de transmission des informations est souvent aléatoire et les contradictions souvent surprenantes. Il faut cependant savoir gré aux auteurs de ces ouvrages, souvent habiles dans l'art du sous-entendu, de n'avoir pas lésiné sur les versions différentes d'une même histoire, sur les points de vue contrastés concernant les mêmes faits et sur les jugements contradictoires relativement aux acteurs des mêmes opérations.

Cependant, la vision globale qui était la leur se trouvait généralement commandée par des schémas déjà bien établis de leur temps : celui d'un Coran transmis directement du ciel au prophète durant la période relativement courte de sa carrière, et celui de traditions dont on affirmait qu'elles reproduisaient "les paroles mêmes" du prophète, ses ipsissima verba, en remontant les chaînes de transmetteurs identifiés et authentifiés. Il n'empêche que, par le jeu même de leur mode de transmission, et par le fait que les écritures islamiques se sont mises en place dans une atmosphère de conflits entre des courants politiques antagonistes, les compilateurs nous ont souvent livré, à travers leurs "Un tel a dit", leurs propres interrogations sur des réalités qui allaient très souvent à rencontre des schémas théoriques simplificateurs qu'ils avaient en tête, ou qu'ils affichaient dans leurs écrits. C'est dire que les fondations scripturaires de l'islam ne sont pas à considérer indépendamment de l'ensemble des conditions générales qui ont présidé à leur élaboration au cours des deux premiers siècles de l'hégire [7 e -8 e s. de notre ère]. Les conditions internes de la première umnia, avant, au cours ou après les premières conquêtes, ne peuvent être isolées du contexte général d'un Proche-Orient terre de conquête d'une part, et déjà bien fourni en écritures religieuses d'autre part. Cela se voit à travers les textes islamiques et leur contenu dès les débuts de leur élaboration ; cela se voit à travers les hommes qui nous en sont présentés comme les acteurs principaux du vivant de Muhammad et sous les règnes de ses successeurs tout au long du 7 e siècle.

Cela ne signifie pas que les Écritures islamiques soient en tout point un simple remake de versions scripturaires antérieures, même en ce qui concerne les Traditions Israélites dont le Coran et le Hadith sont pourtant truffés. Les musulmans ont retaillé ces traditions antérieures à la mesure de ce qu'ils ont choisi comme étant leur monothéisme propre, le mode d'affirmation de leur umma et l'expression de ce qu'ils considéraient comme leur suprématie politique et religieuse sur toutes les autres communautés.

Auteur: Prémare Alfred-Louis de

Info: Les fondations de l'islam : Entre écriture et histoire, pp. 338-339

[ sources ] [ origines ]

 

Commentaires: 0

Ajouté à la BD par miguel

polyglottes

Comment le cerveau des bilingues bascule d'une langue à une autre. Une nouvelle étude scientifique met en évidence la facilité déconcertante avec laquelle ce processus s'opère.

Le bilinguisme, soit l'utilisation régulière, au quotidien, de deux langues, n'est pas un phénomène marginal dans le monde. Même si les estimations varient, plusieurs sources démontrent que près de la moitié de la population mondiale serait bilingue. Cette compétence, qui offre selon certains scientifiques un avantage cognitif, a été étudiée dernièrement par Sarah Frances Phillips, linguiste et étudiante diplômée à l'université de New York, et sa conseillère Liina Pylkkänen. Elles se sont plus spécifiquement intéressées au cerveau des personnes bilingues pour comprendre les mécanismes qui s'opéraient lorsqu'elles passaient d'une langue à une autre. 

L'étude met en évidence à quel point le changement de langue, aussi appelé "commutation de code", est normal et naturel pour le cerveau des multilingues. L'organe ne fait face à aucune difficulté et utilise les mêmes schémas neurologiques que le cerveau des personnes monolingues.

Sarah Frances Phillips, qui a elle-même grandi dans une famille bilingue, détaille son travail. Elle explique que le bilinguisme n'est bien compris "ni d'un point de vue linguistique, ni d'un point de vue neurobiologique". Un champ libre s'ouvrait donc à elle. Pour mener son étude, elle a recueilli les données d'une vingtaine de participants bilingues anglais-coréen. Tous étaient capables de lire, écrire, parler et écouter les deux langues.

Plus de 700 essais ont été réalisés afin d'observer les changements qui s'opèrent dans le cerveau. La technique appelée magnétoencéphalographie (MEG) a été utilisée pour suivre l'activité cérébrale. "Nous avons présenté aux participants un sujet et un verbe intransitif", explique la linguiste. Des mots comme "glaçons" et "fondre" ont par exemple été proposés, puis "glaçons" et "sauter". 

Dans le premier cas, les cerveaux des monolingues et des bilingues entraient en forte activité (dans le lobe temporal antérieur gauche). Mais lorsque les mots n'avaient pas de lien, ce pic n'était pas observé. "Nous avons trouvé cela à la fois dans le changement de langue [entre l'anglais et le coréen] et dans l'orthographe [avec des caractères romains et coréens]. Nous manipulons donc le langage, mais aussi la représentation de ces mots", commente Sarah Frances Phillips. 

Le fait que le lobe temporal antérieur gauche soit capable de combiner ces concepts de manière significative sans ralentir, sans être affecté par l'origine des concepts ou la façon dont ils nous sont présentés, nous dit que notre cerveau est capable de faire ce genre de processus naturellement, détaille la linguiste.

"En bref le changement de code est très naturel pour les personnes bilingues", conclut-elle. Seule ombre au tableau pour les bilingues: lorsqu'ils doivent se contenter d'utiliser une seule langue, leur cerveau doit fournir davantage d'effort pour supprimer l'autre langue de sa base de données.

Auteur: Internet

Info: Scientific American, 3 décembre 2021 à 6h30, via Slate.fr

[ diglossie ] [ transposition ] [ traduction ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

résumé de livre

À force d’entendre les têtes plates citer en toute occasion Le Choc des civilisations de Samuel P. Huntington, j’ai voulu me faire une idée. À mesure que je progressais dans les chapitres, je me suis rendu compte que lesdites têtes plates n'avaient jamais ouvert leur bréviaire. Sans se soucier le moins du monde de son contenu, elles pensent tenir là, dans ces pages émaillées de schémas et de courbes, une sorte de rapport dans lequel un expert visionnaire fournit la preuve scientifique du péril que l’islam représente pour la civilisation occidentale. Fussent-elles allées dans leur lecture au-delà du titre, elles eussent déchanté. Le Choc des civilisations n’a rien d’un livre apocalyptique ni même d’un traité belliciste néoconservateur. Huntington entend simplement démontrer que la mondialisation du modèle techno-scientifique et consumériste occidental n’ayant pas abouti à l’homogénéisation des cultures, ni à un consensus sur la démocratie libérale, elle risque d’entraîner le réveil d'identités culturelles, et, très probablement, leurs affrontements.

Contrastant avec la brutalité marketing du titre — choisi pour trancher avec le livre de Francis Fukuyama, paru en 1992, La Fin de l’Histoire — le texte reste très prudent, son vocabulaire très politiquement correct. Huntington use du mot "conflit" plutôt que du mot "guerre", écrit "influence" au lieu de "domination", ne parle pas de terrorisme. Quant à l’islam — et à sa "résurgence" —, il ne lui consacre qu’une cinquantaine de pages dans un volume qui en contient cinq cents.

Concernant l’avenir du monde, rien n’y est affirmé, tout y est conjecturé. Le livre date de 1996. Sous un ton docte, Huntington ne fait qu’exprimer le désarroi dans lequel se trouvent, à cette époque, les "stratèges" du gouvernement des Etats-Unis. Avant la chute du Mur de Berlin, deux mondes s’affrontaient : le monde dit libre et le monde dit totalitaire. Le bloc soviétique effondré, comment la civilisation suprême redessinerait-elle la carte du monde — autrement dit, quelle place donnerait-elle ou confisquerait-elle aux Européens, aux Asiatiques, aux Africains, aux Russes, aux Arabes, aux Latino-Américains, bref, aux non-étasuniens? Telle est, n’en déplaise aux têtes plates, la seule interrogation de Huntington, interrogation qui lui permet d’avancer la thèse selon laquelle, désormais, les nations ne s’entrechoqueront plus à cause de rivalités économiques ou territoriales mais à cause de différences culturelles — ou, inversement, les nations ne se regrouperont et ne s’allieront plus contre d’autres selon des convergences stratégiques mais par affinités de mœurs et de cultes. Quand on voit les rivalités intracontinentales des pays européens, africains, latino-américains, asiatiques, rien ne semble plus fantasque que la thèse de Huntington. Que dire des nations du "monde musulman" où, plus que partout ailleurs, l’inimitié fait rage — entre sunnites et chiites, entre kurdes et turcs, entre perses et arabes, etc. — les unes et les autres soutenues par des États occidentaux et "chrétiens" eux-mêmes rivaux. Qui peut croire que c’est en raison de proximités culturelles et cultuelles que les États-Unis et Israël sont les alliés de l’Arabie saoudite, du Pakistan et de l’Égypte, la Russie l’amie de l’Iran, de la Syrie et à présent de la Turquie?

Avant de lire Huntington, je m’attendais à tomber sur un disciple de Carl Schmitt qui reprendrait la dualité ami/ennemi, or j'ai eu affaire à un sage rejeton de Kant défendant l’idée que toutes les cultures et toutes les religions — y compris, bien sûr, les diverses obédiences mahométanes —, par-delà leurs différences, ont des "valeurs fondamentales communes" et que c’est en établissant à une échelle supranationale la "règle des points communs" que les dirigeants des pays œuvreront à une Civilisation universelle. Et, pour montrer qu'un tel idéal est possible, Huntington prône in fine comme modèle la cité moderne de… Singapour ! En lisant ce dernier chapitre, je ne doutai plus qu'il y avait tromperie sur la marchandise, qu'il eût été plus honnête de la part du bon professeur Huntington d'intituler son livre: Vers la paix entre les civilisations.

Auteur: Schiffter Frédéric

Info: Publication facebook, 05.10.2021

[ idéologies ] [ géopolitiques ] [ synthèse ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

sciences

Les ordinateurs peuvent-ils être créatifs? Le projet WHIM ("What-if Machine"), financé par l'UE, génère non seulement des scénarios fictifs mais évalue également leur potentiel attractif et d'utilisation. Il représente une avancée majeure dans le domaine de la créativité informatique. La science ignore bien souvent le monde du fantastique, mais les choses changent avec le projet WHIM qui porte bien son nom (en anglais, "whim" signifie fantaisie). Ce projet ambitieux élabore un système logiciel capable d'inventer et d'évaluer des idées imaginaires. "WHIM est un antidote à l'intelligence artificielle traditionnelle, qui est obsédée par la réalité", déclare Simon Colton, coordinateur du projet et professeur en créativité informatique au Goldsmiths College, à l'université de Londres. "Nous faisons partie des premiers à appliquer l'intelligence artificielle à la fiction". L'acronyme du projet signifie What-If Machine. C'est également le nom du premier logiciel de conception de fictions au monde, par un processus d'idéation (processus créatif de production, de développement et de communication de nouvelles idées) développé dans le cadre du projet. Le logiciel génère des mini-récits fictifs en utilisant des techniques de traitement du langage et une base de données des faits trouvés sur le web (qui sert de référentiel de faits "réels"). Le logiciel intervertit ou déforme ensuite les faits pour créer des scripts hypothétiques. Le résultat est souvent absurde: "Que se passerait-il si une femme se réveillait dans une allée après avoir été transformée en chat, mais tout en étant toujours capable de faire du vélo ?" Les ordinateurs peuvent-ils juger la créativité ? WHIM est bien plus qu'une simple machine génératrice d'idées. Le logiciel cherche également à évaluer le potentiel d'utilisation ou la qualité des idées générées. En effet, ces dernières sont destinées à un usage par le public, et les impressions du public ont été sondées avec des expériences participatives (crowdsourcing). Par exemple, les personnes interrogées ont fait part de leurs impressions générales, précisant également aux chercheurs du projet WHIM si les scripts imaginaires produits étaient, selon elles, innovants et avaient un bon potentiel narratif. Au moyen de techniques d'apprentissage automatique, conçues par des chercheurs de l'institut Jozef Stefan de Ljubljana, le système acquiert progressivement une compréhension plus précise des préférences du public. "On pourrait dire que la fiction est subjective, mais il existe des schémas communs", déclare le professeur Colton. "Si 99 % du public pense qu'un humoriste est amusant, alors nous pourrions dire que l'humoriste est amusant, au moins selon la perception de la majorité". Ce n'est que le début Générer des mini-récits fictifs ne constitue qu'un aspect du projet. Des chercheurs de l'Universidad Complutense Madrid transforment les mini-récits en scripts narratifs complets, qui pourraient mieux convenir pour l'intrigue d'un film par exemple. Parallèlement, des chercheurs de l'University College Dublin tentent d'entraîner les ordinateurs à produire des idées et paradoxes métaphoriques en inversant et opposant des stéréotypes trouvés sur le web, tandis que des chercheurs de l'Université de Cambridge explorent l'ensemble du web à des fins de création d'idées. Tous ces travaux devraient engendrer de meilleures idées imaginaires plus complètes. Plus qu'une simple fantaisie Bien que les idées imaginaires générées puissent être fantaisistes, WHIM s'appuie sur un processus scientifique solide. Il fait partie du domaine émergent de la créativité informatique, une matière interdisciplinaire fascinante située à l'intersection de l'intelligence artificielle, la psychologie cognitive, la philosophie et les arts. WHIM peut avoir des applications dans plusieurs domaines. Une des initiatives envisage de transformer les récits en jeux vidéo. Une autre initiative majeure implique la conception informatique d'une production de théâtre musicale: le scénario, le décor et la musique. Le processus complet est en cours de filmage pour un documentaire. WHIM pourrait également s'appliquer à des domaines non artistiques. Par exemple, il pourrait être utilisé par des modérateurs lors de conférences scientifiques pour sonder les participants en leur posant des questions destinées à explorer différentes hypothèses ou cas de figure. L'UE a accordé 1,7 million d'euros de financement au projet WHIM, actif d'octobre 2013 à septembre 2016.

Auteur: Internet

Info:

[ homme-machine ] [ informatique ] [ créativité ]

 

Commentaires: 0

exploration spatiale

Astrolinguistique : comment communiquer en cas de contact avec une civilisation extraterrestre ?
L’astrolinguistique, xénolinguistique, ou encore exolinguistique, est le domaine de recherche de la linguistique qui s’attèle à déterminer et développer des modèles de langages non-humains (extraterrestres) dans le cas où un premier contact avec une civilisation extraterrestre intelligente serait effectué. Un tel événement ne s’étant toujours pas produit, ce domaine reste encore hypothétique, mais donne lieu à un véritable travail de recherche universitaire de la part des scientifiques.

L’univers observable compte des centaines de millions de galaxies, chacune contenant à leur tour des centaines de millions d’étoiles et de planètes potentielles. L’existence de civilisations extraterrestres intelligentes n’est donc pas à exclure. Si aucun contact avec l’Homme ne s’est encore produit, la possibilité d’un tel événement est envisageable. Tant et si bien que les scientifiques commencent déjà à prévoir cette éventualité en tentant de développer des outils de communication.

Loin d’être de la science-fiction, l’astrolinguistique est une discipline universitaire qui s’est développée au cours des 30 dernières années. Certaines universités, comme la Bowling Green State University (États-Unis), l’ont même intégrée à leurs cours afin de former des chercheurs spécialisés dans ce domaine. La xénolinguistique est en réalité une sous-famille de la linguistique théorique dont l’objectif est la construction et la déconstruction de langages fictifs ou existants.

(Le langage des heptapodes utilisé dans le film Premier Contact a été développé par la linguiste Jessica Coon et le scientifique Stephen Wolfram. Il est considéré comme scientifiquement plausible par la communauté scientifique." photo de l'article original absente)

L’un des précurseurs du domaine est le célèbre linguiste américain Noam Chomsky. Pour ce dernier, la théorie de la grammaire universelle empêcherait l’Homme de comprendre naturellement une civilisation extraterrestre. Cette théorie postule que les bases élémentaires et communes de la grammaire humaine sont génétiquement prédéterminées, encodées dans le génome, indépendamment de la culture ou de l’environnement. L’Homme devrait donc difficilement et lentement déchiffrer chaque structure de ce nouveau langage.

Pour la linguiste canadienne Keren Rice, spécialisée dans les langages indigènes, une communication extrêmement basique entre humains et extraterrestres serait possible tant que les éléments contextuels primitifs restent les mêmes. Par exemple, même si les termes pour désigner une planète changent, il est fort probable qu’une civilisation extraterrestre connaisse l’objet lui-même, c’est-à-dire qu’elle ait déjà vu une planète.

L’astrolinguistique est plus largement intégrée au domaine de la Communication avec une intelligence extraterrestre (CETI) sur lequel se penchent de nombreux chercheurs et institutions scientifiques. La question fait régulièrement l’objet de discussions scientifiques lors de l’American Association for the Advancement of Science.

Généralement, quatre formes de langages possibles sont définis : le langage mathématique, le langage pictural, le langage algorithmique et multimodal, et le langage naturel. Les outils linguistiques développés dans le cadre de ces recherches s’appuient sur des études actuelles visant à décrypter des langages humains encore non déchiffrés, comme le Linéaire A, un langage utilisé en Crête ancienne entre 1900 et 1400 av. J.-C.

Le Lincos (pour lingua cosmica) est un des tous premiers langages mathématiques développé par le mathématicien allemand Hans Freudenthal au début des années 1960, dans son livre Lincos: Design of a Language for Cosmic Intercourse. Il utilise une structure mathématique basique pour transmettre des messages, destinée à être comprise par n’importe quelle civilisation intelligente. Par la suite, des scientifiques comme Lancelot Hogben et Carl Sagan proposeront eux aussi des syntaxes reposant sur des principes mathématiques.

Ce disque est embarqué par les sondes Voyager 1 et 2 afin de raconter l’histoire de la Terre. Elle contient un message de bienvenu en 60 langages différents, des échantillons de musiques de plusieurs styles et ethnies, des sons d’origine humaine ainsi que des schémas et informations électroniques compréhensibles par une civilisation avancée.

De la même manière, le message d’Arecibo contenait quelques structures atomiques, les briques de l’ADN, un schéma du Système solaire et un dessin du télescope Arecibo lui-même. Un hybride de langage mathématique et pictural, considéré comme scientifiquement réaliste, a été développé pour le film Premier Contact, sous la direction de la linguiste Jessica Coon.

Le langage multimodal combine plusieurs systèmes de communication afin de maximiser les chances de compréhension. Le Teen-Age Message développé par des scientifiques russes en est un bon exemple.

Ce dernier combine un signal radio destiné à permettre aux destinataires d’en remonter la source, une musique jouée sur un thérémine, ainsi qu’une association d’images semblables à celles du message d’Arecibo. Tandis que le langage algorithmique prend la forme d’un code informatique pouvant être exécuté sur n’importe quelle machine.

Enfin, le langage naturel renvoie au cas où une civilisation communiquerait, volontairement ou non, avec nous dans son langage natif. Dans ce cas, les scientifiques devraient déconstruire le langage en isolant des schémas répétitifs, des rythmes, des taux de répétition, des structures complexes et des propriétés linguistiques sous-jacentes renvoyant à un système de communication intelligent.

Auteur: Internet

Info: https://trustmyscience.com, Thomas Boisson 27 mars 2019

[ rencontre exotique ]

 

Commentaires: 0

Ajouté à la BD par miguel