Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 23
Temps de recherche: 0.0472s

métaphysique

Les idées très développées de Bohm sur la globalité sont les plus étonnantes de toutes. Parce que tout dans le cosmos est fait du tissu holographique sans couture de l'ordre implicite, il pense qu'il est aussi insensé de considérer l'univers comme composé de "parties" que de considérer les différents geysers d'une fontaine comme séparés de l'eau dont ils jaillissent. Un électron n'est pas une "particule élémentaire". "C'est juste un nom donné à un certain aspect de l'holomouvement. Diviser la réalité en parties et ensuite les nommer est toujours arbitraire, une convention, parce que les particules subatomiques, et tout le reste de l'univers, ne sont pas plus séparés les uns des autres que les différents motifs d'un tapis ouvragé. C'est une suggestion profonde. Dans sa théorie générale de la relativité, Einstein stupéfia le monde en affirmant que l'espace et le temps ne sont pas des entités distinctes, mais sont liés de manière fluide et font partie d'un ensemble plus vaste qu'il a appelé le continuum espace-temps. Bohm pousse cette idée un pas de géant plus loin. Il affirme que tout dans l'univers fait partie d'un continuum. Malgré l'apparente séparation des choses au plan analytique, tout est une extension sans faille de tout le reste, et en fin de compte, même les ordres implicite et explicite se fondent l'un dans l'autre. Prenez un moment pour considérer ceci. Regardez votre main. Maintenant, regardez la lumière qui s'écoule de la lampe à côté de vous. Et regardez le chien qui se repose à vos pieds. Vous n'êtes pas simplement faits des mêmes choses. Vous êtes la même chose. Une seule chose. Ininterrompue. Une chose énorme qui a déployé ses innombrables bras et appendices dans tous les objets apparents, atomes, océans agités et étoiles scintillantes du cosmos. Bohm prévient que cela ne signifie pas que l'univers soit une masse géante indifférenciée. Les choses peuvent faire partie d'un tout indivisible tout en possédant leurs propres qualités spécifiques. Pour illustrer ce qu'il veut dire, il évoque les petits tourbillons qui se forment souvent dans une rivière. À première vue, ces tourbillons semblent être des choses distinctes et possèdent de nombreuses caractéristiques individuelles telles que la taille, la vitesse et la direction de rotation, etc. Mais un examen attentif révèle qu'il est impossible de déterminer où un tourbillon donné se termine et où la rivière commence. Ainsi, Bohm ne suggère pas que les différences entre les "choses" soient dénuées de sens. Il veut simplement que nous soyons constamment conscients que la division des divers aspects de l'holo-mouvement en "parties" est toujours une abstraction, manière de faire ressortir ces aspects dans notre perception via nos manières de voir ou façons de penser. Pour tenter de corriger cela, au lieu d'appeler les différents aspects de l'holo mouvement "choses", il préfère les nommer "sous-totalités relativement indépendantes". 

En effet, Bohm pense que notre tendance quasi universelle à fragmenter le monde et à ignorer l'interconnexion dynamique de toutes les choses est responsable d'un grand nombre de nos problèmes, non seulement en science mais aussi dans nos vies et notre société. Par exemple, nous croyons que nous pouvons extraire les parties précieuses de la terre sans affecter l'ensemble. Nous croyons qu'il est possible de traiter certaines parties de notre corps sans se préoccuper de l'ensemble. Nous pensons qu'il est possible de traiter divers problèmes de nos communautés, tels que la criminalité, la pauvreté et la toxicomanie, sans se préoccuper des problèmes de notre société dans son ensemble, et ainsi de suite. Dans ses écrits, Bohm soutient avec passion que notre façon actuelle de fragmenter le monde en parties non seulement ne fonctionne pas, mais pourrait même conduire à notre extinction.

Auteur: Talbot Michael Coleman

Info: The Holographic Universe. L'intégralité indivise de toutes les choses

[ source indiscriminée ]

 

Commentaires: 0

Ajouté à la BD par miguel

​​​​​​​signes contextualisés

Cette énigme, ce nœud gordien de la "réalité extérieure", avec lequel la modernité avait paralysé les philosophes, est précisément ce que Sebeok a tranché. Confronté au dilemme de l'implication moderne d'un labyrinthe du fonctionnement de l'esprit, il a trouvé la sortie :

Que faut-il faire de tout cela ? Il me semble que, tout au moins pour nous, travailleurs dans un contexte zoosémiotique, il n'y a qu'une seule façon de se frayer un chemin dans ce bourbier, et c'est d'adhérer strictement aux thèses globales de Jakob von Uexküll sur les signes. (Sebeok, 2001, pp. 78 & 193n6) 

Bien sûr, Sebeok évoque ici l'Umweltstheorie, rien de moins, pour laquelle rien n'est plus central que la distinction que fait Sebeok lui-même entre le langage au sens premier (cet aspect du système de modélisation humain ou Innenwelt qui est sous-déterminé biologiquement et, en tant que tel, spécifique à notre espèce) et l'exaptation du langage pour communiquer (ce qui aboutit à la communication linguistique en tant que, encore une fois, moyen spécifique à l'espèce humaine).

L'erreur des relativistes culturels de tout poil, et des modernes en général, du point de vue de Sebeok, a été de traiter le langage comme un système autonome englobant tout, au lieu de réaliser son contexte zoosémiotique (Deely, 1980). Dans ce contexte, "l'unicité de l'homme" n'apparaît que dans la mesure où elle est soutenue par et dépend des points communs de signification qui définissent et constituent le domaine plus large des choses vivantes au sein duquel se trouve le langage, champ bien plus vaste au sein duquel les humains sont nécessairement incorporés et liés par x milliard de connexions que la compréhension même de la vie humaine doit finalement conduire vers une certaine incorporation consciente. En d'autres termes, la dernière contribution de Sebeok, venant de l'intérieur de la modernité, aura été de réaliser qu'il existait une voie au-delà de la modernité, la voie des signes. La question, sous cette forme, ne l'a jamais intéressé, mais dans le sillage de son œuvre, elle mérite d'être posée : que devrait être la postmodernité ? 

Il ne pouvait s'agir que d'une vision du monde qui parviendrait, d'une manière ou d'une autre, à rétablir ce qui est extérieur à nous-mêmes comme étant connaissable en tant que tel ou en tant que tel, sans renoncer à la prise de conscience moderne selon laquelle une grande partie, sinon la majorité, de ce que nous connaissons directement se réduit à nos propres coutumes et conventions selon lesquelles les objets sont structurés et les déductions faites. Sebeok a peut-être été tout à fait moderne. Mais personne n'a fait plus que lui pour s'assurer que l'ère moderne, du moins dans la culture intellectuelle et dans la philosophie dont il n'a jamais prétendu assumer le flambeau, était terminée. Sebeok est devenu, malgré lui, postmoderne jusqu'au bout des ongles. 

Je dis "malgré lui", car je sais qu'il avait une aversion pour l'appellation "postmoderne", pour une très bonne raison. La plus grande partie de la vie professionnelle de Sebeok avait été consacrée à exposer et à surmonter ce qu'on a appelé le "pars pro toto fallacy"*, selon lequel la doctrine du signe trouve son fondement adéquat dans un paradigme linguistique, pour ne pas dire verbal. Telle était la thèse, bien connue à la fin du vingtième siècle, de la proposition de "sémiologie" de Saussure. 

Par contraste, Sebeok a promu dès le début que la doctrine des signes doit être enracinée directement dans une étude générale de l'action des signes, de la manière distinctive dont les signes fonctionnent, action pour laquelle il a accepté de Peirce le nom de "sémiose". Mais si la doctrine des signes concerne avant tout l'action révélatrice de l'être distinctif des signes, alors la proposition adéquate pour son développement n'est pas le terme "sémiologie" mais plutôt le terme "sémiotique", qui exprime l'idéal d'un paradigme non lié au langage et se réfère à l'action des signes comme étant plus grande que, englobante, et en fait présupposée à toute action des signes comme étant de nature verbale. "La sémiose, a très tôt déclaré Sebeok, est un fait omniprésent de la nature comme de la culture" (1977a, p. 183).  

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Erreur consistant à confondre une partie d'un objet avec le concept qui représente son intégralité. Trad Mg

[ réagencement permanent ] [ hyper-complexité ] [ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel