Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 306
Temps de recherche: 0.047s

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel

analyse holistique

Un type de raisonnement que l'AI ne peut remplacer

L'ingénieur en logiciel et philosophe William J. Littlefield II fait remarquer dans un essai récent qu'il existe trois types de raisonnement. Dont deux d'entre eux que nous avons probablement tous appris à l'école : le raisonnement déductif et inductif. Les ordinateurs peuvent très bien faire les deux.

Le raisonnement déductif : Les chiens sont des chiens. Tuffy est un chien. Tuffy est donc un chien.

Les premiers ordinateurs, dit Littlefield, utilisaient généralement le raisonnement déductif (qu'il considère comme un raisonnement "descendant"). Ce qui permet à de puissants ordinateurs de battre les humains à des jeux comme les échecs et le Go en calculant beaucoup plus de mouvements logiques à la fois qu'un humain ne peut le faire.

Le raisonnement inductif, en revanche, est un raisonnement "ascendant", qui va d'une série de faits pertinents à une conclusion, par exemple :

Un club a organisé 60 compétitions de natation, 20 dans chaque lieu ci-dessous :

Lorsque le Club organise des compétitions de natation à Sandy Point, nous obtenons en moyenne 80 % de votes d'approbation.

Lorsque le Club organise des compétitions de natation à Stony Point, nous obtenons en moyenne 60 % des suffrages.

Lorsque le Club organise des compétitions de natation à Rocky Point, nous obtenons une approbation moyenne de 40 %.

Conclusion : Les membres du club préfèrent les plages de sable fin aux autres types de plages.

Ici aussi l'avènement de nouvelles méthodes comme les réseaux neuronaux a permis à de puissants ordinateurs d'assembler une grande quantité d'information afin de permettre un tel raisonnement inductif (Big Data).

Cependant, le Flop IBM de Watson en médecine (supposée aider à soigner le cancer on vit l'AI incapable de discerner les infos pertinentes dans une grande masse de données) suggère que dans les situations où - contrairement aux échecs - il n'y a pas vraiment de "règles", les machines ont beaucoup de difficulté à décider quelles données choisir. Peut-être qu'un jour une encore plus grande masse de données résoudra ce problème. Nous verrons bien.

Mais, selon Littlefield, le troisième type de raisonnement, le raisonnement abductif, fonctionne un peu différemment :

"Contrairement à l'induction ou à la déduction, où nous commençons par des cas pour tirer des conclusions sur une règle, ou vice versa, avec l'abduction, nous générons une hypothèse pour expliquer la relation entre une situation et une règle. De façon plus concise, dans le raisonnement abductif, nous faisons une supposition éclairée." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

Le raisonnement abductif, décrit à l'origine par un philosophe américain Charles Sanders Peirce (1839-1914), est parfois appelé "inférence vers la meilleure explication", comme dans l'exemple qui suit :

"Un matin, vous entrez dans la cuisine et trouvez une assiette et une tasse sur la table, avec de la chapelure et une noix de beurre dessus, le tout accompagné d'un pot de confiture, un paquet de sucre et un carton vide de lait. Vous en concluez que l'un de vos colocataires s'est levé la nuit pour se préparer une collation de minuit et qu'il était trop fatigué pour débarrasser la table. C'est ce qui, à votre avis, explique le mieux la scène à laquelle vous êtes confronté. Certes, il se peut que quelqu'un ait cambriolé la maison et ait pris le temps de manger un morceau pendant sur le tas, ou qu'un colocataire ait arrangé les choses sur la table sans prendre de collation de minuit, mais juste pour vous faire croire que quelqu'un a pris une collation de minuit. Mais ces hypothèses vous semblent présenter des explications beaucoup plus fantaisistes des données que celle à laquelle vous faites référence." Igor Douven, "Abduction" à l'Encyclopédie Stanford de Philosophie

Notez que la conclusion n'est pas une déduction stricte qu'il n'y a pas non plus suffisamment de preuves pour une induction. Nous choisissons simplement l'explication la plus simple qui tient compte de tous les faits, en gardant à l'esprit la possibilité que de nouvelles preuves nous obligent à reconsidérer notre opinion.

Pourquoi les ordinateurs ne peuvent-ils pas faire ça ? Littlefield dit qu'ils resteraient coincés dans une boucle sans fin :

Une part de ce qui rend l'enlèvement difficile, c'est que nous devons déduire certaines hypothèses probables à partir d'un ensemble vraiment infini d'explications....

"La raison pour laquelle c'est important, c'est que lorsque nous sommes confrontés à des problèmes complexes, une partie de la façon dont nous les résolvons consiste à bricoler. Nous jouons en essayant plusieurs approches, en gardant notre propre système de valeurs fluide pendant que nous cherchons des solutions potentielles. Plus précisément, nous générons des hypothèses. Où 'un ordinateur peut être coincé dans une boucle sans fin, itérant sur des explications infinies, nous utilisons nos systèmes de valeurs pour déduire rapidement quelles explications sont à la fois valables et probables. Peirce savait que le raisonnement abductif était au cœur de la façon dont nous nous attaquons à de nouveaux problèmes ; il pensait en particulier que c'était la façon dont les scientifiques découvrent les choses. Ils observent des phénomènes inattendus et génèrent des hypothèses qui expliquent pourquoi ils se produisent." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

En d'autres termes, le raisonnement abductif n'est pas à proprement parler une forme de calcul, mais plutôt une supposition éclairée - une évaluation des probabilités fondée sur l'expérience. Il joue un rôle important dans la création d'hypothèses dans les sciences :

"Par exemple, un élève peut avoir remarqué que le pain semble se moisir plus rapidement dans la boîte à pain que dans le réfrigérateur. Le raisonnement abductif amène le jeune chercheur à supposer que la température détermine le taux de croissance des moisissures, comme l'hypothèse qui correspondrait le mieux aux données probantes, si elle est vraie.
Ce processus de raisonnement abductif est vrai qu'il s'agisse d'une expérience scolaire ou d'une thèse de troisième cycle sur l'astrophysique avancée. La pensée abductive permet aux chercheurs de maximiser leur temps et leurs ressources en se concentrant sur une ligne d'expérimentation réaliste.
L'enlèvement est considéré comme le point de départ du processus de recherche, donnant une explication rationnelle, permettant au raisonnement déductif de dicter le plan expérimental exact." Maryn Shuttleworth, "Abductive Reasining" Chez Explorable.com

Comme on peut le voir, le raisonnement abductif fait appel à une certaine créativité parce que l'hypothèse suggérée doit être développée comme une idée et non seulement additionnée à partir d'informations existantes. Et la créativité n'est pas quelque chose que les ordinateurs font vraiment.

C'est l'une des raisons invoquées par le philosophe Jay Richards dans The Human Advantage : L'avenir du travail américain à l'ère des machines intelligentes, comme quoi l'IA ne mettra pas la plupart des humains au chômage. Au contraire, elle changera la nature des emplois, généralement en récompensant la créativité, la flexibilité et une variété d'autres caractéristiques qui ne peuvent être calculées ou automatisées.

Auteur: Internet

Info: https://mindmatters.ai/2019/10/a-type-of-reasoning-ai-cant-replace/, 10 Oct. 2019

[ optimisme ] [ informatique ]

 
Commentaires: 3
Ajouté à la BD par miguel

syntaxe diachronique

Le premier département de la logique, la grammaire spéculative, est une analyse de la structure des signes : avant même qu’un argument soit analysé en termes de validité et d’utilité, il est nécessaire qu’il soit soumis à une analyse grammaticale. Un argument consiste dans la représentation du fait qu’une proposition découle d’autres propositions, et cette représentation peut être représentée dans une proposition ("si les prémisses, alors la conclusion"). L’analyse de la nature de la proposition est donc préliminaire à l’analyse de la nature, de la validité et de l’utilité de l’argument. La première branche de la logique devra donc avant tout consister en une analyse de la proposition. L’essai "L’essence du raisonnement", chapitre VI du traité sur la logique "How to Reason", qui fut projeté mais jamais achevé, contient la présentation la plus complète de la section grammaticale de la logique que Peirce a écrite avant le Syllabus de 1903. Il existe deux versions de ce chapitre (MS 408 et MS 409). Le point de départ est l’enquête sur la nature de la proposition : 

"§ 62. Examinons maintenant en quoi consiste l’élément assertorique d’un jugement. Qu’y a-t-il dans une affirmation qui en fait plus qu’une simple complication d’idées ? Quelle est la différence entre émettre le mot "singe parlant", soutenir que les singes parlent, et s’informer si les singes parlent ou non ? C’est une question difficile. (MS 409, p. 94)"

La différence à laquelle Peirce fait allusion est évidemment celle, traditionnelle, entre termes, propositions et arguments. Traditionnellement, une proposition est conçue comme une combinaison de termes, et un argument comme une combinaison de propositions. Toutefois, selon Peirce, ce n’est pas la compositionnalité qui distingue ces trois formes ; le terme "singe parlant" n’est pas moins composé que la proposition selon laquelle les singes parlent. La différence entre un terme et une proposition, écrira Peirce dans les "Prolégomènes à une apologie du pragmatisme" de 1906, se trouve dans la fonction logique accomplie.

Selon l’analyse traditionnelle, une proposition est une connexion de termes au moyen d’une copule. Selon Peirce, cette analyse est viciée par l’hypothèse de l’universalité de la structure syntaxique des langues indo-européennes. Sur la base des Principes généraux de la structure des langues de James Byrne mentionnés à plusieurs reprises dans "L’essence du raisonnement", Peirce traite de la structure syntaxique du signe propositionnel dans différentes langues naturelles, dans le but de montrer que l’analyse traditionnelle non seulement ne reflète qu’un petit pourcentage des langues existantes (celles indo-européennes), mais en outre ne reflète pas la structure logique fondamentale du signe propositionnel. Par exemple, dans de nombreuses langues non indo-européennes, la fonction de la copule est accomplie par d’autres éléments linguistiques, parfois par la simple juxtaposition des éléments.

Dans l’ancienne langue égyptienne, qui semble être à portée d’oreille de l’origine de la parole, l’expression la plus explicite d’une copule se fait au moyen d’un mot qui est réellement le pronom relatif, [qui]. Or, à celui qui considère une phrase du point de vue indo-européen, c’est un casse-tête de comprendre comment "que" peut remplir cet office à la place du "est". Pourtant rien n’est plus naturel. Le fait que les hiéroglyphes viennent si facilement aux Égyptiens montre combien leur pensée est picturale. Quand l’Égyptien dessine une image hiéroglyphique comme celle-ci (fig 1) l’Aryen peut être perplexe pour savoir ce qu’il veut dire, mais à l’Égyptien il indique clairement "Ce à propos de quoi nous écrivons est un soldat", et quand il fait l’image (fig 2) le sens est "Ce à propos de quoi nous écrivons est abattu". Écrivez cela avec [pu] (fig 3) "que" entre eux, et mettez un nom propre, disons Aahmes, devant eux, et nous avons "Aahmes sur quoi nous écrivons est un soldat dont ce que nous écrivons à propos est abattu", c’est-à-dire Aahmes le soldat est renversé. Êtes-vous tout compte fait absolument sûr que ce n’est pas le moyen le plus efficace d’analyser le sens d’une proposition ? (MS 409, p. 139)

Le hiéroglyphe (fig1) ne correspond pas au nom commun "soldat", mais à ce que Peirce appelle un rhème "est un soldat" ; de même, le hiéroglyphe (fig 2) correspond non pas au prédicat "abattu" mais au rhème "est abattu". Mais qu’est-ce qu’un rhème ? Un rhème, explique Peirce, est ce qui reste quand tous les éléments d’une proposition qui peuvent jouer le rôle de sujet ont été soustraits. La structure d’un rhème est constituée du nombre de places sujets qu’il manifeste : si on soustrait le sujet Aahmes de la proposition "Aahmes est un soldat", ce qui reste ("est un soldat") est un rhème.

La similitude étroite entre la notion peircienne de rhème et ce que Frege a appelé un concept (fonction insaturée) et Russell une fonction propositionnelle a été remarquée depuis longtemps, et il n’est pas besoin d’y insister ici . Peirce rappelle que les grammaires insistent à tort sur le sujet nominatif, alors que du point de vue d’une grammaire universelle ou spéculative le sujet nominatif n’a pas plus de droit à être considéré comme sujet à part entière de la proposition que les objets directs ou indirects. Tant et si bien que, comme Peirce le rappelle toujours sur la base des Principes de Byrne, dans les langues inuites et samoyèdes le sujet d’un verbe transitif se met au cas possessif, tandis que dans les langues malaises et dans la langue basque on utilise l’ablatif. L’accent mis sur le sujet nominatif est, encore une fois, un préjugé grammatical indo-européen, et la logique doit être en mesure de faire sans lui.

Il est important de souligner que le concept de rhème montre que la copule est un élément dont on peut se dispenser dans la syntaxe. Dans l’ancienne langue égyptienne que Peirce utilise à titre d’exemple, le pronom [pu] peut servir de copule. C’est possible, selon Peirce, parce que dans cette langue les éléments dont une proposition se compose sont des rhemata, c’est-à-dire des prédicats insaturés (incomplets) qui sont saturés grâce à l’identification des positions-sujet que chacun d’eux manifeste dans sa propre structure. Si nous pensons au terme comme à un élément saturé ("soldat", "abattu"), le seul moyen de parvenir à une proposition à partir de ces termes se fait au moyen d’une copule ; mais si nous pensons au terme comme à un élément insaturé ("est un soldat", "est abattu"), le seul moyen d’obtenir une proposition est par la saturation, autrement dit en identifiant les positions-sujet indéterminées : "quelque chose est un soldat, lequel est abattu".

Le "nom commun" des grammairiens est un élément inessentiel de l’analyse logique. Dans de nombreuses langues historico-naturelles, il n’y a pas de noms communs, mais seulement des verbes :

Il semble que, en un sens large, les mots ordinaires dans la majeure partie des langues sont assertoriques. Ils affirment dès qu’ils sont de quelque façon liés à un objet. Si vous écrivez VERRE sur une boîte, on comprendra que vous voulez dire que la boîte contient du verre. Cela semble certainement la déclaration la plus vraie pour la plupart des langues de dire qu’un symbole* est un signe conventionnel qui, étant attaché à un objet, signifie que cet objet a certains caractères (MS 409, p. 95).

Auteur: Bellucci Francesco

Info: In "Peirce, philosophe du langage" Dans Cahiers philosophiques 2017/3 (N° 150), pp 91 à 110

[ fonction motrice ] [ syntagmes ] [ rationalisme onomasiologique ] [ méta-sémantique ] [ vocables ] [ mots-objets ] [ idéogrammes ] [ pictogrammes ]

 

Commentaires: 0

Ajouté à la BD par miguel

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

éloge de l'indiscipline

La question de la désobéissance est au cœur de l’attentat contre le Bataclan. La tuerie a été stoppée par un commissaire de la brigade anticriminalité (BAC) qui a enfreint les consignes. À l’inverse, huit soldats de la force Sentinelle y assistaient les bras ballants, comme on le leur avait ordonné. Ces sujets très sensibles sont abordés dans le documentaire Les Ombres du Bataclan, de Francis Gillery (en ligne sur arte.tv), et dans le livre Le Procès, de Georges Fenech (Éditions du Rocher), d’après les rapports de la commission d’enquête parlementaire.

Quatre-vingt-dix morts, c’est déjà suffisamment monstrueux. Mais le bilan aurait été bien plus lourd sans l’action d’un homme qui a enfreint le protocole. Cet homme, appelons-le commis­saire X, vu qu’il a toujours tenu à garder l’anonymat. En novembre 2015, il fait partie de la brigade anticriminalité (BAC), et patrouille dans le 17e arrondissement de Paris lorsqu’il apprend, par sa radio de bord, l’attentat au Stade de France. Ni une ni deux, il décide de s’y rendre. Il est alors 21 h 25. Quelques minutes plus tard, ce sont les tirs sur les terrasses dans le 11e. Aussitôt, changement de direction. Puis c’est le Bataclan : le commissaire X y parvient à 21 h 54. Devant l’établissement, il trouve des militaires de la force Sentinelle, qui étaient là par hasard. À l’intérieur, ça tire. Il demande aux soldats d’intervenir : leur hiérarchie refuse. Il leur demande alors de lui filer leurs armes : ils leur répondent qu’ils n’ont pas le droit de s’en séparer.

Le protocole aurait exigé que le commissaire X attende sagement l’arrivée des forces d’élite. Mais ce n’est pas son choix. Il appelle sa femme pour lui dire adieu, persuadé qu’il n’en sortira pas vivant, et décide, sans demander l’autorisation de sa hiérarchie, d’entrer avec son équipier dans la salle de concert. Il abat un terroriste, ce qui contraint les deux autres à se replier à l’étage. Dès lors, il n’y aura plus aucun tir sur les spectateurs. On peut affirmer que le commissaire X a mis fin au massacre. Il faudra attendre plus de vingt minutes – durant lesquelles les terroristes n’auraient pas cessé de tirer – pour que la brigade de recherche et d’intervention (BRI) arrive au Bataclan, à 22 h 20 précisément.

Aujourd’hui, le commissaire X est célébré, à juste titre, comme un héros. Mais, selon la rigide logique hiérarchique, il pourrait être sanctionné, puisqu’il a délibérément contrevenu aux consignes. Le livre de Georges Fenech rapporte son témoignage devant la commission d’enquête parlementaire sur les attentats : "Humainement, compte tenu de ce qui se passait, on sentait bien qu’ils étaient en train d’achever les otages, on ne pouvait pas rester à l’extérieur. Un des fonctionnaires a proposé d’attendre la BRI. J’ai répondu non."

L’attitude du commissaire X est à opposer à celle des soldats de la force Sentinelle. Car il y avait non pas un ou deux, mais huit – oui, huit ! – militaires équipés de fusils d’assaut devant le Bataclan. Quand les policiers demandent à la préfecture l’autorisation de les faire intervenir, on leur répond : "Négatif, vous n’engagez pas les militaires, on n’est pas en zone de guerre." Alors, à quoi servent ces guignols en treillis ? S’ils voient une femme en train d’être violée, ils restent les bras ballants tant qu’ils ne reçoivent pas l’ordre d’intervenir ?

On a également dit qu’ils n’étaient pas formés pour ce genre d’intervention. Sans doute. Mais avec un tel raisonnement, le commissaire X ne serait jamais entré dans le Bataclan. La commis­sion d’enquête parlementaire a auditionné le général Bruno Le Ray, alors gouverneur militaire de ­Paris. Sa justification de la passivité des soldats est telle­ment hallucinante que ça vaut le coup d’en citer de larges extraits : "On n’entre pas dans une bouteille d’encre, c’est-à-dire sans savoir où l’on va, ce que l’on va faire et contre qui […] en mon âme et conscience, je n’aurais donc pas donné l’ordre à mes soldats de pénétrer dans le bâtiment sans un plan d’action prédéfini […] il est impensable de mettre des soldats en danger dans l’espoir hypothétique de sauver d’autres hommes […] ils n’ont pas vocation à se jeter dans la gueule du loup s’ils ne sont pas assurés de disposer de chances raisonnables d’accomplir leur mission."

Je pensais naïvement que les militaires étaient entraînés pour faire face à n’importe quelle situation d’urgence. Je ­découvre que non, bien au contraire. Qu’ils ne donnent ­l’assaut qu’après mûre et patiente analyse de la situation, et qu’à la condition d’être certains de ne prendre aucun risque et de réussir, cela quand bien même des gens se font canarder à quelques mètres d’eux ! Georges Fenech, lui non plus, n’en ­revient toujours pas, et n’hésite pas à écrire que "cette passivité confine à de la non-assistance à personne en danger".

Justement, c’est le coeur du sujet. Quand vous êtes huit militaires lourdement armés et que des gens se font tuer à deux pas, n’est-ce pas de la non-assistance à personne en danger que de rester passif (de surcroît en laissant de simples policiers munis de leur flingue de service aller au feu) ? Il y a les ordres, certes. Mais, dans certains cas, on a non seulement le droit, mais le devoir d’y désobéir. L’article D. ­4122–3 du Code de la défense stipule que le militaire "ne doit pas exécuter un ordre prescrivant d’accomplir un acte manifestement illégal". Ce texte a été rédigé pour éviter (ou du moins limiter) la torture ou les massacres de civils. Mais si l’ordre contrevient à l’obligation de porter secours, est-il lui aussi "manifestement illégal" ? En droit pénal, cette obligation de désobéissance porte un nom : la "théorie de la baïonnette intelligente". Un concept qui semble totalement échapper au général Bruno Le Ray.

"Ils étaient en train d’achever les otages, on ne pouvait pas rester à l’extérieur."

Il y en a d’autres qui n’ont pas attendu les ordres. Ce sont les hommes du Raid. Cette unité était alors dirigée par Jean-Michel Fauvergue : "J’étais en train de dîner avec mes hommes quand j’ai appris l’attentat. J’ai alors décidé de me rendre aussitôt, de ma propre initiative, au Bataclan. Mais je n’ai jamais été appelé officiellement." Jean-Michel Fauvergue aurait eu le temps d’avaler dessert et digestif s’il avait attendu l’ordre de sa hiérarchie. Pourquoi le Raid – unité a priori la plus compé­tente dans ce genre de situation – n’a-t-il pas été mobilisé ? Cela reste, encore aujourd’hui, un mystère. Bizarrement, le préfet de police, Michel Cadot, a décidé de confier les rênes de l’opération à la BRI, dont Georges Fenech dit qu’elle est "habituellement compétente pour neutraliser des forcenés ou des preneurs d’otages classiques". Le Raid aurait-il été plus rapide que la BRI s’il avait dirigé les opérations – sachant que plus de deux heures se sont écoulées entre l’arrivée de cette dernière et l’assaut final ? Impossible de répondre, mais, pour Jean-Michel Fauvergue, il est indéniable que "quelque chose ne va pas lorsqu’un groupe spécialisé de compétence nationale se met à la disposition d’un groupe non spécialisé de compétence locale". En tout cas, ce 13 novembre, il assume totalement de ne pas avoir attendu la bénédiction de sa hiérarchie pour intervenir : "Dans ma carrière, il m’est arrivé plein de fois de prendre des initiatives sans attendre les ordres."

Autre problème, encore lié à cette histoire d’obéissance. Dans le documentaire de Francis Gillery, on apprend l’existence d’une brigade d’intervention (BI), à ne pas confondre avec la BRI. La BI était une brigade peu médiatisée, mais d’élite, elle aussi (elle a notamment participé à l’assaut contre l’Hyper Cacher), aujourd’hui intégrée à la BRI. Le 13 novembre, six de ses membres reviennent d’un entraînement à la tour Eiffel, lorsqu’ils ont connaissance de l’attentat au Stade de France. Ils filent illico à leur QG, s’équipent et attendent les ordres, prêts à foncer. Il est environ 21 h 30. Mais c’est la consternation : la hiérarchie leur dit non, vous n’y allez pas. Alors qu’ils sont à cinq minutes des terrasses du 11e arrondissement, on leur ordonne de se rendre au 36, quai des Orfèvres, d’attendre que la BRI s’équipe, puis de s’intégrer à celle-ci. Ce qui les fait arriver au Bataclan vers 22 h 40. Alors qu’ils auraient pu y être au moins quarante-cinq minutes plus tôt, et peut-être même avant le commissaire X ! Un retard incompréhensible, quand chaque minute représente des dizaines de victimes supplémentaires. Dans Les Ombres du Bataclan, un ancien membre de la BI exprime ses regrets d’avoir obéi : "Le commandant qui a appelé pour demander l’autorisation de se rendre sur place, je pense qu’il regrette, non pas d’avoir appelé, mais d’avoir demandé l’autorisation, il aurait dû appeler pour dire on y va. Point."

Depuis, les règles ont changé : dans le même genre de situation, les soldats de la force Sentinelle pourraient intervenir, et l’unité d’élite la plus proche des lieux serait autorisée à conduire les opérations. On peut aussi tirer de cette tragédie une leçon de philosophie : ceux qui font évoluer les règles ne sont pas tant ceux qui les respectent que ceux qui les transgressent, comme l’héroïque commissaire X.

Auteur: Fischetti Antonio

Info: Charlie Hebdo, sept 2021

[ absurde administration ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

autodétermination

Le (non-)rôle de la conscience
Le biologiste François Jacob a utilisé à propos de notre cerveau, une image admirable : le cerveau humain est conçu, dit-il, comme une brouette sur laquelle aurait été greffé un moteur à réaction. Par cette image frappante, il attirait notre attention sur le fait que notre cerveau n’est pas constitué comme une machine d’une seule pièce. Il y a en son centre, le cerveau reptilien, appelé ainsi parce qu’il possède déjà la même structure chez le reptile, et le cerveau des mammifères s’est construit comme une couche additionnelle, absolument distincte : le cortex est d’une autre nature que le cerveau reptilien. Lequel est celui des sens, de la réaction immédiate, celui du réflexe, de l’affect, comme s’expriment les psychologues.

Le cortex s’est spécialisé dans le raisonnement, dans la réflexion rationnelle, l’enchaînement des arguments, le calcul mathématique, tout ce qui est de l’ordre des symboles, et il est greffé sur ce cerveau reptilien qui est lui d’une nature purement instinctive, ce qui fait que nous réagirons par l’enthousiasme ou par la peur devant ce que notre cerveau-cortex aura déterminé de faire. Les plus beaux exemples dans ce domaine, ce sont bien sûrs les traders qui nous les proposent. Ceux d’entre mes lecteurs qui connaissent des traders savent que le jour où ils ont gagné beaucoup d’argent ils sont dans les restaurants et les bars des beaux quartiers, ils fument de gros cigares et boivent beaucoup, alors que les jours où ils ont perdu des sommes impressionnantes, on les voit beaucoup moins : ils sont à la maison, ils essaient de dormir et ont pris des cachets pour tenter d’y parvenir.

Une autre caractéristique de notre cerveau, c’est que la conscience que nous avons de ce que nous faisons, cette conscience n’a pas véritablement été conçue comme un instrument qui nous permette de prendre des décisions. Quand les psychologues sont allés expérimenter, dans les années 1960, autour de la question de la volonté, ils ont fait la découverte sidérante que la volonté apparaît dans le cerveau après qu’a été réalisé l’acte qu’elle est censée avoir déterminé. La représentation de la volonté que nous allons poser un acte, n’intervient en fait qu’une demi-seconde après que l’acte a été posé, alors que l’acte lui-même a pu être réalisé un dixième de seconde seulement après l’événement qui en a été le véritable déclencheur.

Le psychologue qui a découvert cela est Américain et son nom est Benjamin Libet (1916-2007). La première hypothèse qu’il a émise, quand les faits lui sont apparus dans toute leur clarté, a été d’imaginer qu’il existait un mécanisme dans le cerveau qui permet à une information de remonter le temps. Son explication première n’a pas été que "volonté" est un mot dénotant un processus illusoire, une mésinterprétation de notre propre fonctionnement, mais que la volonté devait bien – comme nous l’imaginons spontanément parce que les mots de la langue nous le suggèrent fermement – décider des choses que nous allons accomplir, et que la seule explication possible était que la volonté remonte dans le temps pour poser les actes que nous supposons qu’elle détermine, seule manière de rendre compte du décalage d’une demi-seconde observé.

Il n’y a donc pas comme nous l’imaginions avant la découverte de l’inconscient, une conscience décidant de tous nos actes, à l’exception des actes réflexes. Il n’y a pas non plus, comme Freud l’avait imaginé, deux types d’actes : les uns déterminés par la conscience et les autres par l’inconscient, il n’y a – du point de vue décisionnel – qu’un seul type d’actes, déterminés par l’inconscient, la seule différence étant que certains apparaissent dans le "regard" de la conscience (avec une demi-seconde de retard sur l’acte posé), et certains non.

Dans l’article où je proposais pour la première fois une théorie complète de la conscience tenant compte des découvertes de Libet, j’écrivais : "la conscience est un cul-de-sac auquel des informations parviennent sans doute, mais sans qu’il existe un effet en retour de type décisionnel. C’est au niveau de l’affect, et de lui seul, que l’information affichée dans le regard de la conscience produit une rétroaction mais de nature "involontaire", automatique" (Jorion 1999 : 179). Je suggérais alors de remplacer, pour souligner les implications de la nouvelle représentation, le mot "conscience" par "imagination", et le mot "inconscient", par "corps", pour conclure alors que toutes nos décisions sont en réalité prises par notre corps mais que certaines d’entre elles (celles que nous avions l’habitude d’attribuer à notre "volonté") apparaissent à notre imagination : "En réalité, la prise de décision, la volonté, a été confiée au corps et non à l’imagination" (ibid. 185).

Il restait à comprendre pourquoi le regard de la "conscience" est apparu dans l’évolution biologique. L’explication – en parfait accord avec les observations de Libet – est qu’il s’agit d’un mécanisme nécessaire pour que nous puissions nous constituer une mémoire (adaptative) en associant à nos percepts, les affects qu’ils provoquent en nous, et ceci en dépit du fait que les sensations en provenance de nos divers organes des sens (nos "capteurs"), parviennent au cerveau à des vitesses différentes (ibid. 183-185).

Les observations de Libet, et la nouvelle représentation de nos prises de décision qui en découle, ont d’importantes conséquences pour nous, et en particulier quand nous voulons reconstruire sur un nouveau mode la manière dont nous vivons. Il faut que nous tenions compte du fait que notre conscience arrive en réalité toujours quelque temps après la bataille.

Il y a des gens heureux : ceux dont la conscience constate avec délice les actes qui ont été posés par eux. Il n’y a pas chez eux de dissonance, il n’y a pas de contradiction : nous sommes satisfaits de constater notre comportement tel qu’il a eu lieu. Et c’est pour cela que l’affect n’est pas trop déçu de ce qu’il observe. L’affect réagit bien entendu : soit il cautionne ce qu’il peut observer comme étant à l’œuvre, soit il est déçu quand il constate le résultat. On peut être honteux de ce qu’on a fait. Nous pouvons nous retrouver parfaitement humiliés par les actes qui ont été posés par nous : par ce que la conscience constate après la bataille. En voici un exemple : je me trouve dans le studio de FR 3, pour l’émission "Ce soir (ou jamais !)", et la personne invitée pour la partie musicale en fin d’émission, c’est Dick Rivers, et je lui dis : "C’est formidable, cette époque où vous chantiez avec Les chaussettes noires !", et il me répond : "En réalité, le nom de mon groupe, c’était Les chats sauvages". J’étais tellement humilié d’avoir commis une pareille bévue ! Il s’agit là d’un exemple excellent de dissonance, et ma conscience qui intervenait avec une demi-seconde de retard était extrêmement gênée de devoir être confrontée au triste sire que j’étais.

Bien sûr, nous sommes devenus très forts dans notre manière de vivre avec une telle dissonance : nous réalisons des miracles en termes d’explications après-coup de notre propre comportement. J’écoute parfois, comme la plupart d’entre nous, des conversations dans le métro ou dans le bus où une dame explique à l’une de ses amies à quel point elle était maître des événements : "Elle m’a dit ceci, et tu me connais, je lui ai répondu du tac-au-tac cela, et tu aurais dû voir sa tête…". Nous sommes très forts à produire des récits autobiographiques où nous intégrons l’ensemble des éléments qui font sens dans une situation, après coup. Plusieurs concepts de la psychanalyse renvoient aux différentes modalités de nos "rattrapages après la bataille", quand la conscience constate les dégâts que nous avons occasionnés par nos actes et tente de "faire avec" : la psychanalyse parle alors d’élaboration secondaire, de rationalisation, de déni, de dénégation, etc.

Pourquoi est-ce important d’attirer l’attention sur ces choses ? Parce que nous contrôlons beaucoup moins de manière immédiate ce que nous faisons que nous ne le laissons supposer dans les représentations que nous en avons. Dans celles-ci, nos comportements sont fortement calqués sur ce qu’Aristote appelait la cause finale : les buts que nous nous assignons. Bien sûr, quand nous construisons une maison, nous définissons les différentes étapes qui devront être atteintes successivement et nous procédons de la manière qui a été établie. Nous avons la capacité de suivre un plan et un échéancier, de manière systématique, mais la raison n’est pas, comme nous le supposons, parce que nous procédons pas à pas, d’étape en étape, mais plutôt parce que nous avons posé la réalisation de la tâche comme un "souci" projeté dans l’avenir, souci dont l’élimination nous délivrera et nous permettra… de nous en assigner de nouveaux. Encore une fois, c’est l’inconscient ou, si l’on préfère, le corps, qui s’en charge. J’écrivais dans le même article : "Wittgenstein s’est souvent interrogé quant à la nature de l’intention. Il se demande par exemple, "‘J’ai l’intention de partir demain’ – Quand as-tu cette intention ? Tout le temps : ou de manière intermittente ?" (Wittgenstein 1967 : 10). La réponse à sa question est en réalité "tout le temps dans le corps et de manière intermittente dans l’imagination"" (ibid. 189).

Mais dans nos actes quotidiens, dans la façon dont nous réagissons aux autres autour de nous, parce que nous vivons dans un univers entièrement social, il faut que nous prenions conscience du fait que nous avons beaucoup moins de maîtrise immédiate sur ce que nous faisons que nous ne l’imaginons le plus souvent, une maîtrise beaucoup plus faible que ce que nous reconstruisons par la suite dans ces discours autobiographiques que nous tenons : dans ces discours de rationalisation, d’autojustification faudrait-il dire, que nous produisons à l’intention des autres. Il faut bien dire que, sachant comment eux-mêmes fonctionnent, ils n’y croient pas en général. Et nous en sommes les seules dupes.

Auteur: Jorion Paul

Info: 7 avril 2012, dans Notre cerveau : conscience et volonté, "Le secret de la chambre chinoise", L’Homme 150, avril-juin 1999 : 177-202, Wittgenstein, Ludwig, Zettel, Oxford, Basil Blackwell, 1967

[ illusion ]

 

Commentaires: 0

cognition

Lorsqu'on réfléchit à une idée-concept c'est toujours à postériori. 

Pas tout à fait ici, puisque nous désirons aborder et tenter de caractériser le terme "conscience". Vu bien sûr "à partir de", l'entendement humain. 

Conscience humaine, ici notion-idée tant grégaire-objective, qu'individuelle-subjective, qui serait, selon nous autres singes dépoilés, la plus complexe et la plus évoluée à ce jour. 

Ah ah ah, c'te bonne blague. 

Soit. 

Selon FLP l'entendement humain est principalement scriptural, c'est à dire qu'il a pu se développer "un cran plus loin, ou plus" grâce aux symboles et langages, puis à l'écriture de signes organisés, bientôt stockés sur supports externes, ceci amenant l'émersion-développement d'une culture grégaire (dictionnaires, traductions, mathématiques, spécialisations théologico-scientifiques, recensement des tactiques militaro-politico-économiques, littérature, philos, intellectualisme, chatgpt, etc). Tout ceci maintenant traduit et trans-frontières, accessible à tous, planétarisé... numérisé... Avec une tendance à s'orienter vers l'image ; mais c'est une autre histoire.

Il y a donc un grand corpus-intellect humain, constitué au fil des générations par des millions de singularités qui bougent, agissent... réfléchissent, échangent, et manipulent les idées, principalement écrites donc. 

Corpus qui résulte de notre interaction avec la réalité (priméité), interaction qui génère par rétroaction, grâce à des idiomes qui codifient-définissent-organisent, nos divers points de vue,  (codés par des mots pour faire simple) sur ce réel. Un corpus suffisamment vaste, riche et varié pour que chaque subjectivité puisse s'y épanouir, y exister... se définir elle-même. Et s'y perdre. Aussi.

La preuve ici-même ?

C.S. Pierce dirait quelque chose comme ; humains-secondéités qui, au contact de leur réel-priméité, génèrent des textes, pensées-écrits, qui sont des tiercités. 

Ainsi l'IA matérialisée par chatgpt et consorts ne fait que manipuler ces humaines tiercités. Autant dire que par rapport aux développements divers de la vie bactérienne, et des combinaisons toujours plus complexes de molécules et de protéines qui s'en sont ensuivies, les langages humains font piteux. Pour l'instant.

Oublions ceci et réfléchissons selon la triade piercéenne, partant de l'idée que la priméité est au premier chef notre biotope terre-soleil, avec l'univers en arrière-plan. 

(Avec cette digression :  si la priméité est le soleil et la secondéité notre matrice Gaïa, cette dernière générerait alors des tiercités sous forme de vie organique et d'humains. Perspective éventuellement pessimiste dans la mesure où elle pourrait impliquer l'idée d'une terre-Gaïa terminus, à la surface de laquelle les humains ne seraient qu'éphémères et transitoires virus. Pourquoi pas.)

Mais restons sur cette triade initiale, qui peut être appréhendée comme purement mécanique, logique, voire simplement informationnelle récursive :

a) réalité source-priméité b) vie organique hommes-secondéité C) technologies écritures humaines-tiercité.  

Prenons maintenant un peu de recul en termes de temps et d'échelles, partant de ce que nous savons de plus basique pour ce qui concerne la vie "issue de la matière". A savoir à partir de la chimiosynthèse et surtout, de la photosynthèse. C'est à dire de l'interaction assez incroyable entre l'énergie solaire (photons) et certains atomes-molécules terrestres qui, par le truchement de l'anhydride de carbone*, en viennent à générer des chaines organiques, des végétaux, des animaux...  Et nous.  

Reprenons : l'idée-concept de départ à définir ici est celle de conscience, vue de, et rapportée à "l'entendement humain". ( Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. FLP, ne se refusant à aucune mégalomanie, s'attaque à l'esprit lui-même, sissi. D'autant qu'on dirait  que les paradoxes quantiques pointent vers cet impératif. Impératif qui pourra se résumer en une question : comment fonctionne l'observateur ?)

Ici se pose le vertige des limites que porte en lui le langage. Parce que ce dernier, usant de "symboles écrits", désignait/nommait originellement les éléments issus de notre réalité de "façon claire", un arbre est un arbre, une montagne est une montagne, etc... Langage aussi capable de désigner/nommer une abstraction généralisante comme "notre réel lui-même". Et qui, plus avant, est même apte à désigner l'observateur-générateur-manipulateur de l'idiome lui-même. Toi moi, nous autres humains lecteurs.

Puissance paradoxale d'une pensée symbolique suffisamment adroite pour se contempler en miroir d'elle-même via les jeux polysémiques et autres variés décalages signifiant-signifié.

Quel(s) terme(s) alors utiliser pour tenter d'approcher une définition de cette curieuse émergence auto-réfléxive en s'inspirant de l'interaction photosynthétique ?  médium, mécanisme, outil interactif, "quelque chose qui réfléchit"... intelligence... transmutation...  émergence...  interface pseudo rationnelle... pensée abstraite agissante ?... 

Quelques mots simples n'y suffiront pas, et, pour prendre un exemple, une AI totalisante comme chatgpt semble s'y perdre à l'identique, enfermée dans ce qu'il faut bien appeler un anthropisme limitatif. 

C'est ici que FLP, sous pilotage humain (ses participants-lecteurs inserteurs) pourra se positionner, via la conjonction-usage de plusieurs termes simultanés (verticaux, nuage de corrélats ?). Conjonction susceptible de mieux préciser-comprendre-communiquer tel ou tel mot ou situation. Ce qui pourrait bien aider à mieux définir-consolider certaines articulations de nos raisonnements. Mais aussi mieux approcher une image "rapportée" de la conscience humaine, en fonction de "contextes précis et délimités" - pour commencer. 

Fonction FLPique de dictionnaire intriqué - qui n'en n'est qu'à ses balbutiements - et qui s'amuse à sortir de la prison séquentielle du raisonnement écrit en ouvrant une réflexion qui s'arrête en un point, perpendiculaire en quelque sorte. Halte cogitation éventuellement aidée par ces termes-tags-étiquettes annexes, verticaux, ou en nuage. Listing annexe à tendance synonymique qui pourra se présenter comme suit pour ce texte même, éventuellement par ordre d'importance :

entendement

assimilation chlorophyllienne

gnose

méta-moteur

savoirs

mécanisme constructeur, etc.

Humaine-conscience-interface très limitée aussi, au sens où elle ne sert à peu près qu'à elle-même, femmes et hommes, enfermés encore et toujours dans une Culture communautaire trans-époque que nous qualifions volontiers de "solipsisme anthropique". 

Savoirs humains entassés-conjugués qui ressemblent donc à un genre de grande conscience désordonnée, pour laquelle des termes comme information, communication, virtualité, annales akashiques... quasi-esprit, savoirs compilés... Une fois bien mélangés-combinés, pourront faire l'affaire. Mais stop.

Intéressons-nous maintenant ici à la notion de vitesse, sans lâcher cette idée de comparer "comment nous pensons nous-mêmes" avec une photosynthèse qui opère à des échelles de l'ordre du millionnième de seconde et du millionnième de millimètre.  

Bonjour alors les infinités d'échelons et de déclinaisons de "consciences", ou de niveaux de réflexions qui pourront découler de cette idée ; enchevêtrés de surcroit. Au hasard - et par seuls groupes de deux : animaux et biotope, molécules et gravitation, lune et océans, humains et idées, insectes et univers, etc...

Tout est dans tout.

Sortons alors de cette idée de mécaniques résonantes partout dans le cosmos et remettons nous à la place de l'individu monade, du créateur, ou de l'indispensable lecteur qui aide à faire exister ces lignes. 

De notre conscience propre donc, au sens d'une intellection humaine rationnelle, directement issue d'un esprit des listes - et de la logique formelle duale qui nous anime. Une fondation très simple donc, pour qui "s'introspecte" avec honnêteé et lucidité.

Ici l'auteur de ces lignes précise qu'il y a, à tous les plans de la vie non minérale incarnée, un mécanisme incontournable qui est celui de la survie, de la perpétuation. Un mécanisme "qui pousse" et qui, pour FLP, est sous-tendu depuis peu (à l'échelle cosmique) particulièrement chez les eucaryotes, par la dualité mâle-femelle. Avec les poncifs qui vont avec : procréation-curiosité, terre-ciel, conservation-exploration, etc... 

Mécanisme tétravalent, mais c'est une autre histoire.

Cette survie, de notre limitée perspective d'animaux humains, au-delà des infinies différences de vitesse citées plus tôt, présente divers stades-niveaux d'intensité et de résilience que nous dirons psycho-sociologiques : l'individu-monade, sa famille, la communauté... son pays... jusqu'à sa planète. 

Déclinés comme suit : 

- Survie immédiate, dans l'instant.

- Survie à moyen terme - comment se développer, s'intégrer, trouver un travail, un/une partenaire... 

- Survie dans le temps - comment procréer, fonder une, ou plusieurs, famille(s). Construire une carrière pour y aider.

- Survie communautaire ou territoriale - comme n'importe quelle nation agressée qui se défend... ou un peuple juif qui veut se maintenire au travers des pays et des âges.

- Survie grégaire - par exemple de terriens menacés par de vilains ET's dans un mauvais scénario de SF. Ou plus simplement menacés par eux-mêmes de par le réchauffement climatique qu'ils ont induit. 

Humano-terriens qui malgré celà continuent leur expansion démographique et consumériste. Grr

Quant à la survie du processus Gaïa lui-même, ayons l'humilité de reconnaitre que c'est une problématique qui nous dépasse. En attendant de rencontrer les entités qui se sont amusées à nous créer (pour voir ?)... et ouvrir un peu nos perspectives ;-)

En résumé, pour reprendre l'objet de départ de ce texte, la caractérisation du terme "conscience", on s'aperçoit que comme tout principe terminologique arrêté, ce mot se révèle plurivoque, jusqu'à devenir UNIVERS (classe d'universalité des mathématiciens-physiciens ?) dès qu'on entreprend d'approfondir-préciser son analyse sémantique. Univers avec donc une infinité de niveaux et de vitesses imbriquées, ou pas, parallèles, ou pas... C'est à dire tout en même temps connexionniste, bayésien, perspectiviste, diachronique, systémique, cybernétique, etc. 

Tout est dans tout. 

Encore.

Tout ceci allant très au-delà - par exemple - d'une méthode sémantico-noétique aristotélicienne de l'abstraction, limitation en elle-même.

La conscience est partout et nulle part. 

Elle est surtout un mot à la mode qui, sans le langage et surtout l'écriture, ressemble à une illusion. 

"L'être humain vivant semble n'être constitué que de matière et d'énergie. L'esprit n'est qu'une hypothèse." Isaac Asimov**

Auteur: Mg

Info: sept 2023. *Le carbone représente 0,5% des atomes dans la voie lactée. Le CO2, atome de carbone sous sa forme gazeuse, aussi nommé dioxyde de carbone, gaz carbonique ou anhydride carbonique est présent à 4% dans l'athmosphère terrestres. En janvier 2021, l'atmosphère terrestre comportait 415,13 ppmv (parties par million en volume) de CO2, soit 0,04153 %. Cette teneur était de 283,4 ppmv en 1839 d'après des carottes de glace prélevées dans l'Antarctique, soit une augmentation globale d'environ 46 % en 182 ans. **Épigraphe dans Isaac Asimov's Book of Science and Nature Quotations (1988), 214

[ anthropocentrisme ] [ hiérarchisation ] [ corps-esprit ] [ au coeur de FLP ] [ ontologie ] [ polysémie ]

 
Commentaires: 8
Ajouté à la BD par Le sous-projectionniste